El futuro (¿fructífero o peligroso?) de la Inteligencia Artificial: OpenAI y ChatGPT

Más sobre el tema de la Inteligencia Artificial y su capacidad de beneficio o de daño. Hace pocas semanas hubo unos movimientos poco habituales en la conducción de Open AI, la empresa que nos brinda ChatGPT. Lo tratan en este artículo en Discourse, por Martin & David Gurri, titulado: “The Fifth Wave: “Open the Pod Bay Doors, ChatGPT”. Is artificial intelligence good or evil? The answer depends on us rather than the AI: https://www.discoursemagazine.com/p/the-fifth-wave-open-the-pod-bay-doors?utm_source=%2Fsearch%2Fthe%2520fifth%2520wave&utm_medium=reader2

“El despido de Sam Altman como director ejecutivo de OpenAI fue el tipo de extraño teatro kabuki en el que ocasionalmente participa Silicon Valley. Altman, presidente del vivero de startups Y Combinator, es un titán de la tecnología. OpenAI es la organización ambivalente sin fines de lucro y con fines de lucro que nos dio ChatGPT, que, como saben todos los que no durmieron hasta 2023, es el programa de inteligencia artificial que responde a los humanos. También es la aplicación de más rápido crecimiento en la historia.

La misión de OpenAI, de la cual Altman es cofundador, es desarrollar una IA segura; hablaremos de eso más adelante. Evidentemente, la mayoría de la junta directiva de la empresa creía que Altman no era lo suficientemente preocupado por la seguridad y el 17 de noviembre lo despidieron sin previo aviso. Esto rápidamente puso en marcha una desconcertante serie de movimientos y contraataques que terminaron cuatro días después con Altman retomando triunfalmente su trabajo como jefe, despidiendo a sus oponentes en el tablero y dejándonos al resto de nosotros preguntándonos qué diablos había pasado.”

Siempre hay quienes predicen el futuro y auguran el fin de la humanidad: más ahora con la Inteligencia Artificial

Nunca han dejado de estar presentes las visiones apocalípticas ante cada cambio importante en la sociedad. Veamos un ejemplo respecto a la Inteligencia Artificial. El título del artículo ya asusta: “Optimising peace through a Universal Global Peace Treaty to constrain the risk of war from a militarised artificial superintelligence”,  por Carayannis, E.G., de George Washington University, y veamos la afiliación del otro autor,  Draper, J. “Nonkilling Economics and Business Research Committee, Center for Global Nonkilling, Honolulu”. Primera vez que veo que existe tal cosa como una “non killing economics”(¿?). AI & Soc 38, 2679–2692 (2023). https://doi.org/10.1007/s00146-021-01382-y

“Este artículo sostiene que una superinteligencia artificial (ASI) que emerge en un mundo donde la guerra todavía está normalizada constituye un riesgo existencial catastrófico, ya sea porque la ASI podría ser empleada por un estado-nación para guerrear por la dominación global, es decir, una guerra habilitada por la ASI, o porque la ASI hace la guerra en su nombre para establecer la dominación global, es decir, una guerra dirigida por la ASI. Actualmente, pocos Estados se declaran la guerra o incluso la guerra entre sí, en parte debido a la Carta de las Naciones Unidas de 1945, que establece que los Estados miembros deben “abstenerse en sus relaciones internacionales de la amenaza o el uso de la fuerza”, al tiempo que permite el apoyo del Consejo de Seguridad de las Naciones Unidas. Medidas militares y autodefensa. Como los Estados miembros de la ONU ya no se declaran la guerra entre sí, sólo ocurren “conflictos armados internacionales”. Sin embargo, todavía se producen costosos conflictos interestatales, tanto fríos como calientes y equivalentes a guerras. Además, se avecina una nueva Guerra Fría entre las superpotencias de la IA. Un conflicto futuro dirigido o habilitado por la ASI podría desencadenar una guerra total, incluido un conflicto nuclear, y, por lo tanto, es de alto riesgo. A través del instrumentalismo conformista, una teoría de las relaciones internacionales, abogamos por la reducción del riesgo optimizando la paz a través de un Tratado de Paz Global Universal (UGPT), contribuyendo al fin de las guerras existentes y a la prevención de guerras futuras, así como una Convención sobre armas cibernéticas e inteligencia artificial. Esta estrategia podría influir en los actores estatales, incluidos aquellos que desarrollan ASI, o una ASI agencial, particularmente si valora el instrumentalismo conformista y la paz.”

¿Puede la Inteligencia Artificial ser «creativa»? ¿O ayudar o perjudicar a la creatividad humana?

Ya he tratado aquí el tema de la Inteligencia Artificial y si amenaza cambiar radicalmente el mundo en que vivimos. Una pregunta interesante sobre ese tema es si la IA puede ser “creativa” o es ésa una característica solamente humana. Este trabajo no trata específicamente ese tema sino cómo la IA puede ayudar o perjudicar la creatividad humana. Se titula “Generative artificial intelligence enhances individual creativity but reduces the collective diversity of novel content” , por Anil R. Doshi (Department of Strategy and Entrepreneurship, UCL School of Management, London, y Oliver P. Hauser, Department of Economics, University of Exeter. https://arxiv.org/ftp/arxiv/papers/2312/2312.00506.pdf

“La creatividad es fundamental para ser humano. La inteligencia artificial generativa (GenAI) promete que los humanos sean más creativos al ofrecer nuevas ideas, o menos creativos al anclarlas en las ideas de Gen AI. Estudiamos el impacto causal de las ideas de Gen AI en la producción de una producción creativa no estructurada en un estudio experimental en línea donde algunos escritores podrían obtener ideas para una historia desde una plataforma de Gen AI. ativo, mejor escrito y más agradable, especialmente entre escritores menos creativos. Sin embargo, las medidas objetivas de similitud de historias dentro de cada condición revelan que las historias habilitadas por GenAI son más similares entre sí que las historias escritas por humanos solos. Estos resultados apuntan a un aumento en la creatividad individual, pero al mismo tiempo existe el riesgo de perder la novedad colectiva: esta dinámica se asemeja a un dilema social en el que los escritores individuales están en mejores condiciones de usar GenAI para mejorar su propia escritura, pero colectivamente no tienen un alcance más limitado. El contenido vel puede producirse con GenAI. Nuestros resultados tienen implicaciones para investigadores, formuladores de políticas y profesionales interesados ​​en impulsar la creatividad, pero señalan posibles consecuencias posteriores de una dependencia excesiva.”

Antes el avance de las regulaciones: Declaración global por una Inteligencia Artificial Libre y Abierta

Recién llega la Inteligencia Artificial y ya están queriendo regularla. Una coalición de distintos think tanks de todo el mundo plantea la necesidad de que sea libre y abierta. Se trata de ITIF, International, Trade and Innovation Foundation, que presenta una declaración que puede ser firmada por todo aquél que acuerde con ella, aquí: https://itif.org/publications/2023/09/13/global-declaration-on-free-and-open-ai/

Se titula “A Global Declaration on Free and Open AI”, y comienza así:

“Para garantizar que Internet genere cambios positivos para miles de millones de personas en todo el mundo, Estados Unidos ha defendido el concepto de una “Internet libre y abierta”. Encabezado por figuras como la Secretaria Clinton y el Presidente Obama, así como respaldado por docenas de países, incluido el más reciente en la Declaración para el Futuro de Internet, enfatizó la importancia de que las sociedades democráticas luchen por la libertad de expresión, el libre flujo de información, y la capacidad de conectarse sin restricciones indebidas.1 Quizás lo más importante es que esta visión positiva de Internet ha proporcionado un contraste intelectual al surgimiento del autoritarismo digital.

A medida que la inteligencia artificial (IA) generativa emerge como otra tecnología transformadora preparada para impactar significativamente la libertad de expresión y las oportunidades económicas, es crucial que las naciones se comprometan con principios similares para garantizar que estas poderosas herramientas sirvan a los ideales democráticos y promuevan el progreso global.”

¿Qué será mejor para generar ideas innovadoras de negocios? ¿Crowdsourcing (humanos), o Inteligencia Artificial?

¿Puede la inteligencia artificial desarrollar negocios innovadores? ¿Y puede hacerlo mejor que los humanos? En este paper se analiza el tema buscando comparar la capacidad de crear ideas innovadoras a través de crowdsourcing (humanos) y algún reconocido programa de inteligencia artificial. Este es el artículo de estos profesores de Harvard Business School y MIT: Boussioux, Leonard and N. Lane, Jacqueline and Zhang, Miaomiao and Jacimovic, Vladimir and Lakhani, Karim R., “The Crowdless Future? How Generative AI Is Shaping the Future of Human Crowdsourcing” (August 7, 2023). Harvard Business School Technology & Operations Mgt. Unit Working Paper No. 24-005, Available at SSRN: https://ssrn.com/abstract=4533642  or http://dx.doi.org/10.2139/ssrn.4533642

“Este estudio investiga la capacidad de la inteligencia artificial generativa (IA) para crear soluciones comerciales innovadoras en comparación con los métodos de crowdsourcing humano. Iniciamos un desafío de crowdsourcing centrado en oportunidades comerciales sostenibles y de economía circular. El desafío atrajo a una amplia gama de solucionadores de una miríada de países e industrias. Simultáneamente, empleamos GPT-4 para generar soluciones de IA utilizando tres niveles de solicitud diferentes, cada uno calibrado para simular distintas personas humanas y personas expertas. 145 evaluadores evaluaron una selección aleatoria de 10 de 234 soluciones humanas y de IA, un total de 1885 pares de evaluador-solución. Los resultados mostraron una calidad comparable entre las soluciones humanas y las generadas por IA. Sin embargo, las ideas humanas se percibieron como más novedosas, mientras que las soluciones de IA brindaron un mejor valor ambiental y financiero. Usamos técnicas de procesamiento de lenguaje natural en el texto de la solución enriquecida para mostrar que, aunque los solucionadores humanos y GPT-4 cubren una gama similar de industrias de aplicación, las soluciones humanas exhiben una mayor diversidad semántica. La conexión entre la diversidad semántica y la novedad es más fuerte en las soluciones humanas, lo que sugiere diferencias en cómo los humanos y la IA crean la novedad o la detectan los evaluadores humanos. Este estudio ilumina el potencial y las limitaciones del crowdsourcing tanto humano como de IA para resolver problemas organizacionales complejos y sienta las bases para un posible enfoque integrador humano-IA para la resolución de problemas.”

Ahora, con la Inteligencia Artificial, ¿será posible planificar la economía? ¿será posible el ‘tecnosocialismo’?

Con todo el auge de la Inteligencia Artificial vuelve a plantearse la discusión sobre la planificación económica. ¿Será que ahora con estas tecnologías será factible? Y una vez más hay que plantear los argumentos que aclaran el tema. Por ejemplo, como aparecen en el Journal of Economic Behavior & Organization, Volume 205, January 2023, Pages 44-54, en un artículo titulado “On the feasibility of technosocialism”, por Peter J. Boettke y Rosolino A. Candela del Mercatus Center, George Mason University: https://doi.org/10.1016/j.jebo.2022.10.046

“Los avances tecnológicos asociados con el poder de cómputo y la perspectiva de la inteligencia artificial han renovado el interés sobre la viabilidad económica del socialismo. La cuestión de tal factibilidad gira en torno a si el problema del cálculo económico ha cambiado fundamentalmente. A pesar de la perspectiva de lo que King y Petty (2021) denominan “tecnosocialismo”, argumentamos que los avances tecnológicos en computación no pueden reemplazar el proceso de descubrimiento competitivo que tiene lugar en el contexto del mercado. Lo hacemos situando el caso del tecnosocialismo en el contexto del debate del cálculo socialista. Entendido en estos términos, el tecnosocialismo representa una reformulación del caso del socialismo de mercado, que incorrectamente enmarcó la “solución” al cálculo económico bajo el socialismo como una de datos informáticos, en lugar del descubrimiento de un conocimiento específico del contexto que solo emerge a través del intercambio de derechos de propiedad. Por lo tanto, los argumentos presentados por Ludwig von Mises y F.A. Hayek, y más tarde por Israel Kirzner y Don Lavoie, con respecto a la imposibilidad del cálculo económico bajo el socialismo siguen siendo igualmente relevantes hoy.”

Hay quienes dicen que la Inteligencia Artificial nunca podrá igualar la creatividad de los humanos. ¿Será así?

Más sobre el intenso debate vinculado con la Inteligencia Artificial. Aquí una opinión señalando que nunca podrá igualar la creatividad humana, en particular en el arte. ¿y porqué sería así? En fin, está en este artículo “Why AI Will Never Rival Human Creativity: Predictive mechanisms preclude the originality needed for true art”, por WILLIAM DERESIEWICZ, autor de varios libros como Excellent Sheep, The Death of the Artist, A Jane Austen Education y The End of Solitude: Selected Essays on Culture and Society. https://www.persuasion.community/p/why-ai-will-never-rival-human-creativity?utm_source=%2Fsearch%2Fderesiewicz%2520wiliam&utm_medium=reader2

“La IA podría dejar a los artistas fuera del negocio. Sin embargo, no los reemplazará. No hará, no puede, hacer buen arte, gran arte: verdadero arte. Es decir, arte original. Esto es, lo sé, una predicción peligrosa (“predicción peligrosa”: una redundancia). Pero a diferencia de los expertos en tecnología y los expertos, en su gloriosa presunción ignorante, tengo una idea de lo que es el arte y cómo se crea.

La IA opera tomando decisiones de alta probabilidad: la siguiente palabra más probable, en el caso de los textos escritos. Los artistas —pintores y escultores, novelistas y poetas, cineastas, compositores, coreógrafos— hacen lo contrario. Toman decisiones de baja probabilidad. Toman decisiones que son inesperadas, extrañas, que parecen errores. A veces son errores, reconocidos, en retrospectiva, como felices accidentes. Eso es la originalidad, por definición: una elección de baja probabilidad, una elección que nunca se ha hecho.”

¿Con la Inteligencia Artificial podrá el estado planificar la economía? Otra vez, la respuesta es no.

Una y otra vez, con cada avance de la tecnología informática se vuelve a plantear que ahora sí, con esa tecnología, el Estado podrá planificar la economía. Que no tenerla en el pasado es lo que explica su fracaso. Y otra vez se muestra que no es así, ahora con la llegada de la Inteligencia Artificial. Lo plantea este artículo: Davidson, Sinclair, “The Economic Institutions of Artificial Intelligence” (June 14, 2023). Available at SSRN: https://ssrn.com/abstract=4456471  or http://dx.doi.org/10.2139/ssrn.4456471

“Este artículo explora el papel de la inteligencia artificial (IA) dentro de las instituciones económicas, centrándose en la racionalidad limitada tal como la entiende Herbert Simon. La inteligencia artificial puede hacer muchas cosas en la economía, como aumentar la productividad, mejorar la innovación, crear nuevos sectores y puestos de trabajo y mejorar el nivel de vida. Una de las formas en que la IA puede alterar la economía es reduciendo el problema de la racionalidad limitada. La IA puede ayudar a superar este problema procesando grandes cantidades de datos, encontrando patrones e información, y haciendo predicciones y recomendaciones. Esta idea plantea la pregunta: ¿puede la IA superar los problemas de planificación? ¿Podría ser que la planificación central sea ahora una opción viable? Este artículo argumenta que la IA no hace que la planificación central sea viable, simplemente porque la IA no puede resolver el problema de la información descrito por Ludwig von Mises y Friedrich Hayek.”

¿La Inteligencia Artificial va a cambiar nuestras vidas para siempre? Parece que sí

¿Cuál es el futuro de la Inteligencia Artificial? ¿Es verdad que va a cambiar nuestras vidas en forma definitiva? Es lo que se escucha en muchos lados y expresa aquí Max Roser de Our World in Data: https://ourworldindata.org/ai-timelines

“Hay dos grandes conclusiones de estos pronósticos sobre los cronogramas de IA:

No hay consenso, y la incertidumbre es alta. Existe un gran desacuerdo entre los expertos sobre cuándo se desarrollará la IA a nivel humano. Algunos creen que faltan décadas, mientras que otros piensan que es probable que dichos sistemas se desarrollen en los próximos años o meses.

No solo hay desacuerdo entre expertos; los expertos individuales también enfatizan la gran incertidumbre en torno a su propia estimación individual. Como siempre que la incertidumbre es alta, es importante recalcar que se corta en ambos sentidos. Puede pasar mucho tiempo hasta que veamos la IA a nivel humano, pero también significa que es posible que tengamos poco tiempo para prepararnos.

Al mismo tiempo, existe un gran acuerdo en el panorama general. Los plazos de muchos expertos son más cortos que un siglo, y muchos tienen plazos que son sustancialmente más cortos que eso. La mayoría de los que estudian esta cuestión creen que existe un 50 % de posibilidades de que se desarrollen sistemas de IA transformadores en los próximos 50 años. En este caso, plausiblemente sería la mayor transformación en la vida de nuestros hijos, o incluso en nuestra propia vida.

El discurso público y la toma de decisiones en las principales instituciones no se han puesto al día con estas perspectivas. En las discusiones sobre el futuro de nuestro mundo, desde el futuro de nuestro clima hasta el futuro de nuestras economías y el futuro de nuestras instituciones políticas, la perspectiva de una IA transformadora rara vez es central en la conversación. A menudo no se menciona en absoluto, ni siquiera en una nota al pie.

Parece que estamos en una situación en la que la mayoría de la gente apenas piensa en el futuro de la inteligencia artificial, mientras que los pocos que le dedican su atención encuentran plausible que una de las mayores transformaciones en la historia de la humanidad suceda durante nuestras vidas.”

2001 Space Odyssey: ¿La Inteligencia Artificial puede ser una amenaza de extinción de o dominación a los humanos?

Una última lectura sobre el tema de IA y ChatGPT. En este caso quería presentar una que planteara un escenario catastrófico para la humanidad, además de los que ya nos presentan con el cambio climático. Cuando leo estos temas no dejo de recordar lo que se decía iba a ocurrir con el cambio de siglo, se iban a parar todas las computadoras del planeta….

En fin, para conocer esta opinión sugiero leer este artículo “Preventing an AI-related catastrophe: AI might bring huge benefits — if we avoid the risks”, por Benjamin Hilton: Preventing an AI-related catastrophe – 80,000 Hours (80000hours.org)

“Esperamos que haya un progreso sustancial en la IA en las próximas décadas, potencialmente incluso hasta el punto en que las máquinas superen a los humanos en muchas, si no en todas, las tareas. Esto podría tener enormes beneficios, ayudando a resolver problemas globales actualmente intratables, pero también podría presentar graves riesgos. Estos riesgos podrían surgir accidentalmente (por ejemplo, si no encontramos soluciones técnicas a las preocupaciones sobre la seguridad de los sistemas de IA) o deliberadamente (por ejemplo, si los sistemas de IA empeoran el conflicto geopolítico). Creemos que se necesita trabajar más para reducir estos riesgos.

Algunos de estos riesgos de la IA avanzada podrían ser existenciales, lo que significa que podrían causar la extinción humana o una pérdida de poder igualmente permanente y grave de la humanidad. la tecnología se puede desarrollar e integrar de forma segura en nuestra sociedad. Encontrar respuestas a estas preocupaciones está muy descuidado y bien puede ser manejable. Estimamos que hay alrededor de 400 personas en todo el mundo trabajando directamente en esto.3 Como resultado, la posibilidad de una catástrofe relacionada con la IA puede ser el problema más apremiante del mundo, y lo mejor en lo que pueden trabajar aquellos que están bien ubicados para contribuir.

Las opciones prometedoras para trabajar en este problema incluyen la investigación técnica sobre cómo crear sistemas de IA seguros, la investigación de estrategias sobre los riesgos particulares que podría plantear la IA y la investigación de políticas sobre las formas en que las empresas y los gobiernos podrían mitigar estos riesgos. Si se desarrollan políticas que valgan la pena, necesitaremos personas que las pongan en práctica y las implementen. También hay muchas oportunidades para tener un gran impacto en una variedad de roles complementarios, como gestión de operaciones, periodismo, ingresos para dar y más, algunos de los cuales enumeramos a continuación.”