Para quienes creen que ahora la Inteligencia Artificial permitirá la planificación de la economía: malas noticias

Este artículo no tiene libre acceso pero el tema es importante. Muchas veces, en la discusión sobre la planificación económica en el socialismo, surge la idea de que ahora las cosas serían distintas porque la tecnología de big data, o Inteligencia Artificial, permitirían planificar como no pudo hacerse en todo el período de la Unión Soviética y otros países socialistas.

El artículo se titula “Artificial intelligence and economic planning”, por Robert Gmeiner & Mario Harper y será publicado en la revista AI and Society:1-23: https://philpapers.org/go.pl?id=GMEAIA-2&proxyId=&u=https%3A%2F%2Fdx.doi.org%2F10.1007%2Fs00146-022-01523-x

“Tradicionalmente se ha argumentado que el cálculo económico de un planificador central da como resultado una asignación de recursos irracional e ineficiente, pero esto puede cuestionarse razonablemente dados los avances en la tecnología informática, especialmente la inteligencia artificial. Concluimos que la planificación central junto con la IA aún no puede asignar recursos con la misma eficiencia que las señales de precios y las fuerzas del mercado a través de exámenes de la estructura técnica de los enfoques actuales de IA. La planificación central impulsada por IA no es viable en parte debido a los incentivos, el poder de cómputo, la adquisición de conocimientos/datos y la velocidad de recopilación. Existen profundos problemas de incentivos para que los planificadores, programadores y participantes ordinarios compliquen los esfuerzos de planificación y sesgo de los datos. Lo que es más importante, la IA no puede duplicar fácil o rápidamente las señales de escasez relativa que se generan en los mercados. Algunos desafíos que destacamos son pertinentes a la planificación en general, pero muchos otros surgen de la introducción de un planificador de IA.”

¿Qué es AlphaZero? ¿Podrá la Inteligencia Artificial crear nuevas ideas?

Es difícil seguirle el ritmo a las innovaciones tecnológicas y las posibilidades que abren. En este caso se trata de la Inteligencia Artificial. En un paper de Julio González-Díaz, de la Universidad de Santiago de Compostela – Department of Statistics, Mathematical Analysis, and Optimization, e Ignacio Palacios-Huerta de la London School of Economics; Ikerbasque Foundation UPV/EHU, tratan el filosóficamente difícil tema relacionado con la posibilidad que la IA pueda generar “nuevas ideas”. ¿Es eso posible o solamente se trataría de una recombinación de ideas ya creadas?

El paper es González-Díaz, Julio and Palacios-Huerta, Ignacio, AlphaZero Ideas (June 20, 2022). Available at SSRN: https://ssrn.com/abstract=

“¿Puede la inteligencia artificial (IA) descubrir nuevas ideas? A medida que las máquinas aprenden rápido y se vuelven cada vez más inteligentes, ¿puede la IA no solo automatizar la función de producción de bienes y servicios, sino también de ideas? El crecimiento económico surge de las personas que crean ideas y, por lo tanto, una respuesta afirmativa a estas preguntas puede tener implicaciones drásticas para una serie de cuestiones importantes. Sin embargo, hasta la fecha, no hay evidencia empírica que demuestre que la IA pueda, de hecho, generar ideas tabula rasa que mejoren la comprensión humana. Usando como impacto exógeno la introducción de AlphaZero, proporcionamos la primera evidencia causal del impacto de la IA no supervisada en la función de producción de ideas. Específicamente, AlphaZero se considera un hito del progreso científico en la investigación de IA. Este programa redescubrió ideas conocidas en siglos de ajedrez humano y también creó nuevas ideas. Estudiamos a expertos mundiales en la frontera del conocimiento y descubrimos que al menos el jugador con la calificación clásica más alta en la historia del ajedrez aprendió y adoptó nuevas ideas descubiertas por AlphaZero. Es posible que otros jugadores también hayan hecho lo mismo. Sostenemos que obtener evidencia del impacto de la IA en la función de producción de ideas es un primer paso necesario para pensar en el impacto de la IA en los procesos de innovación e investigación que impulsan el avance del conocimiento y el crecimiento económico.”

Una discusión sobre cuál debería ser un marco regulatorio apropiado para la Inteligencia Artificial

Adam Thierer es Research Fellow en el Mercatus Center de George Mason University. Publica un artículo que es un adelanto de un estudio sobre qué marco regulatorio debería tener la Inteligencia Artificial (AI). Se titula “The Proper Governance Default for AI”: https://medium.com/@AdamThierer/the-proper-governance-default-for-ai-d05db6970924

Este es el planteo:

“Los debates sobre cómo incorporar la ética y las mejores prácticas en el diseño de productos de IA es donde la cuestión de los valores predeterminados de las políticas públicas cobra importancia. En la medida en que el diseño de la IA se convierta en el tema de la toma de decisiones legales o reglamentarias, se debe elegir entre dos enfoques generales: el principio de precaución o el principio proactivo.[1] Si bien existen muchos enfoques de gobernanza híbridos entre estos dos polos, la cuestión crucial es si el estándar legal inicial para las tecnologías de IA se establecerá más cerca de la luz roja del principio de precaución (es decir, la innovación autorizada) o de la luz verde de la principio proactivo (es decir, (innovación sin permiso). Se discutirá cada defecto de gobierno.”

Dilemas éticos que generan las nuevas tecnologías, como la Inteligencia Artificial. Pero la solución no es que el Estado regule

Las nuevas tecnologías plantean temas éticos y dilemas acerca de su impacto. Aquí un interesante artículo de Ryan Kuhrana, del Institute for Advanced Prosperity, en relación a la Inteligencia Artificial:

 

“La comunidad de investigación está mejor preparada para dar forma a lo que se desarrolla y en qué capacidad puede ser utilizada por una variedad de actores.

La ética de la inteligencia artificial es mejor dejarla a los investigadores

En el Día de San Valentín 2019, OpenAI, una importante organización sin fines de lucro dedicada a la investigación en inteligencia artificial, publicó los resultados de su último trabajo, GPT-2, que prometió un avance significativo en la generación de lenguaje de AI. El modelo de inteligencia artificial, creado a partir de un enfoque llamado «Transformador», que Google fue pionero solo unos años antes, fue capaz de generar respuestas coherentes y extensas a las preguntas. Una de estas respuestas, en la que el modelo generó una noticia falsa sobre el robo en una tienda de Miley Cyrus, reveló una desconcertante aplicación dado el clima político tan difícil. Ante el temor de que su tecnología se utilizara para difundir noticias falsas, OpenAI declaró que no divulgarían el conjunto de datos o el modelo capacitado.

 

Su decisión condujo a la burla de muchos en la comunidad de investigación de Amnistía Internacional por su falta de respeto a las normas de investigación, y algunos afirmaron que suspender la investigación era un medio para generar publicidad en los medios de comunicación. Y hubo exageraciones, con profecías de «AI doom» de la prensa convencional, que criticaron la tecnología por su amenaza a la democracia. Sin embargo, ni la actitud desdeñosa ni la sensacionalista captan realmente la importancia de la decisión de OpenAI. Dado que los responsables de las políticas se mueven demasiado lentamente para regular adecuadamente las nuevas tecnologías, la responsabilidad de este tipo de decisiones éticas debe recaer en los investigadores.

 

Si bien es impresionante, el GPT-2 no es un alejamiento radical de las tendencias normales y esperadas en el subcampo de AI llamado procesamiento en lenguaje natural (PNL). Ya, los sistemas de Alibaba y Stanford han superado los puntos de referencia anteriores de GLUE, uno de los portadores estándar de la PNL, desde el lanzamiento de GPT-2. Su innovación surgió principalmente del tamaño y la diversidad del conjunto de datos en los que se formó la IA: un conjunto de datos de 45 millones de páginas web llamado WebText extraído de los enlaces en Reddit. Este tamaño y diversidad permitieron que el modelo entrenado se desempeñara bien en una variedad de contextos, como comprensión de lectura, traducción y resumen de texto. La mayoría de los desarrollos anteriores, al menos en el idioma inglés, se han desarrollado para tareas especializadas.

 

Sin embargo, restringir el acceso al conjunto de datos y al modelo entrenado no impedirá que se desarrolle un avance similar de forma independiente porque este es un desarrollo normal. Aumentará ligeramente el costo, ya que el trabajo requiere muchos recursos tanto en términos de tiempo como de cómputo, lo que es una barrera leve pero no insuperable.

El texto completo en: https://www.libertarianism.org/building-tomorrow/ethics-artificial-intelligence-best-left-researchers