Dilemas éticos que generan las nuevas tecnologías, como la Inteligencia Artificial. Pero la solución no es que el Estado regule

Las nuevas tecnologías plantean temas éticos y dilemas acerca de su impacto. Aquí un interesante artículo de Ryan Kuhrana, del Institute for Advanced Prosperity, en relación a la Inteligencia Artificial:

 

“La comunidad de investigación está mejor preparada para dar forma a lo que se desarrolla y en qué capacidad puede ser utilizada por una variedad de actores.

La ética de la inteligencia artificial es mejor dejarla a los investigadores

En el Día de San Valentín 2019, OpenAI, una importante organización sin fines de lucro dedicada a la investigación en inteligencia artificial, publicó los resultados de su último trabajo, GPT-2, que prometió un avance significativo en la generación de lenguaje de AI. El modelo de inteligencia artificial, creado a partir de un enfoque llamado «Transformador», que Google fue pionero solo unos años antes, fue capaz de generar respuestas coherentes y extensas a las preguntas. Una de estas respuestas, en la que el modelo generó una noticia falsa sobre el robo en una tienda de Miley Cyrus, reveló una desconcertante aplicación dado el clima político tan difícil. Ante el temor de que su tecnología se utilizara para difundir noticias falsas, OpenAI declaró que no divulgarían el conjunto de datos o el modelo capacitado.

 

Su decisión condujo a la burla de muchos en la comunidad de investigación de Amnistía Internacional por su falta de respeto a las normas de investigación, y algunos afirmaron que suspender la investigación era un medio para generar publicidad en los medios de comunicación. Y hubo exageraciones, con profecías de «AI doom» de la prensa convencional, que criticaron la tecnología por su amenaza a la democracia. Sin embargo, ni la actitud desdeñosa ni la sensacionalista captan realmente la importancia de la decisión de OpenAI. Dado que los responsables de las políticas se mueven demasiado lentamente para regular adecuadamente las nuevas tecnologías, la responsabilidad de este tipo de decisiones éticas debe recaer en los investigadores.

 

Si bien es impresionante, el GPT-2 no es un alejamiento radical de las tendencias normales y esperadas en el subcampo de AI llamado procesamiento en lenguaje natural (PNL). Ya, los sistemas de Alibaba y Stanford han superado los puntos de referencia anteriores de GLUE, uno de los portadores estándar de la PNL, desde el lanzamiento de GPT-2. Su innovación surgió principalmente del tamaño y la diversidad del conjunto de datos en los que se formó la IA: un conjunto de datos de 45 millones de páginas web llamado WebText extraído de los enlaces en Reddit. Este tamaño y diversidad permitieron que el modelo entrenado se desempeñara bien en una variedad de contextos, como comprensión de lectura, traducción y resumen de texto. La mayoría de los desarrollos anteriores, al menos en el idioma inglés, se han desarrollado para tareas especializadas.

 

Sin embargo, restringir el acceso al conjunto de datos y al modelo entrenado no impedirá que se desarrolle un avance similar de forma independiente porque este es un desarrollo normal. Aumentará ligeramente el costo, ya que el trabajo requiere muchos recursos tanto en términos de tiempo como de cómputo, lo que es una barrera leve pero no insuperable.

El texto completo en: https://www.libertarianism.org/building-tomorrow/ethics-artificial-intelligence-best-left-researchers