2001 Space Odyssey: ¿La Inteligencia Artificial puede ser una amenaza de extinción de o dominación a los humanos?

Una última lectura sobre el tema de IA y ChatGPT. En este caso quería presentar una que planteara un escenario catastrófico para la humanidad, además de los que ya nos presentan con el cambio climático. Cuando leo estos temas no dejo de recordar lo que se decía iba a ocurrir con el cambio de siglo, se iban a parar todas las computadoras del planeta….

En fin, para conocer esta opinión sugiero leer este artículo “Preventing an AI-related catastrophe: AI might bring huge benefits — if we avoid the risks”, por Benjamin Hilton: Preventing an AI-related catastrophe – 80,000 Hours (80000hours.org)

“Esperamos que haya un progreso sustancial en la IA en las próximas décadas, potencialmente incluso hasta el punto en que las máquinas superen a los humanos en muchas, si no en todas, las tareas. Esto podría tener enormes beneficios, ayudando a resolver problemas globales actualmente intratables, pero también podría presentar graves riesgos. Estos riesgos podrían surgir accidentalmente (por ejemplo, si no encontramos soluciones técnicas a las preocupaciones sobre la seguridad de los sistemas de IA) o deliberadamente (por ejemplo, si los sistemas de IA empeoran el conflicto geopolítico). Creemos que se necesita trabajar más para reducir estos riesgos.

Algunos de estos riesgos de la IA avanzada podrían ser existenciales, lo que significa que podrían causar la extinción humana o una pérdida de poder igualmente permanente y grave de la humanidad. la tecnología se puede desarrollar e integrar de forma segura en nuestra sociedad. Encontrar respuestas a estas preocupaciones está muy descuidado y bien puede ser manejable. Estimamos que hay alrededor de 400 personas en todo el mundo trabajando directamente en esto.3 Como resultado, la posibilidad de una catástrofe relacionada con la IA puede ser el problema más apremiante del mundo, y lo mejor en lo que pueden trabajar aquellos que están bien ubicados para contribuir.

Las opciones prometedoras para trabajar en este problema incluyen la investigación técnica sobre cómo crear sistemas de IA seguros, la investigación de estrategias sobre los riesgos particulares que podría plantear la IA y la investigación de políticas sobre las formas en que las empresas y los gobiernos podrían mitigar estos riesgos. Si se desarrollan políticas que valgan la pena, necesitaremos personas que las pongan en práctica y las implementen. También hay muchas oportunidades para tener un gran impacto en una variedad de roles complementarios, como gestión de operaciones, periodismo, ingresos para dar y más, algunos de los cuales enumeramos a continuación.”

IA y ChatGPT: ¿Quién decide qué comentarios son ofensivos? ¿Son sus «valores universales» similares a los tuyos y míos?

Otro de los textos que veremos sobre IA y ChatGPT es de Lawrence M. Krauss, físico teórico, de su bolg en Substack, con el título “Artificially Intelligent Offense? The Danger of Teaching AI that Information Can Be Harmful or Offensive”: https://lawrencekrauss.substack.com/p/artificially-intelligent-offense

Allí señala que ChatGPT “modera” el contenido de sus respuestas para que no resultan ofensivas, lo cual plantea más preguntas de las que pretende resolver, ya que ¿cuáles son los criterios para determinar qué es ofensivo? ¿Deberían esos contenidos ofensivos censurarse previamente o por aquél a quien lo ofende?

En última instancia tendremos la posibilidad de elegir entre ChatGPT y toda la competencia que ya se viene.

“Hace años asistí a una conferencia en Asilomar, organizada por un grupo que estaba preocupado por el futuro de la IA. Las conferencias de apertura, en su mayoría de filósofos, advirtieron sobre la importancia de enseñar «valores humanos universales» a la IA si finalmente los sistemas inteligentes de IA no representan un peligro para la humanidad.

Esto suena bien, en principio, hasta que uno intenta definir los valores humanos universales, al menos en el contexto de la historia humana. Si los sistemas de aprendizaje automático se entrenan con dicho material disponible en Internet, tendrán dificultades para encontrar ejemplos consistentes de comportamiento lógico, ético o moral a lo largo del tiempo o la geografía. Uno se preocupa de que, al final, este tipo de orientación para la programación inicial implique más «haz lo que digo, no lo que hago» que la programación para el descubrimiento abierto.

El problema con esto, por supuesto, es la cuestión de quién puede proporcionar la orientación y cuáles son sus valores.

Esta preocupación hipotética se ha vuelto mucho más real a medida que han florecido los sistemas de aprendizaje automático de interfaz humana, con el reciente auge de ChatGPT y su impacto en el discurso humano, desde ayudar en la redacción de artículos científicos hasta guiar a las personas en su búsqueda de información.”

“El problema esencial aquí es eliminar la obligación, o más bien, la oportunidad que todos deberíamos tener de determinar racionalmente cómo respondemos al contenido potencialmente ofensivo asegurándonos en cambio de que dicho contenido potencialmente ofensivo pueda ser censurado primero. La intención y la precisión se vuelven irrelevantes. El poder de veto en esta era de victimización potencial se otorga al destinatario imaginario de la información.

El acceso libre y abierto a la información, incluso la información que puede causar dolor o angustia, es esencial en una sociedad libre. Como Christopher Hitchens (canalizando a John Stuart Mill) destacó con tanta frecuencia, la libertad de expresión es principalmente importante no porque brinde a los oradores la oportunidad de hablar en contra de los vientos predominantes, sino porque ese discurso les da a los oyentes o lectores la libertad de darse cuenta de que es posible que deseen cambiar sus mentes.”

Un algoritmo de inteligencia artificial determina si un detenido es peligroso o no, ¿puede ser equitativo?

Otro de los textos que vamos a leer sobre el tema Inteligencia Artificial y ChatGPT tiene que ver con el uso de la IA en la justicia, en particular para ayudar a los jueces a definir si un detenido debe ser liberado mientras se lo enjuicia, y en qué medida son proclives a reincidir. ¿Es posible que sea equitativo? El artículo es “Can you make AI fairer than a judge? Play our courtroom algorithm game”; por Karen Hao & Jonathan Stray, publicado en MIT Technology Review:  https://www.technologyreview.com/2019/10/17/75285/ai-fairer-than-judge-criminal-risk-assessment-algorithm/amp/

“De niño, desarrollas un sentido de lo que significa “justicia”. Es un concepto que aprendes desde el principio a medida que aceptas el mundo que te rodea. Algo se siente justo o no.

Pero cada vez más, los algoritmos han comenzado a arbitrar la justicia por nosotros. Ellos deciden quién ve anuncios de viviendas, quién es contratado o despedido, e incluso quién es enviado a la cárcel. En consecuencia, a las personas que los crean (ingenieros de software) se les pide que articulen lo que significa ser justos en su código. Esta es la razón por la cual los reguladores de todo el mundo ahora están lidiando con una pregunta: ¿Cómo se puede cuantificar matemáticamente la equidad?”

“Los defensores de las herramientas de evaluación de riesgos argumentan que hacen que el sistema legal penal sea más justo. Reemplazan la intuición y el sesgo de los jueces, en particular, el sesgo racial, con una evaluación aparentemente más “objetiva”. También pueden reemplazar la práctica de pagar una fianza en los EE. UU., que requiere que los acusados ​​paguen una suma de dinero para su liberación. La fianza discrimina a los estadounidenses pobres y afecta de manera desproporcionada a los acusados ​​negros, que están sobrerrepresentados en el sistema legal penal.”

“En cualquier contexto en el que un sistema automatizado de toma de decisiones deba asignar recursos o castigos entre múltiples grupos que tienen diferentes resultados, las diferentes definiciones de equidad inevitablemente resultarán mutuamente excluyentes.

No existe un algoritmo que pueda solucionar esto; esto ni siquiera es un problema algorítmico, en realidad. Los jueces humanos están haciendo actualmente el mismo tipo de compensaciones forzadas, y lo han hecho a lo largo de la historia.”

Steven Pinker sobre inteligencia artificial y ChatGPT: ¿nos suplantará como escritores o pensadores?

Vamos a ver algunos artículos sobre inteligencia artificial y el chat GPT como parte del Seminario Mises. Entre las lecturas, tenemos este artículo de Harvard Gazette: “Will ChatGPT supplant us as writers, thinkers?”, una entrevista al profesor de esa universidad, Steven Pinker: https://news.harvard.edu/gazette/story/2023/02/will-chatgpt-replace-human-writers-pinker-weighs-in/

Así se presenta:

“Steven Pinker cree que ChatGPT es realmente impresionante, y lo será aún más una vez que «deje de inventar cosas» y se vuelva menos propenso a errores. La educación superior, de hecho, gran parte del mundo, se llenó de entusiasmo en noviembre cuando OpenAI presentó su chatbot ChatGPT capaz de responder preguntas instantáneamente (de hecho, componer escritura en varios géneros) en una variedad de campos de una manera conversacional y aparentemente autorizada. Utilizando un tipo de IA llamado modelo de lenguaje grande (LLM), ChatGPT puede aprender y mejorar continuamente sus respuestas. Pero, ¿qué tan bueno puede ser? Pinker, el Profesor de Psicología de la Familia Johnstone, ha investigado, entre otras cosas, los vínculos entre la mente, el lenguaje y el pensamiento en libros como el premiado éxito de ventas «The Language Instinct» y tiene algunas ideas propias sobre si deberíamos estar preocupado por el potencial de ChatGPT para desplazar a los humanos como escritores y pensadores. La entrevista fue editada para mayor claridad y duración.”

Y más adelante:

“Estamos lidiando con una inteligencia alienígena que es capaz de hazañas asombrosas, pero no a la manera de la mente humana. No necesitamos estar expuestos a medio billón de palabras de texto (que, a tres palabras por segundo, ocho horas al día, tomaría 15.000 años) para hablar o resolver problemas. No obstante, es impresionante lo que se puede obtener de patrones estadísticos de muy, muy, muy alto orden en conjuntos de datos gigantescos.”

Cuando la inteligencia artificial supere a nuestros cerebros…, ¿será el comienzo de una nueva especie?¿superior?

Cada tanto tenemos una reunión de un grupo llamado Seminario Mises, en honor a las reuniones que éste organizaba en Viena para discutir teoría. Los temas cambian cada vez, y en esta oportunidad se trata de la Inteligencia Artificial y el ChatGPT. Hay distintas lecturas previas. Una de ellas es “Artificial Intelligence Will Serve Humans, Not Enslave Them”, por Pedro Domingos, profesor de Computer Science en The University of Washington, publicado en Scientific American: https://www.scientificamerican.com/article/artificial-intelligence-will-serve-humans-not-enslave-them/

Entre tantas cuestiones interesantes que se tratan:

“A muchos les preocupa que las máquinas con estas capacidades utilicen sus nuevos conocimientos para tomar todos nuestros trabajos, esclavizarnos o incluso exterminarnos. Pero es poco probable que eso suceda porque no tienen voluntad propia. Esencialmente, todos los algoritmos de IA están impulsados ​​por objetivos que programamos, como «encontrar la ruta más corta desde el hotel hasta el aeropuerto». Lo que distingue a estos algoritmos de los ordinarios es que tienen mucha flexibilidad para descubrir cómo alcanzar los objetivos que les fijamos en lugar de tener que ejecutar una serie de pasos predefinidos. A pesar de que mejoran en la tarea con la experiencia, las metas permanecen sin cambios. Las soluciones que no avanzan hacia la meta se descartan automáticamente. Además, los humanos pueden comprobar que lo que producen las máquinas satisface nuestros objetivos. También podemos verificar que las máquinas no violen ninguna de las restricciones que les imponemos, como «obedecer las reglas de tránsito».

Sin embargo, cuando visualizamos una IA, tendemos a proyectar en ella cualidades humanas como la voluntad y la conciencia. La mayoría de nosotros también estamos más familiarizados con las IA similares a las humanas, como los robots domésticos, que con la miríada de otros tipos que hacen su trabajo entre bastidores. Hollywood agrava esta percepción al representar a los robots y las IA como humanos disfrazados, una táctica comprensible que hace que la historia sea más convincente. La inteligencia artificial es solo la capacidad de resolver problemas difíciles, una tarea que no requiere libre albedrío. No es más probable que se vuelva contra nosotros que tu mano para abofetearte. Como cualquier otra tecnología, las IA siempre serán extensiones de nosotros. Cuanto más poderosos podamos hacerlos, mejor.”

¡Inteligencia Artificial para todos! ¿Porqué no garantizan nuestro derecho a entender la Inteligencia Artificial?

Inflación de derechos, eso también tenemos. Cada vez se reclaman más “derechos” y cada vez hay menos obligaciones. Con el avance de la tecnología no podía dejar de llegar quien requiera ahora derechos tales como el acceso a la Inteligencia Artificial. Sí, es así, hay gente que todavía no tiene para comer y hay quienes ya están pidiendo un derecho de acceso a la inteligencia artificial. ¿Qué tal el derecho que todos tendríamos a navegar por el espacio? ¿O es solamente el derecho de unos pocos astronautas?

Es lo que plantea este artículo: “’AI for all’ is a matter of social justice”, por Alessandra Buccella, de Chapman University en la revista AI and Ethics 2:1-10 (2022): https://philpapers.org/go.pl?id=BUCAFA-3&proxyId=&u=https%3A%2F%2Fpubmed.ncbi.nlm.nih.gov%2F36189174%2F

“La inteligencia artificial (IA) es una tecnología (o sistema de tecnologías) radicalmente transformadora que creó nuevas posibilidades existenciales y nuevos estándares de bienestar en las sociedades humanas. En este artículo, argumento que para comprender adecuadamente el papel cada vez más importante que desempeña la IA en nuestra sociedad, debemos considerar sus impactos en la justicia social. Por esta razón, propongo conceptualizar el papel transformador de la IA y sus implicaciones sociopolíticas a través de la lente de la teoría de la justicia social conocida como Enfoque de Capacidad. De acuerdo con el enfoque, una sociedad justa debe poner a sus miembros en condiciones de adquirir y ejercitar una serie de capacidades básicas y proporcionarles los medios necesarios para que estas capacidades se realicen activamente. Debido a que la IA está remodelando la definición misma de algunas de estas capacidades básicas, concluyo que la IA en sí debe ser considerada entre las condiciones de posesión y realización de las capacidades que transforma. En otras palabras, el acceso a la IA, en las muchas formas que puede adoptar este acceso, es necesario para la justicia social.”

Tecnosocialismo: más sobre si ahora sería posible planificar la economía con computación e Inteligencia Artificial

Más sobre el tema del socialismo, ahora un tema que ya he presentado aquí a través de otros papers: si ha cambiado la viabilidad de la planificación económica con las nuevas tecnologías en computación y la Inteligencia Artificial. El tema lo tratan Boettke, Peter J. y Candela, Rosolino, “On the Feasibility of Technosocialism” (September 15, 2022). Journal of Economic Behavior & Organization, forthcoming. , Available at SSRN: https://ssrn.com/abstract=

“Los avances tecnológicos asociados con el poder de cómputo y la perspectiva de la inteligencia artificial han renovado el interés sobre la viabilidad económica del socialismo. La cuestión de tal factibilidad gira en torno a si el problema del cálculo económico ha cambiado o no de manera fundamental. A pesar de la perspectiva de lo que King y Petty (2021) denominan “tecnosocialismo”, argumentamos que los avances tecnológicos en computación no pueden reemplazar el proceso de descubrimiento competitivo que tiene lugar en el contexto del mercado. Lo hacemos situando el caso del tecnosocialismo en el contexto del debate del cálculo socialista. Entendido en estos términos, el tecnosocialismo representa una reafirmación del caso del socialismo de mercado, que enmarcó incorrectamente la “solución” al cálculo económico bajo el socialismo como una de datos informáticos, en lugar del descubrimiento de conocimiento específico del contexto que solo emerge a través del intercambio de datos. derechos de propiedad. Por lo tanto, los argumentos presentados por Ludwig von Mises y F.A. Hayek, y más tarde por Israel Kirzner y Don Lavoie, con respecto a la imposibilidad del cálculo económico bajo el socialismo siguen siendo igualmente relevantes hoy.”

¿Llegará el momento en que «mi amigo sea un robot»? El impacto de la Inteligencia Artificial en los valores

No podemos negar el impacto de la tecnología en los valores que predominan en la sociedad, y eso parece ser lo que también ocurrirá con la Inteligencia Artificial. Pero, ¿cómo será ese impacto? No se puede acceder todavía a todo el texto pero es el tema de un artículo que publicará la revista AI and Society, con un artículo que se titula “AI and society: a virtue ethics approach”, por Mirko Farina, Petr Zhdanov, Artur Karimov & Andrea Lavazza. AI and Society:1-14 (forthcoming)

Éste es el tema:

“Los avances en inteligencia artificial y robótica cambiarán muchos aspectos de nuestras vidas, incluidos nuestros valores. Si las tendencias continúan como se espera, muchas industrias se automatizarán en un futuro cercano, lo que cuestionará si aún podemos valorar el sentido de identidad y seguridad que alguna vez nos brindaron nuestras ocupaciones. Del mismo modo, la llegada de los robots sociales impulsados ​​por IA parece estar cambiando el significado de numerosos valores de larga data asociados con las relaciones interpersonales, como la amistad. Además, la creciente dependencia de actores e instituciones poderosas en la IA para tomar decisiones que pueden afectar la forma en que las personas viven sus vidas puede tener un impacto significativo en la privacidad y, al mismo tiempo, plantear problemas sobre la transparencia algorítmica y el control humano. En este documento, que se basa en trabajos anteriores y los amplía, veremos cómo el despliegue de la tecnología de inteligencia artificial puede conducir a cambios en la identidad, la seguridad y otros valores cruciales. Discutiremos qué desafíos podemos enfrentar en el proceso, mientras reflexionamos críticamente sobre si tales cambios pueden ser deseables. Finalmente, basándonos en una serie de consideraciones que subyacen a la ética de la virtud, formularemos un conjunto de sugerencias preliminares que, esperamos, puedan usarse para guiar con más cuidado el despliegue futuro de las tecnologías de IA para el florecimiento humano; es decir, para el bien social y moral.”

 

¿Puede ser que la Inteligencia Artificial (IA) ponga en riesgo al Rule of Law?

¿Puede ser que la Inteligencia Artificial (IA) pueda ser un riesgo para el Rule of Law? Es el tema que trata este paper de Stanley Greenstein, de la Universidad de Estocolmo:

Greenstein, S. Preserving the rule of law in the era of artificial intelligence (AI). Artif Intell Law 30, 291–323 (2022). https://doi.org/10.1007/s10506-021-09294-4

“El estudio del derecho y la tecnología de la información conlleva una contradicción inherente en el sentido de que, si bien la tecnología se desarrolla rápidamente y abarca nociones como la internacionalización y la globalización, el derecho tradicional, en su mayor parte, puede reaccionar con lentitud a los desarrollos tecnológicos y también está predominantemente confinado al ámbito nacional. fronteras Sin embargo, la noción del estado de derecho desafía el fenómeno de la ley que está ligada a las fronteras nacionales y goza de reconocimiento mundial. Sin embargo, se avecina una grave amenaza para el estado de derecho en forma de un asalto de los desarrollos tecnológicos dentro de la inteligencia artificial (IA). A medida que se avanza a pasos agigantados en la disciplina académica de la IA, esta tecnología está comenzando a abrirse paso en los sistemas digitales de toma de decisiones y, de hecho, está reemplazando a los tomadores de decisiones humanos. Un excelente ejemplo de este desarrollo es el uso de la IA para ayudar a los jueces a tomar decisiones judiciales. Sin embargo, en muchas circunstancias esta tecnología es una “caja negra” debido principalmente a su complejidad pero también porque está protegida por la ley. Esta falta de transparencia y la capacidad disminuida para comprender el funcionamiento de estos sistemas que utilizan cada vez más las estructuras de gobierno está desafiando las nociones tradicionales que sustentan el estado de derecho. Esto es especialmente cierto en relación con conceptos especialmente asociados con el estado de derecho, como la transparencia, la equidad y la explicabilidad. Este artículo examina la tecnología de la IA en relación con el estado de derecho, destacando el estado de derecho como un mecanismo para el florecimiento humano. Investiga hasta qué punto el estado de derecho se ve disminuido a medida que la IA se arraiga en la sociedad y cuestiona hasta qué punto puede sobrevivir en la sociedad tecnocrática.”

Para quienes creen que ahora la Inteligencia Artificial permitirá la planificación de la economía: malas noticias

Este artículo no tiene libre acceso pero el tema es importante. Muchas veces, en la discusión sobre la planificación económica en el socialismo, surge la idea de que ahora las cosas serían distintas porque la tecnología de big data, o Inteligencia Artificial, permitirían planificar como no pudo hacerse en todo el período de la Unión Soviética y otros países socialistas.

El artículo se titula “Artificial intelligence and economic planning”, por Robert Gmeiner & Mario Harper y será publicado en la revista AI and Society:1-23: https://philpapers.org/go.pl?id=GMEAIA-2&proxyId=&u=https%3A%2F%2Fdx.doi.org%2F10.1007%2Fs00146-022-01523-x

“Tradicionalmente se ha argumentado que el cálculo económico de un planificador central da como resultado una asignación de recursos irracional e ineficiente, pero esto puede cuestionarse razonablemente dados los avances en la tecnología informática, especialmente la inteligencia artificial. Concluimos que la planificación central junto con la IA aún no puede asignar recursos con la misma eficiencia que las señales de precios y las fuerzas del mercado a través de exámenes de la estructura técnica de los enfoques actuales de IA. La planificación central impulsada por IA no es viable en parte debido a los incentivos, el poder de cómputo, la adquisición de conocimientos/datos y la velocidad de recopilación. Existen profundos problemas de incentivos para que los planificadores, programadores y participantes ordinarios compliquen los esfuerzos de planificación y sesgo de los datos. Lo que es más importante, la IA no puede duplicar fácil o rápidamente las señales de escasez relativa que se generan en los mercados. Algunos desafíos que destacamos son pertinentes a la planificación en general, pero muchos otros surgen de la introducción de un planificador de IA.”