¿Tiene sesgo político el ChatGPT? Parece que favorece a los demócratas, laboristas y a Lula

¿Tiene algún sesgo político el ChatGPT que ahora tanto consultamos? Esto se ha vuelto un tópico de interesante discusión y según este artículo de la revista Public Choice sí lo tiene. Se trata de Motoki, F., Pinho Neto, V. & Rodrigues, V. “More human than human: measuring ChatGPT political bias”. Public Choice 198, 3–23 (2024). https://doi.org/10.1007/s11127-023-01097-2 que presenta este resumen:

“Investigamos el sesgo político de un modelo de lenguaje grande (LLM), ChatGPT, que se ha vuelto popular para recuperar información objetiva y generar contenido. Aunque ChatGPT asegura que es imparcial, la literatura sugiere que los LLM exhiben prejuicios que involucran raza, género, religión y orientación política. El sesgo político en los LLM puede tener consecuencias políticas y electorales adversas similares al sesgo de los medios tradicionales y sociales. Además, los prejuicios políticos pueden ser más difíciles de detectar y erradicar que los prejuicios raciales o de género. Proponemos un diseño empírico novedoso para inferir si ChatGPT tiene sesgos políticos solicitándole que se haga pasar por alguien de un lado determinado del espectro político y comparando estas respuestas con sus respuestas predeterminadas. También proponemos pruebas de robustez de alineación dosis-respuesta, placebo y profesión-política. Para reducir las preocupaciones sobre la aleatoriedad del texto generado, recopilamos respuestas a las mismas preguntas 100 veces, con un orden de preguntas aleatorio en cada ronda. Encontramos pruebas sólidas de que ChatGPT presenta un sesgo político significativo y sistemático hacia los demócratas en Estados Unidos, Lula en Brasil y el Partido Laborista en el Reino Unido. Estos resultados se traducen en preocupaciones reales de que ChatGPT, y los LLM en general, puedan ampliar o incluso amplificar los desafíos existentes que involucran los procesos políticos planteados por Internet y las redes sociales. Nuestros hallazgos tienen implicaciones importantes para los responsables políticos, los medios de comunicación, la política y las partes interesadas del mundo académico.”

El futuro (¿fructífero o peligroso?) de la Inteligencia Artificial: OpenAI y ChatGPT

Más sobre el tema de la Inteligencia Artificial y su capacidad de beneficio o de daño. Hace pocas semanas hubo unos movimientos poco habituales en la conducción de Open AI, la empresa que nos brinda ChatGPT. Lo tratan en este artículo en Discourse, por Martin & David Gurri, titulado: “The Fifth Wave: “Open the Pod Bay Doors, ChatGPT”. Is artificial intelligence good or evil? The answer depends on us rather than the AI: https://www.discoursemagazine.com/p/the-fifth-wave-open-the-pod-bay-doors?utm_source=%2Fsearch%2Fthe%2520fifth%2520wave&utm_medium=reader2

“El despido de Sam Altman como director ejecutivo de OpenAI fue el tipo de extraño teatro kabuki en el que ocasionalmente participa Silicon Valley. Altman, presidente del vivero de startups Y Combinator, es un titán de la tecnología. OpenAI es la organización ambivalente sin fines de lucro y con fines de lucro que nos dio ChatGPT, que, como saben todos los que no durmieron hasta 2023, es el programa de inteligencia artificial que responde a los humanos. También es la aplicación de más rápido crecimiento en la historia.

La misión de OpenAI, de la cual Altman es cofundador, es desarrollar una IA segura; hablaremos de eso más adelante. Evidentemente, la mayoría de la junta directiva de la empresa creía que Altman no era lo suficientemente preocupado por la seguridad y el 17 de noviembre lo despidieron sin previo aviso. Esto rápidamente puso en marcha una desconcertante serie de movimientos y contraataques que terminaron cuatro días después con Altman retomando triunfalmente su trabajo como jefe, despidiendo a sus oponentes en el tablero y dejándonos al resto de nosotros preguntándonos qué diablos había pasado.”

Artículo en La Nación: La innovación del ChatGPT y la libertad de elegir

La innovación del ChatGPT y la libertad de elegir

IA y ChatGPT: ¿Quién decide qué comentarios son ofensivos? ¿Son sus «valores universales» similares a los tuyos y míos?

Otro de los textos que veremos sobre IA y ChatGPT es de Lawrence M. Krauss, físico teórico, de su bolg en Substack, con el título “Artificially Intelligent Offense? The Danger of Teaching AI that Information Can Be Harmful or Offensive”: https://lawrencekrauss.substack.com/p/artificially-intelligent-offense

Allí señala que ChatGPT “modera” el contenido de sus respuestas para que no resultan ofensivas, lo cual plantea más preguntas de las que pretende resolver, ya que ¿cuáles son los criterios para determinar qué es ofensivo? ¿Deberían esos contenidos ofensivos censurarse previamente o por aquél a quien lo ofende?

En última instancia tendremos la posibilidad de elegir entre ChatGPT y toda la competencia que ya se viene.

“Hace años asistí a una conferencia en Asilomar, organizada por un grupo que estaba preocupado por el futuro de la IA. Las conferencias de apertura, en su mayoría de filósofos, advirtieron sobre la importancia de enseñar «valores humanos universales» a la IA si finalmente los sistemas inteligentes de IA no representan un peligro para la humanidad.

Esto suena bien, en principio, hasta que uno intenta definir los valores humanos universales, al menos en el contexto de la historia humana. Si los sistemas de aprendizaje automático se entrenan con dicho material disponible en Internet, tendrán dificultades para encontrar ejemplos consistentes de comportamiento lógico, ético o moral a lo largo del tiempo o la geografía. Uno se preocupa de que, al final, este tipo de orientación para la programación inicial implique más «haz lo que digo, no lo que hago» que la programación para el descubrimiento abierto.

El problema con esto, por supuesto, es la cuestión de quién puede proporcionar la orientación y cuáles son sus valores.

Esta preocupación hipotética se ha vuelto mucho más real a medida que han florecido los sistemas de aprendizaje automático de interfaz humana, con el reciente auge de ChatGPT y su impacto en el discurso humano, desde ayudar en la redacción de artículos científicos hasta guiar a las personas en su búsqueda de información.”

“El problema esencial aquí es eliminar la obligación, o más bien, la oportunidad que todos deberíamos tener de determinar racionalmente cómo respondemos al contenido potencialmente ofensivo asegurándonos en cambio de que dicho contenido potencialmente ofensivo pueda ser censurado primero. La intención y la precisión se vuelven irrelevantes. El poder de veto en esta era de victimización potencial se otorga al destinatario imaginario de la información.

El acceso libre y abierto a la información, incluso la información que puede causar dolor o angustia, es esencial en una sociedad libre. Como Christopher Hitchens (canalizando a John Stuart Mill) destacó con tanta frecuencia, la libertad de expresión es principalmente importante no porque brinde a los oradores la oportunidad de hablar en contra de los vientos predominantes, sino porque ese discurso les da a los oyentes o lectores la libertad de darse cuenta de que es posible que deseen cambiar sus mentes.”

Steven Pinker sobre inteligencia artificial y ChatGPT: ¿nos suplantará como escritores o pensadores?

Vamos a ver algunos artículos sobre inteligencia artificial y el chat GPT como parte del Seminario Mises. Entre las lecturas, tenemos este artículo de Harvard Gazette: “Will ChatGPT supplant us as writers, thinkers?”, una entrevista al profesor de esa universidad, Steven Pinker: https://news.harvard.edu/gazette/story/2023/02/will-chatgpt-replace-human-writers-pinker-weighs-in/

Así se presenta:

“Steven Pinker cree que ChatGPT es realmente impresionante, y lo será aún más una vez que «deje de inventar cosas» y se vuelva menos propenso a errores. La educación superior, de hecho, gran parte del mundo, se llenó de entusiasmo en noviembre cuando OpenAI presentó su chatbot ChatGPT capaz de responder preguntas instantáneamente (de hecho, componer escritura en varios géneros) en una variedad de campos de una manera conversacional y aparentemente autorizada. Utilizando un tipo de IA llamado modelo de lenguaje grande (LLM), ChatGPT puede aprender y mejorar continuamente sus respuestas. Pero, ¿qué tan bueno puede ser? Pinker, el Profesor de Psicología de la Familia Johnstone, ha investigado, entre otras cosas, los vínculos entre la mente, el lenguaje y el pensamiento en libros como el premiado éxito de ventas «The Language Instinct» y tiene algunas ideas propias sobre si deberíamos estar preocupado por el potencial de ChatGPT para desplazar a los humanos como escritores y pensadores. La entrevista fue editada para mayor claridad y duración.”

Y más adelante:

“Estamos lidiando con una inteligencia alienígena que es capaz de hazañas asombrosas, pero no a la manera de la mente humana. No necesitamos estar expuestos a medio billón de palabras de texto (que, a tres palabras por segundo, ocho horas al día, tomaría 15.000 años) para hablar o resolver problemas. No obstante, es impresionante lo que se puede obtener de patrones estadísticos de muy, muy, muy alto orden en conjuntos de datos gigantescos.”

Cuando la inteligencia artificial supere a nuestros cerebros…, ¿será el comienzo de una nueva especie?¿superior?

Cada tanto tenemos una reunión de un grupo llamado Seminario Mises, en honor a las reuniones que éste organizaba en Viena para discutir teoría. Los temas cambian cada vez, y en esta oportunidad se trata de la Inteligencia Artificial y el ChatGPT. Hay distintas lecturas previas. Una de ellas es “Artificial Intelligence Will Serve Humans, Not Enslave Them”, por Pedro Domingos, profesor de Computer Science en The University of Washington, publicado en Scientific American: https://www.scientificamerican.com/article/artificial-intelligence-will-serve-humans-not-enslave-them/

Entre tantas cuestiones interesantes que se tratan:

“A muchos les preocupa que las máquinas con estas capacidades utilicen sus nuevos conocimientos para tomar todos nuestros trabajos, esclavizarnos o incluso exterminarnos. Pero es poco probable que eso suceda porque no tienen voluntad propia. Esencialmente, todos los algoritmos de IA están impulsados ​​por objetivos que programamos, como «encontrar la ruta más corta desde el hotel hasta el aeropuerto». Lo que distingue a estos algoritmos de los ordinarios es que tienen mucha flexibilidad para descubrir cómo alcanzar los objetivos que les fijamos en lugar de tener que ejecutar una serie de pasos predefinidos. A pesar de que mejoran en la tarea con la experiencia, las metas permanecen sin cambios. Las soluciones que no avanzan hacia la meta se descartan automáticamente. Además, los humanos pueden comprobar que lo que producen las máquinas satisface nuestros objetivos. También podemos verificar que las máquinas no violen ninguna de las restricciones que les imponemos, como «obedecer las reglas de tránsito».

Sin embargo, cuando visualizamos una IA, tendemos a proyectar en ella cualidades humanas como la voluntad y la conciencia. La mayoría de nosotros también estamos más familiarizados con las IA similares a las humanas, como los robots domésticos, que con la miríada de otros tipos que hacen su trabajo entre bastidores. Hollywood agrava esta percepción al representar a los robots y las IA como humanos disfrazados, una táctica comprensible que hace que la historia sea más convincente. La inteligencia artificial es solo la capacidad de resolver problemas difíciles, una tarea que no requiere libre albedrío. No es más probable que se vuelva contra nosotros que tu mano para abofetearte. Como cualquier otra tecnología, las IA siempre serán extensiones de nosotros. Cuanto más poderosos podamos hacerlos, mejor.”

¿ChatGPT amenaza el futuro de las profesiones? Aprender a trabajar con o ser reemplazado por eso

ChatGPT es la novedad del momento, bastante sorprendente y, como toda nueva tecnología, apenas sabemos en qué lo vamos a usar o cómo va a impactar en nuestras vidas. Un posible impacto puede ser en las profesiones. En un artículo en Quillette titulado “ChatGPT and the Future of the Professions”, por Sean Welsh, se alerta sobre este tema: https://quillette.com/2023/01/26/chatgpt-and-the-future-of-the-professions/

“Sería justo describir a ChatGPT como una inteligencia general artificial (AGI) bien educada y algo defectuosa en la medida en que es artificial y puede responder preguntas generales de manera inteligente. Sin embargo, algunas personas en AGI (p. ej., el director ejecutivo de Open AI) sostienen que aún no es realmente un AGI. Supongo que depende de qué tan alta sea la barra de su definición de AGI. Sin duda, escribir ensayos al nivel de un estudiante de primer año no es «superinteligencia». Pero es inteligencia a nivel humano, incluso si el medio por el cual se entrega esta inteligencia es muy diferente a la inteligencia humana. La mayoría de los humanos también tienen errores. Incluso profesores y doctores.

Los Susskind señalan que los defensores de la inteligencia humana señalan con frecuencia que la IA no puede abordar los problemas más difíciles en su dominio. Sin duda, esto es cierto para ChatGPT en la actualidad. Sin embargo, los autores señalan que gran parte del trabajo profesional es rutinario. Esto es ciertamente cierto en el desarrollo de software. Por lo tanto, los profesionales se enfrentan a una dura elección: aprender a trabajar con las máquinas o ser reemplazados por ellas. Un nivel útil de inteligencia general no requiere sensibilidad. Un artefacto puede dar y responder a razones sin conciencia ni sentimientos.”