IA y ChatGPT: ¿Quién decide qué comentarios son ofensivos? ¿Son sus «valores universales» similares a los tuyos y míos?

Otro de los textos que veremos sobre IA y ChatGPT es de Lawrence M. Krauss, físico teórico, de su bolg en Substack, con el título “Artificially Intelligent Offense? The Danger of Teaching AI that Information Can Be Harmful or Offensive”: https://lawrencekrauss.substack.com/p/artificially-intelligent-offense

Allí señala que ChatGPT “modera” el contenido de sus respuestas para que no resultan ofensivas, lo cual plantea más preguntas de las que pretende resolver, ya que ¿cuáles son los criterios para determinar qué es ofensivo? ¿Deberían esos contenidos ofensivos censurarse previamente o por aquél a quien lo ofende?

En última instancia tendremos la posibilidad de elegir entre ChatGPT y toda la competencia que ya se viene.

“Hace años asistí a una conferencia en Asilomar, organizada por un grupo que estaba preocupado por el futuro de la IA. Las conferencias de apertura, en su mayoría de filósofos, advirtieron sobre la importancia de enseñar «valores humanos universales» a la IA si finalmente los sistemas inteligentes de IA no representan un peligro para la humanidad.

Esto suena bien, en principio, hasta que uno intenta definir los valores humanos universales, al menos en el contexto de la historia humana. Si los sistemas de aprendizaje automático se entrenan con dicho material disponible en Internet, tendrán dificultades para encontrar ejemplos consistentes de comportamiento lógico, ético o moral a lo largo del tiempo o la geografía. Uno se preocupa de que, al final, este tipo de orientación para la programación inicial implique más «haz lo que digo, no lo que hago» que la programación para el descubrimiento abierto.

El problema con esto, por supuesto, es la cuestión de quién puede proporcionar la orientación y cuáles son sus valores.

Esta preocupación hipotética se ha vuelto mucho más real a medida que han florecido los sistemas de aprendizaje automático de interfaz humana, con el reciente auge de ChatGPT y su impacto en el discurso humano, desde ayudar en la redacción de artículos científicos hasta guiar a las personas en su búsqueda de información.”

“El problema esencial aquí es eliminar la obligación, o más bien, la oportunidad que todos deberíamos tener de determinar racionalmente cómo respondemos al contenido potencialmente ofensivo asegurándonos en cambio de que dicho contenido potencialmente ofensivo pueda ser censurado primero. La intención y la precisión se vuelven irrelevantes. El poder de veto en esta era de victimización potencial se otorga al destinatario imaginario de la información.

El acceso libre y abierto a la información, incluso la información que puede causar dolor o angustia, es esencial en una sociedad libre. Como Christopher Hitchens (canalizando a John Stuart Mill) destacó con tanta frecuencia, la libertad de expresión es principalmente importante no porque brinde a los oradores la oportunidad de hablar en contra de los vientos predominantes, sino porque ese discurso les da a los oyentes o lectores la libertad de darse cuenta de que es posible que deseen cambiar sus mentes.”

Un pensamiento en “IA y ChatGPT: ¿Quién decide qué comentarios son ofensivos? ¿Son sus «valores universales» similares a los tuyos y míos?

  1. La libertad de expresión es importante, aunque algunos con lo que dicen y/o escriben pueden hacer mucho mal. No se si tiene que haber una libertad total o alguna censura, escasa. De haber censura no debe conllevar pena de cárcel, sería suficiente con alguna multa, algún trabajo social…Y tiene que ser una libertad igual para todas las ideologías y creencias, sin distingos políticos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *