Un algoritmo de inteligencia artificial determina si un detenido es peligroso o no, ¿puede ser equitativo?

Otro de los textos que vamos a leer sobre el tema Inteligencia Artificial y ChatGPT tiene que ver con el uso de la IA en la justicia, en particular para ayudar a los jueces a definir si un detenido debe ser liberado mientras se lo enjuicia, y en qué medida son proclives a reincidir. ¿Es posible que sea equitativo? El artículo es “Can you make AI fairer than a judge? Play our courtroom algorithm game”; por Karen Hao & Jonathan Stray, publicado en MIT Technology Review:  https://www.technologyreview.com/2019/10/17/75285/ai-fairer-than-judge-criminal-risk-assessment-algorithm/amp/

“De niño, desarrollas un sentido de lo que significa “justicia”. Es un concepto que aprendes desde el principio a medida que aceptas el mundo que te rodea. Algo se siente justo o no.

Pero cada vez más, los algoritmos han comenzado a arbitrar la justicia por nosotros. Ellos deciden quién ve anuncios de viviendas, quién es contratado o despedido, e incluso quién es enviado a la cárcel. En consecuencia, a las personas que los crean (ingenieros de software) se les pide que articulen lo que significa ser justos en su código. Esta es la razón por la cual los reguladores de todo el mundo ahora están lidiando con una pregunta: ¿Cómo se puede cuantificar matemáticamente la equidad?”

“Los defensores de las herramientas de evaluación de riesgos argumentan que hacen que el sistema legal penal sea más justo. Reemplazan la intuición y el sesgo de los jueces, en particular, el sesgo racial, con una evaluación aparentemente más “objetiva”. También pueden reemplazar la práctica de pagar una fianza en los EE. UU., que requiere que los acusados ​​paguen una suma de dinero para su liberación. La fianza discrimina a los estadounidenses pobres y afecta de manera desproporcionada a los acusados ​​negros, que están sobrerrepresentados en el sistema legal penal.”

“En cualquier contexto en el que un sistema automatizado de toma de decisiones deba asignar recursos o castigos entre múltiples grupos que tienen diferentes resultados, las diferentes definiciones de equidad inevitablemente resultarán mutuamente excluyentes.

No existe un algoritmo que pueda solucionar esto; esto ni siquiera es un problema algorítmico, en realidad. Los jueces humanos están haciendo actualmente el mismo tipo de compensaciones forzadas, y lo han hecho a lo largo de la historia.”

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *