Cada vez hay más «derechos»: ¿Y quién se ocupa de los derechos de los robots? Siempre habrá alguien

La Academia da para todo. Y está bien que así sea, no tiene que estar atada a cuestiones coyunturales, cualquier tema es digno de discusión…, aunque hay algunos más importantes que otros. ¿Qué tal discutir si los robots deberían tener derechos? Con algo de buen criterio es lo que hace este artículo: Mosakas, Kestutis (2021). “On the moral status of social robots: considering the consciousness criterion”. AI and Society 36 (2):429-443. https://philpapers.org/go.pl?id=MOSOTM-3&proxyId=&u=https%3A%2F%2Fdx.doi.org%2F10.1007%2Fs00146-020-01002-1

“Si bien los filósofos han estado debatiendo durante décadas si las diferentes entidades, incluidos los seres humanos gravemente discapacitados, los embriones, los animales, los objetos de la naturaleza e incluso las obras de arte, pueden considerarse legítimamente como poseedoras de un estatus moral, esta cuestión ha ganado una nueva dimensión en el estela de la inteligencia artificial. Una de las preocupaciones más inminentes en el contexto de la IA es la de los derechos morales y el estado de los robots sociales, como los cuidadores robóticos y los compañeros artificiales, que están diseñados para interactuar con los seres humanos. En los últimos años, se han propuesto algunos enfoques de la consideración moral que incluirían a los robots sociales como objetos propios de la preocupación moral, aunque parece poco probable que estas máquinas sean seres conscientes. En el presente artículo, argumento en contra de estos enfoques defendiendo el “criterio de la conciencia”, que propone la conciencia fenoménica como una condición necesaria para acreditar el estatus moral. Primero, explico por qué generalmente se supone que la conciencia subyace a las propiedades moralmente relevantes y luego respondo a algunas de las objeciones comunes contra este punto de vista. Luego, examino tres enfoques alternativos inclusivos a la consideración moral que podrían adaptarse a los robots sociales y señalar por qué son, en última instancia, inverosímiles. Finalmente, concluyo que los robots sociales no deben ser considerados como objetos apropiados de preocupación moral a menos que sean capaces de tener una experiencia consciente. Si bien eso no implica que deban ser excluidos por completo de nuestro razonamiento moral y toma de decisiones, sugiere que los humanos no tienen obligaciones morales directas con ellos.”

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *