Siempre hay quienes predicen el futuro y auguran el fin de la humanidad: más ahora con la Inteligencia Artificial

Nunca han dejado de estar presentes las visiones apocalípticas ante cada cambio importante en la sociedad. Veamos un ejemplo respecto a la Inteligencia Artificial. El título del artículo ya asusta: “Optimising peace through a Universal Global Peace Treaty to constrain the risk of war from a militarised artificial superintelligence”,  por Carayannis, E.G., de George Washington University, y veamos la afiliación del otro autor,  Draper, J. “Nonkilling Economics and Business Research Committee, Center for Global Nonkilling, Honolulu”. Primera vez que veo que existe tal cosa como una “non killing economics”(¿?). AI & Soc 38, 2679–2692 (2023). https://doi.org/10.1007/s00146-021-01382-y

“Este artículo sostiene que una superinteligencia artificial (ASI) que emerge en un mundo donde la guerra todavía está normalizada constituye un riesgo existencial catastrófico, ya sea porque la ASI podría ser empleada por un estado-nación para guerrear por la dominación global, es decir, una guerra habilitada por la ASI, o porque la ASI hace la guerra en su nombre para establecer la dominación global, es decir, una guerra dirigida por la ASI. Actualmente, pocos Estados se declaran la guerra o incluso la guerra entre sí, en parte debido a la Carta de las Naciones Unidas de 1945, que establece que los Estados miembros deben “abstenerse en sus relaciones internacionales de la amenaza o el uso de la fuerza”, al tiempo que permite el apoyo del Consejo de Seguridad de las Naciones Unidas. Medidas militares y autodefensa. Como los Estados miembros de la ONU ya no se declaran la guerra entre sí, sólo ocurren “conflictos armados internacionales”. Sin embargo, todavía se producen costosos conflictos interestatales, tanto fríos como calientes y equivalentes a guerras. Además, se avecina una nueva Guerra Fría entre las superpotencias de la IA. Un conflicto futuro dirigido o habilitado por la ASI podría desencadenar una guerra total, incluido un conflicto nuclear, y, por lo tanto, es de alto riesgo. A través del instrumentalismo conformista, una teoría de las relaciones internacionales, abogamos por la reducción del riesgo optimizando la paz a través de un Tratado de Paz Global Universal (UGPT), contribuyendo al fin de las guerras existentes y a la prevención de guerras futuras, así como una Convención sobre armas cibernéticas e inteligencia artificial. Esta estrategia podría influir en los actores estatales, incluidos aquellos que desarrollan ASI, o una ASI agencial, particularmente si valora el instrumentalismo conformista y la paz.”

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *