Armas letales autónomas


No sé si lo sabéis, pero esto es el futuro: máquinas de inteligencia artificial superior a la humana tomando decisiones que no nos conciernen. Hoy mismo mi hija me ha dicho que le gustaría poder resucitar dentro de 300 años para ver cómo era el mundo entonces; que no es justo que sepamos cómo era todo hace 300 años y no podamos conocer cómo será.

He aquí la posible solución al enigma. Y no estoy hablando de chorradas de internet. Existe en la Universidad de Cambridge un centro de investigación llamado Centro para el Estudio del Riesgo Existencial, que se preocupa del asunto, la inteligencia artificial aplicada a las armas. Robots autónomos, que toman sus propias decisiones, serán quienes se ocupen de matar. Un miembro de la dirección científica del Instituto de Cuestiones Fundamentales (sí, también existe), Max Tegmark, firmó en 2015, con Martin Rees, Stephen Hawking, Jaan Tallinn, Noam Chomsky, Elon Musk y más de mil investigadores, una Petición de Futuro de la Vida para que se prohíban las armas de inteligencia artificial. Nadie les hizo ni caso.

La petición dice: “La tecnología de inteligencia artificial (IA) ha alcanzado un punto en que el despliegue de armamento autónomo será factible en unos cuantos años, si no legalmente al menos de manera práctica. Ya no se trata de décadas sino de años y hay mucho en juego: el armamento autónomo ha sido descrito como la tercera revolución en la historia de los conflictos armados, después de la pólvora y las armas nucleares. La pregunta principal de la humanidad en la actualidad es si quiere comenzar una carrera armamentista de IA o si preferimos prevenirla desde su inicio”.


La respuesta está clara. Estamos asistiendo a una nueva carrera armamentística que llevará en poco tiempo a la desaparición de los humanos. O no, claro. Pero los más listos de la clase están intentando prevenirnos, y los fabricantes de armas y sus amigos los gobernantes de los Estados no creo que ahora mismo estén preocupándose por eso.

Comentarios

Entradas populares