Llaman a boicotear fabricación de "robots asesinos" en Corea del Sur

Llaman a boicotear fabricación de "robots asesinos" en Corea del Sur

“No deberíamos entregar la decisión de quién vive o muere a una máquina. Esto cruza una clara línea moral", dijo un profesor.

El Instituto Coreano Avanzado de Ciencia y Tecnología (KAIST) abrió en febrero un centro de investigación con Hanwha Systems, uno de los dos fabricantes surcoreanos de municiones y que se mueve en el rubro de la defensa. ¿Qué bueno podría salir de esto? No mucho, y varios científicos han llamado a boicotear la una supuesta fabricación de “robots asesinos”.

El tema no es menor. Investigadores con sede en 30 países, dijeron que se abstendrían de visitar KAIST, recibir visitantes de la universidad o cooperar con sus programas de investigación hasta que se comprometieran a abstenerse de desarrollar armas de Inteligencia Artificial (IA) sin "control humano significativo".

Mediante una carta abierta, los investigadores, entre ellos Toby Walsh (el organizador), fueron críticos con las investigaciones coreanas:

Si se desarrollan las armas autónomas… permitirán que la guerra se libre más rápido y a una escala más grande que nunca. Tendrán el potencial para generar armas de terror. No deberíamos entregar la decisión de quién vive o muere a una máquina. Esto cruza una clara línea moral.

Tras el anuncio, la universidad dijo que el nuevo Centro de Investigación, “se enfocaría en el uso de IA para sistemas de comando y control, navegación para vehículos submarinos no tripulados, entrenamiento de aeronaves inteligentes y rastreo y reconocimiento de objetos”, cuestión que dejó un poco más tranquilos a los científicos. "No tenemos intención de participar en el desarrollo de sistemas letales o de armas autónomas y robots asesinos", agregaron.

Luego de que se diera origen a lo que se llamó un verdadero “laboratorio de armas de IA”, Toby Walsh, profesor de la Universidad de Nueva Gales, se mostró algo más tranquilo: “KAIST ha hecho dos concesiones importantes: no desarrollar armas autónomas y garantizar un control humano significativo”, aunque el grupo de expertos debe conversar antes de suspender el boicot.