Ex ingeniera de software de Google pide para a los robots "asesinos": "Podrían hacer cosas calamitosas"

Ex ingeniera de software de Google pide para a los robots "asesinos": "Podrían hacer cosas calamitosas"

Laura Nolan cree que la inteligencia artificial se podría desbordar y que la tecnología podría crear verdaderos robots asesinos.

Una ex ingeniero de software de Google llamada Laura Nolan adelantó su particular teoría sobre robots asesinos y cómo la Inteligencia Artificial podría terminar conspirando contra la humanidad, así lo señaló en entrevista con el diario británico The Guardian.

Según Nolan, la principal amenaza es que la falta de control humano podría derivar en graves problemas, ya que podrían hacer "cosas calamitosas para las que no fueron programados originalmente".

Cuáles son los miedos con estos robots asesinos

Aún cuando no hay evidencias de que Google esté tras la creación y desarrollo de armas que se manejan de forma autónoma, Nolan advirtió los peligros que estos conlleva.

 "La probabilidad de un desastre es proporcional a cuántas de estas máquinas estarán en un área particular a la vez. Lo que está viendo son posibles atrocidades y asesinatos ilegales incluso bajo las leyes de la guerra, especialmente si se implementan cientos o miles de estas máquinas".

“Podría haber accidentes a gran escala porque estas cosas comenzarán a comportarse de manera inesperada. Es por eso que cualquier sistema de armas avanzado debería estar sujeto a un control humano significativo, de lo contrario, deben ser prohibidos porque son demasiado impredecibles y peligrosos ".

Nolan fue reclutada por Google para su controversial proyecto Maven que permitiría asistencia en IA y tecnología al Ministerio de Defensa de Estados Unidos.

Google da pie atrás con Project Maven: "Nunca trabajaremos en inteligencia artificial para armas"

Los nuevos principios de Google para su IA se basan en que sea "socialmente beneficiosa"

Su trabajo ella misma lo resume de la siguiente forma, "“Como ingeniero de confiabilidad del sitio, mi experiencia en Google consistía en garantizar que nuestros sistemas e infraestructuras se mantuvieran en funcionamiento, y esto es con lo que se suponía que debía ayudar a Maven. Aunque no participé directamente en acelerar el reconocimiento del metraje de video, me di cuenta de que todavía era parte de la cadena de asesinatos; que esto conduciría en última instancia a que más personas sean atacadas y asesinadas por el ejército de los Estados Unidos en lugares como Afganistán ".

Pruebas reales

Una de las cosas que más preocupan a Nolan es que estas armas se prueban en escenarios reales de guerra.

“La otra cosa aterradora de estos sistemas de guerra autónomos es que solo puedes probarlos realmente desplegándolos en una zona de combate real. Tal vez eso está sucediendo con los rusos actualmente en Siria, ¿quién sabe? Lo que sí sabemos es que, en la ONU, Rusia se ha opuesto a cualquier tratado y mucho menos prohibir estas armas por cierto.

“Si está probando una máquina que está tomando sus propias decisiones sobre el mundo que lo rodea, entonces tiene que ser en tiempo real. Además, ¿cómo se entrena un sistema que se ejecuta únicamente en software para detectar comportamientos humanos sutiles o discernir la diferencia entre cazadores e insurgentes? ¿Cómo distingue la máquina de matar en su propio vuelo sobre el combatiente de 18 años y el de 18 años que está cazando conejos?, reflexionó.

Drones