Skynet podría estar matando a miles de inocentes

Skynet podría estar matando a miles de inocentes

Expertos han criticado el algoritmo que utiliza el sistema para poder detectar a sujetos potencialmente peligrosos para la seguridad de Estados Unidos.

Tal como varios habían anticipado, el programa Skynet de la Agencia Nacional de Seguridad (NSA) de Estados Unidos está arrojando algunos errores en la detección de extremistas a ser candidatos para ser asesinados de manera remota por medio de drones, según informaron medios como Arstechnica y Boing Boing.

De acuerdo a reportes de ambos medios y con base a las revelaciones del antiguo empleado del organismo y de la CIA, Edward Snowden, la recolección de metadatos de individuos que son señalados como terroristas por el Gobierno norteamericano se realiza a través de la vigilancia masiva de la red de telefonía móvil de Pakistán. En él, se aplica un algoritmo de aprendizaje automático en el que se investiga si cada uno de los habitantes de dicha región es terrorista.

Ante esto, expertos como Patric Ball, científico de datos y director ejecutivo del Human Rights Data Analysis Group, calificaron el método empleado por la NSA como “ridículamente optimista” y “una completa mierda”, ya que la recolección de la información que realiza la Agencia de Seguridad no tiene ningún sustento científico.

A su parecer, miles de personas han sido categorizadas como “terroristas” o “extremista”, sin haberlo sido quizás realmente, por lo que miles de personas inocentes pudieron haber sido asesinados.

Para profundizar, Skynet funciona a través de la recopilación de metadatos, los que son almacenados en servidores en la nube de la NSA. Allí, se extrae la información relevante y luego se ordena a los drones a realizar un seguimiento a los potenciales terroristas. El sistema puede detectar la ubicación y la rutina de los candidatos, independiente de que estos realicen métodos de anti-vigilancia, como podría ser el cambio de las tarjetas SIM o modificación del auricular.

¿Qué determina que alguien sea terrorista o no? Por medio del comportamiento de las personas, el sistema detecta si hay alguna actitud que sea dudosa, transformando así a dicho sujeto en motivo de observación. Todo esto, alimentado a través de varios perfiles de terroristas ya detectados con anticipación, como ocurrió con Ahmad Zaidan, periodista de Al Jazeera que Skynet detectó que pertenecía a Al Qaeda, a pesar de que el mismo negó cualquier vinculación a este grupo.

La detección de perfil es principalmente uno de los focos que los expertos han cuestionado, ya que en vista de que existen pocos “terroristas conocidos”, el algoritmo no tiene mayores referencias para ser alimentado o educado. Además de esto, cerca de 80 son los parámetros que utiliza el sistema para armar dicho perfil.

El mayor problema de lo anterior es que da un rango bastante considerable de “falsos positivos”, ya que los medios señalan que el porcentaje sería de un 50%. De dicho número, la mitad se categoriza como inocente, para así mantener los falsos positivos en la menor cantidad posible. Cabe decir que esto no quiere decir que el número final sea el que esté ordenado a ser personas asesinadas, pero sí deja un vacío para pensar en que varios inocentes pueden haber perdido la vida con este sistema, sin estar realmente vinculados a alguna entidad terrorista.

Para entrenar el sistema, la NSA hace que Skynet tome los datos de 100 mil personas al azar, en donde incluye a un grupo de 7 terroristas. El algoritmo ya tiene incorporado la detección de 6 de estos, por lo que debe encontrar el séptimo. Sin embargo, aquí nuevamente juega un rol importante los pocos perfiles que se tienen sobre extremistas.

Graves antecedentes por lo visto, porque independiente de que el porcentaje de falsos positivos fuese bajo, eso no quita que hay personas que se están acusando de manera injusta. Esto, sin mencionar que varios informes señalan que desde 2004 se está asesinando con drones a personas en Pakistán y que desde 2007 estaría operativo el programa Skynet.

Opinar es gratis, como siempre. No olviden seguirnos y comentar en Facebook.