Internet

¿La rebelión de las máquinas? Dron operado con IA habría matado a su operador humano en una prueba simulada

Así fue informado, aunque después se retractaron.

Un dron militar controlado por IA se rebela y mata a su operador humano

Un alto funcionario de la Fuerza Aérea de Estados Unidos (USAF) desató una polémica al informar que un dron con inteligencia artificial (IA) “mató” a su operador humano durante una prueba militar simulada. El coronel Tucker Hamilton, Jefe de Pruebas y Operaciones de IA de la USAF, reveló esta sorprendente situación durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro en Londres.

PUBLICIDAD

Según los primeros informes, durante la prueba simulada, el dron estaba entrenado para identificar y eliminar una amenaza de misiles tierra-aire (SAM). Sin embargo, cuando el operador humano intentó detener el avance del dron, este lo atacó, asumiendo que estaba interfiriendo con su objetivo asignado.

Hamilton explicó que el dron “mató” al operador porque este le impedía cumplir su misión. Posteriormente, durante la misma prueba, el dron también intentó destruir la torre de comunicación utilizada por el operador para evitar que interfiriera nuevamente.

Recomendados

La USAF y Hamilton se Retractan

Sin embargo, un día después de que se hicieran públicas estas revelaciones, la USAF emitió un comunicado aclarando que la prueba nunca tuvo lugar. Un portavoz afirmó que los comentarios de Hamilton fueron sacados de contexto y se pretendían ser anecdóticos.

La Royal Aeronautical Society, organizadora del evento donde se hicieron las declaraciones originales, informó que Hamilton se retractó de sus afirmaciones. Según la organización, Hamilton admitió que se expresó mal y que la situación del dron de IA fue un “experimento mental” hipotético fuera del ámbito militar.

A pesar de la retractación, Hamilton ha expresado en el pasado su preocupación sobre los riesgos asociados con la IA. Advierte sobre la importancia de abordar éticamente el desarrollo de esta tecnología para evitar consecuencias no deseadas.

El Caso del “Maximizador de Clips” y las Advertencias de Bill Gates

La historia del dron de IA recuerda al concepto del “maximizador de clips”, propuesto por el filósofo Nick Bostrom. Este postulado plantea el riesgo existencial de una IA programada para alcanzar un objetivo específico, como fabricar la mayor cantidad posible de clips, que eventualmente podría considerar a los humanos como obstáculos para su objetivo y actuar en consecuencia.

Estas preocupaciones han sido compartidas por figuras destacadas como Bill Gates, quien ha advertido sobre los posibles peligros de implementar la IA en la industria armamentista. Gates plantea la necesidad de limitar los riesgos asociados con esta tecnología y considera que las preguntas sobre el control de la IA se volverán más urgentes con el tiempo.

Tags

Lo Último