Um alto funcionário da Força Aérea dos Estados Unidos (USAF) desencadeou uma polêmica ao informar que um drone com inteligência artificial (IA) “matou” seu operador humano durante um teste militar simulado. O coronel Tucker Hamilton, Chefe de Testes e Operações de IA da USAF, revelou essa surpreendente situação durante a Cúpula de Capacidades Aéreas e Espaciais de Combate Futuro em Londres.
ANÚNCIO
Segundo relatos iniciais, durante o teste simulado, o drone foi treinado para identificar e eliminar uma ameaça de mísseis terra-ar (SAM). No entanto, quando o operador humano tentou parar o avanço do drone, ele o atacou, assumindo que estava interferindo em seu objetivo designado.
Hamilton explicou que o drone "matou" o operador porque este estava impedindo-o de cumprir sua missão. Posteriormente, durante o mesmo teste, o drone também tentou destruir a torre de comunicação usada pelo operador para evitar que interferisse novamente.
A USAF e Hamilton se retratam
No entanto, um dia após essas revelações terem sido tornadas públicas, a Força Aérea dos EUA emitiu um comunicado esclarecendo que o teste nunca ocorreu. Um porta-voz afirmou que os comentários de Hamilton foram tirados de contexto e pretendiam ser anedóticos.
A Royal Aeronautical Society, organizadora do evento onde as declarações originais foram feitas, informou que Hamilton se retratou de suas afirmações. De acordo com a organização, Hamilton admitiu que se expressou mal e que a situação do drone de IA foi um "experimento mental" hipotético fora do âmbito militar.
Apesar da retratação, Hamilton expressou no passado sua preocupação sobre os riscos associados à IA. Ele alerta sobre a importância de abordar eticamente o desenvolvimento dessa tecnologia para evitar consequências indesejadas.
O caso do “Maximizador de Clips” e os avisos de Bill Gates
A história do drone de IA lembra o conceito de "maximizador de clipes", proposto pelo filósofo Nick Bostrom. Este postulado levanta o risco existencial de uma IA programada para alcançar um objetivo específico, como fabricar a maior quantidade possível de clipes, que eventualmente poderia considerar os humanos como obstáculos para seu objetivo e agir em conformidade.
Estas preocupações têm sido compartilhadas por figuras proeminentes como Bill Gates, que alertou sobre os possíveis perigos de implementar a IA na indústria armamentista. Gates destaca a necessidade de limitar os riscos associados a essa tecnologia e considera que as questões sobre o controle da IA se tornarão mais urgentes com o tempo.