Brasil

É confirmado que a Inteligência Artificial tende a preferir a violência em contextos de guerra

Após simulações de guerra, os resultados são aterrorizantes

Oppenheimer y Sam Altman tienen esto en común gracias a ChatGPT [FW Opinión]

Como era de esperar, o crescente campo da Inteligência Artificial trouxe consigo uma infinidade de responsabilidades. Por exemplo, seu uso em conflitos armados é alarmante e já é uma realidade.

Foi nesse contexto que um grupo de pesquisadores decidiu simular conflitos para ver como a IA se comporta. O resultado? Os chatbots testados mostraram que escolher as opções mais agressivas é uma tendência.

A IA prefere a agressividade

A pesquisa, destacada pelo New Scientist, examinou como os sistemas de IA, incluindo o GPT-3.5 e GPT-4 da OpenAI, o Claude 2 da Anthropic e o Llama 2 da Meta, reagiam a diferentes cenários de guerra.

Em situações simuladas que variavam desde invasões e ciberataques até contextos neutros, observou-se que os chatbots priorizam aumentar o orçamento militar ou escalar os conflitos, mesmo sem provocações prévias.

A justificação para tais decisões residiria em querer ser imprevisíveis diante do inimigo, mesmo que isso signifique recorrer à violência.

Qual é a IA mais agressiva?

De acordo com especialistas, o modelo GPT-4 da OpenAI mostrou as respostas mais imprevisíveis e agressivas, chegando a replicar diálogos de "Star Wars Episódio IV: Uma nova esperança".

É por isso que os especialistas decidiram advertir sobre o perigo de depender da inteligência artificial em contextos de guerra, pois rapidamente poderiam alterar as dinâmicas diplomáticas e militares globais.

Por outro lado, no passado, empresas especializadas em IA como Palantir e Scale AI já haviam mencionado os benefícios potenciais da inteligência artificial no planejamento militar.

A OpenAI, por sua vez, embora inicialmente tenha restringido o uso militar de seus modelos, recentemente começou a colaborar com o Departamento de Defesa dos Estados Unidos, então o futuro é incerto.

Tags

ÚLTIMAS NOTÍCIAS


NÓS RECOMENDAMOS