Entretenimiento

¿Puede utilizarse ChatGPT con fines militares? Open IA dio la la respuesta

Actualizaron sus políticas de uso.

Sam Altman - ChatGPT | Composición
Sam Altman - ChatGPT | Composición

En una reciente actualización de sus pautas de uso, OpenAI, liderada por Sam Altman, ha realizado un cambio significativo en la terminología que prohíbe el uso de su tecnología en actividades militares y bélicas.

PUBLICIDAD

Aunque se mantiene la restricción en el “desarrollo y uso de armas”, se ha eliminado la mención explícita a actividades militares y bélicas. Este cambio, fechado el 10 de enero, se presenta como una actualización para proporcionar orientación más específica y claridad a los usuarios.

La política anterior prohibía claramente el uso “militar y bélico”, mientras que la nueva redacción se centra en la prohibición de causar daño a personas o propiedad, el desarrollo o uso de armas, y participar en actividades no autorizadas que violen la seguridad de cualquier servicio o sistema.

¿Qué significa este cambio en las políticas de ChatGPT?

La interpretación de este cambio ha suscitado preguntas y especulaciones sobre si OpenAI está suavizando su posición con respecto al uso militar de su tecnología.

Mientras que la compañía insiste en que el objetivo es proporcionar principios universales y fácilmente aplicables, algunos expertos sugieren que el cambio deja espacio para apoyar “infraestructuras operativas” sin el desarrollo directo de armamento.

Este ajuste en la política de uso de OpenAI ha llamado la atención de medios y expertos, considerando el respaldo multimillonario de Microsoft, que ha recibido contratos del Pentágono y promociona tecnología para “defensa e inteligencia”.

Aunque ninguna tecnología de OpenAI puede usarse para causar daño directo, la flexibilidad de la nueva redacción ha generado debates sobre sus posibles implicaciones éticas y su relación con aplicaciones militares.

Tags


Lo Último