El creador de ChatGPT y figura central en el ecosistema de la inteligencia artificial, Sam Altman, ha lanzado una nueva advertencia sobre los riesgos existenciales y sociales de esta tecnología.
En sus declaraciones más recientes, Altman subraya que la regulación no debe ser vista como un obstáculo, sino como una infraestructura necesaria para evitar que los sistemas autónomos escapen al control humano. Con la llegada de modelos cada vez más capaces de razonar y tomar decisiones complejas en 2026, la necesidad de un consenso global sobre la ética y la seguridad se ha vuelto, según el ejecutivo, una prioridad de seguridad nacional.

Lee también: El regreso de la tapa trasera: Por qué tu próximo smartphone ya no vendrá “pegado”
Riesgos sistémicos y la necesidad de supervisión externa
El argumento central de Altman se aleja del optimismo tecnológico ciego. Según el directivo, existen preocupaciones legítimas sobre el uso de la IA en la creación de desinformación a gran escala y el desarrollo de amenazas cibernéticas sofisticadas.
Altman sostiene que las empresas desarrolladoras no pueden ser las únicas encargadas de auditar sus propios sistemas; por el contrario, propone la creación de organismos internacionales de supervisión similares a los que regulan la energía nuclear, capaces de realizar pruebas de seguridad rigurosas antes de que un modelo sea liberado al público.

Esta postura responde también a la presión de diversos gobiernos que ya están implementando sus propias leyes, como la Ley de IA de la Unión Europea.
Altman insiste en que una regulación fragmentada podría ser contraproducente, sugiriendo un marco unificado que permita la innovación pero que establezca “interruptores de apagado” claros y protocolos de transparencia sobre los datos utilizados para el entrenamiento de los algoritmos de nueva generación.
Hacia una gobernanza global en 2026
La advertencia de Altman llega en un momento crítico donde la IA ha comenzado a permear infraestructuras críticas, desde la gestión de redes eléctricas hasta el diagnóstico médico avanzado. Para el CEO de OpenAI, el peligro no reside en una rebelión de las máquinas al estilo de la ciencia ficción, sino en fallos sutiles pero sistémicos que podrían desestabilizar economías y procesos democráticos si no se establecen reglas de juego claras.
El llamado a la acción es directo: los legisladores deben moverse a la misma velocidad que los laboratorios de software. La autorregulación ha demostrado ser insuficiente para mitigar los sesgos algorítmicos y el desplazamiento laboral acelerado.
Con este discurso, Altman busca posicionar a OpenAI no solo como un líder técnico, sino como un actor dispuesto a colaborar en la creación de un ecosistema digital donde la seguridad sea el eje del desarrollo.
