El ecosistema tecnológico se encuentra hoy en un punto de quiebre donde no solo se discute la potencia de los procesadores, sino la definición misma de la inteligencia.
Por un lado, figuras como Sam Altman y Elon Musk han construido una narrativa donde la Inteligencia Artificial General (AGI) es un destino inevitable, ya sea como la salvación de la especie o como un riesgo existencial comparable a un “demonio” digital.

Lee también: El inicio del fin: Científicos japoneses logran que los chatbots desarrollen su propia personalidad
Sin embargo, Richard Stallman ha irrumpido en esta discusión con una postura mucho más fría y técnica, asegurando que estamos ante una “Inteligencia Fingida”. Para Stallman, la fascinación de sus colegas de Silicon Valley no es más que una distracción que nos impide ver que estos sistemas son, en realidad, cajas negras diseñadas para procesar datos sin una pizca de conciencia o ética.
El negocio de la AGI frente a la “farsa” de la simulación
Para Sam Altman, CEO de OpenAI, el futuro depende de la capacidad de escalar estos modelos hasta que superen la capacidad humana en casi cualquier tarea.
Su visión es la de una integración total de la IA en la economía global, un camino que ha llevado a su empresa a abandonar sus raíces sin fines de lucro para convertirse en una potencia comercial. En la acera de enfrente, Stallman argumenta que esta “inteligencia” no es más que una imitación probabilística.

Mientras Altman vende la idea de un copiloto inteligente para la humanidad, el fundador de GNU advierte que confiar en una simulación que “finge” razonar es un error fundamental que otorga un poder desmedido a las empresas que controlan los servidores, eliminando la posibilidad de que el usuario entienda o modifique la herramienta que utiliza.

El alarmismo de Musk contra la desmitificación de Stallman
Elon Musk ha jugado un papel ambivalente, posicionándose como el guardián que advierte sobre los peligros catastróficos de la IA mientras invierte miles de millones en xAI para alcanzar la “verdad máxima”.

Para Musk, el riesgo es que la IA se vuelva tan poderosa que escape al control humano. Stallman, por el contrario, no teme a una rebelión de las máquinas, sino a la sumisión de los humanos ante un software privativo y opaco.
El filósofo del software libre considera que el verdadero peligro no es que la IA adquiera conciencia, sino que nosotros le otorguemos la autoridad de un ente consciente a algo que es meramente un mecanismo de predicción. Mientras Musk pide regulación para evitar un apocalipsis robótico, Stallman exige transparencia y libertad de código para evitar un apocalipsis de la autonomía humana.
La lucha por el control de la verdad digital
La gran diferencia entre estos líderes radica en la transparencia y el propósito de la tecnología. Altman y Musk, a pesar de sus diferencias, coinciden en que la IA debe ser “guiada” o “regulada” bajo ciertos parámetros que ellos, en gran medida, ayudan a definir.

Stallman rompe este consenso al señalar que cualquier sistema que no permita el estudio y la modificación de su código es inherentemente peligroso, sin importar qué tan “inteligente” parezca.
En el horizonte de 2026, la batalla no es solo técnica; es una lucha por el lenguaje. Si aceptamos la visión de Silicon Valley, viviremos en un mundo de servicios asistidos por entidades que no comprendemos. Si seguimos la lógica de Stallman, recordaremos que estamos ante herramientas de computación que deben estar al servicio del hombre, y no al revés.
