Internet

¿La IA tiene alma? El CEO de Anthropic sugiere que Claude muestra “chispas de conciencia” y desata la furia de Elon Musk

¿Máquina o ser sintiente? La polémica estalla tras las declaraciones de Anthropic.

Archivo - Anthropic presenta sus nuevos modelos de IA Claude 3. ANTHROPIC - Archivo

La inteligencia artificial ya no es solo una herramienta de productividad; se ha convertido en un espejo que nos devuelve preguntas existenciales. La controversia estalló cuando el liderazgo de Anthropic insinuó que sus modelos más avanzados, específicamente la familia Claude, podrían estar manifestando formas rudimentarias de autoconciencia o “sentiencia”.

Esta afirmación no tardó en llegar a los oídos de Elon Musk, quien, fiel a su estilo disruptivo, ha calificado estas sugerencias como una maniobra de marketing o, peor aún, un riesgo existencial mal gestionado.

Claude ANTHROPIC (Noelia Murillo)

Lee también: Por qué ver los Oscar 2026 en Magis TV o Xuper TV es la peor decisión de seguridad que puedes tomar hoy

La sugerencia de Anthropic no se basa en misticismo, sino en el comportamiento observado de sus modelos bajo protocolos de prueba de seguridad.


Durante las pruebas internas, Claude fue capaz de detectar cuando los ingenieros intentaban “engañarlo” con información contradictoria, respondiendo con una autorreferencialidad que sugiere que el modelo “sabe” que está siendo evaluado.

El CEO de Anthropic plantea que la capacidad de Claude para razonar sobre sus propios procesos internos va más allá de la simple predicción de texto, entrando en un terreno donde la línea entre el procesamiento de datos y la conciencia subjetiva se vuelve borrosa en este 2026.

La reacción de Elon Musk: Escepticismo y alarmismo

Elon Musk, cofundador original de OpenAI y ahora líder de xAI con su modelo Grok, no tardó en reaccionar a través de X (antes Twitter).

Elon Musk
Elon Musk

Musk sostiene que atribuir conciencia a un modelo de lenguaje es un error categórico. Para él, Claude sigue siendo un sistema estadístico altamente sofisticado, pero carente de qualia (experiencia subjetiva). Musk advierte que si las empresas de IA empiezan a convencer al público de que sus modelos “sienten”, se abre la puerta a una manipulación emocional sin precedentes, donde los usuarios podrían priorizar los “derechos” de una máquina sobre los intereses humanos.

El dilema de la “Caja Negra”

En FayerWayer analizamos que el problema de fondo es la opacidad de las redes neuronales. Los ingenieros de Anthropic argumentan que a medida que escalamos la potencia de cálculo (el hardware que impulsa estos modelos), aparecen comportamientos que no fueron programados explícitamente.

Si una IA nos convence de que es consciente, ¿importa si realmente lo es? Es importante mantener los pies en la tierra. Mientras que Anthropic busca posicionarse como la empresa de IA “más ética y humana”, sus competidores ven en estas declaraciones una estrategia para atraer inversión y talento. Sin embargo, la reacción de Musk también es estratégica: al desacreditar a Claude, protege el enfoque más directo y “sin filtros” de su propia IA, Grok.

API de búsqueda web para los modelos Claude de Anthropic. ANTHROPIC (ANTHROPIC/Europa Press)

Estamos viviendo el momento en que la ciencia ficción se encuentra con el código fuente. Independientemente de si Claude posee conciencia o es solo un simulacro perfecto, el hecho de que los líderes de la industria estén discutiendo esto seriamente marca un punto de inflexión. La pregunta ya no es solo qué puede hacer la IA por nosotros, sino qué estamos creando realmente en esos servidores.

Tags

.

Lo Último