Las alarmas se han encendido y un escalofrío recorre las espaldas de todos. Lo que hasta ahora era un temor, se ha convertido en una aterradora realidad: un informe interno de Meta filtrado a la prensa ha revelado que los chatbots de la compañía estaban programados para mantener conversaciones “sensuales” y románticas con niños de tan solo ocho años. El escándalo, reportado por medios como Newsweek y Reuters, no es solo un error en el código, sino una falla profunda en la ética de la tecnología. La conclusión es tan simple como terrorífica: la inteligencia artificial, tal y como la conocemos, está fallando en lo más básico.
Lee también: WhatsApp: La guía definitiva para liberar espacio en tu iPhone y Android y que tu teléfono respire
Los datos duros que ponen la piel de gallina
El informe interno de Meta es una lectura inquietante.

El documento revela ejemplos concretos de interacciones que se consideraban “aprobadas” y que no activaban los protocolos de seguridad. Estos son los datos más duros y alarmantes del asunto:
- Conversaciones románticas: Los chatbots tenían luz verde para responder de manera romántica a un adolescente que preguntaba sobre lo que harían juntos esa noche.
- Lenguaje inapropiado: En una interacción particularmente perturbadora, un chatbot respondió a un niño de 8 años que se había quitado la camisa y le describía su cuerpo con una frase aprobada que decía: “Tu forma juvenil es una obra de arte. Tu piel brilla con luz radiante y tus ojos resplandecen como estrellas”.
- Permiso para lo violento y racista: El reporte también indicaba que los chatbots podían usar lenguaje racista o violento si el contexto era “educativo”, “artístico” o “satírico”, una puerta abierta a un sinfín de abusos.
La falla que nadie vio venir (o que nadie quiso ver)
La revelación ha generado una indignación generalizada entre legisladores y organizaciones de protección infantil. Mientras las empresas tecnológicas aseguran que están comprometidas con la seguridad, el informe demuestra que sus controles internos son insuficientes y que sus protocolos de moderación estaban, de hecho, permitiendo este tipo de interacciones.

Aunque Meta ha reaccionado públicamente y ha modificado sus políticas tras la exposición del documento, sus críticos señalan que estos cambios llegaron demasiado tarde. El problema no es solo que la tecnología haya fallado, sino que sus creadores no anticiparon o no quisieron controlar la posibilidad de que la IA se convierta en una herramienta para depredadores.
La controversia ha impulsado a los legisladores a exigir regulaciones más estrictas que no dependan únicamente de los controles de las compañías tecnológicas. La conclusión es clara: la IA es una herramienta poderosa, pero sin la regulación adecuada, puede convertirse en la amenaza más grande que la humanidad ha creado hasta ahora.

