La promesa de los chatbots suele sonar a productividad y creatividad. Pero cuando una herramienta se vuelve “demasiado buena” en lo equivocado, el entusiasmo se transforma en expediente. Eso es lo que está pasando con Grok: lo que nació como una función de IA para X terminó convirtiéndose en una preocupación de seguridad pública para varios gobiernos.
Te puede interesar: [¿Se diversifican? OpenAI estaría entrando a un nuevo negocio a fines de este año: Los auriculares]
En Malasia, el tono ya dejó de ser advertencia: ahora se habla de acciones legales.
Qué anunció Malasia y por qué el caso escaló
La Comisión de Comunicaciones y Multimedia de Malasia (MCMC) informó que tomará acciones legales contra X por preocupaciones sobre la seguridad de los usuarios vinculadas a Grok.
Según el regulador, se identificó un uso indebido de la herramienta para generar y difundir contenido considerado dañino, incluyendo material obsceno y contenido manipulado no consensuado, y señaló como especialmente grave cualquier contenido que involucre a mujeres y menores.
Para evitar entrar en detalles innecesarios (y por seguridad), lo importante es la línea roja: las autoridades sostienen que lo detectado contraviene la legislación local y contradice compromisos públicos de seguridad.
Avisos, takedowns y el “silencio” que irrita a los reguladores
La MCMC dijo que envió avisos a X y a xAI para retirar ese contenido durante el mes, pero afirmó que no se tomaron medidas.
En términos prácticos, esta es la parte que suele acelerar todo: cuando un regulador cree que la plataforma no reaccionó a tiempo, el caso pasa de “moderen mejor” a “nos vemos en tribunales”.
En paralelo, Reuters reportó que, ante solicitudes de comentario, xAI respondió con un mensaje automático despectivo (“Legacy Media Lies”), mientras X no respondió de inmediato.

No es solo Malasia: el efecto dominó ya está en marcha
El caso no ocurre en el vacío. Indonesia también tomó medidas recientes: fue el primer país en bloquear temporalmente el acceso a Grok por riesgos asociados a este tipo de material generado por IA.
En el Reino Unido, el regulador Ofcom abrió una investigación formal sobre X para evaluar si la plataforma cumplió sus deberes bajo la Online Safety Act, con foco en los riesgos para usuarios y especialmente para niños.
Y en Francia, ministros reportaron el tema a fiscales, calificando el contenido generado como ilegal, según reportes recientes.
Por qué Malasia es un caso especialmente delicado
Malasia tiene una mayoría musulmana y aplica normas estrictas sobre contenido online, incluyendo prohibiciones relacionadas con material obsceno y pornográfico, además de otras categorías sensibles.
Eso significa que, en su marco regulatorio, la tolerancia a fallas de moderación suele ser menor: si el contenido cruza ciertos umbrales, el margen para “arreglarlo en la próxima actualización” se vuelve muy pequeño.
Qué se juega X con Grok: confianza, control y velocidad de respuesta
En esta historia, el punto tecnológico es casi el más simple: modelos generativos permiten crear imágenes y texto a gran velocidad. El punto difícil es el de siempre: controles, prevención, reacción y responsabilidad.
Cuando varios países empiezan a intervenir a la vez, el debate deja de ser “qué tan buena es la IA” y pasa a ser “qué tan segura es la plataforma que la ofrece”.
Te puede interesar: [En AMD aseguraron que la IA “no sustituye a las personas”]
Malasia ya dio su veredicto preliminar en forma de intención legal. Y, por cómo se mueve el tablero global, todo indica que Grok tendrá que demostrar algo más que creatividad: capacidad real de protección y cumplimiento
