Bajo el estricto marco de la Ley de Servicios Digitales (DSA), la Unión Europea ha puesto la lupa sobre la red social X (antes Twitter) y su herramienta de IA, Grok.
El problema central es la aparente falta de filtros de seguridad efectivos, lo que ha permitido que los usuarios generen contenido explícito de figuras públicas y personas comunes, violando las normativas de protección de datos y dignidad humana.

Lee también: La NASA reabrió un debate sobre el origen del agua en la Tierra: Estas son sus dos teorías
Los puntos clave de la investigación
La UE sospecha que Grok no cuenta con las salvaguardas necesarias para bloquear la creación de imágenes pornográficas no consentidas, un área donde competidores como OpenAI o Google han invertido millones en restricciones.
Bruselas argumenta que la facilidad para crear estos “deepfakes” supone un riesgo para el discurso público y la seguridad de las mujeres en línea, especialmente en un año cargado de procesos electorales.

De confirmarse que xAI y X violaron la DSA, la empresa de Musk podría enfrentar multas astronómicas que ascienden hasta el 6% de sus ingresos globales anuales.
¿Por qué Grok está en la mira?
A diferencia de otras IAs que son extremadamente cautas (e incluso restrictivas), Grok fue promocionada por Musk como una IA “sin filtros” y con un toque rebelde.
Sin embargo, esa libertad se ha convertido en su mayor debilidad legal en Europa. Los reguladores han solicitado a X que entregue documentos detallados sobre cómo están entrenando al modelo y qué medidas están tomando para mitigar la difusión de contenido sexual generado artificialmente.

Este movimiento de la UE marca un precedente importante: ya no se trata solo de moderar lo que los humanos publican, sino de responsabilizar a las empresas por lo que sus algoritmos son capaces de inventar.
