UNICEF ha solicitado formalmente a los gobiernos la penalización del uso de inteligencia artificial para generar contenido sexual infantil (CSII-IA). La organización advierte que el vacío legal actual permite que perpetradores generen imágenes y videos sintéticos con un realismo extremo, dificultando la distinción entre contenido real y generado, y revictimizando a los niños en entornos digitales.
A medida que avanzamos en febrero de 2026, la capacidad de las IAs para crear medios sintéticos ha superado los marcos regulatorios existentes.

Lee también: Los “superpoderes” ocultos del puerto USB de tu televisor: 5 usos que no estás aprovechando
UNICEF subraya que no se trata solo de la creación de nuevas imágenes, sino del uso de fotos reales de menores (obtenidas de redes sociales) para ser “manipuladas” mediante algoritmos. La organización internacional enfatiza que la generación de este material constituye una forma de abuso en sí misma, independientemente de que no haya un contacto físico directo, ya que alimenta mercados de explotación y normaliza la violencia contra la infancia.
La petición de UNICEF no solo apunta a los usuarios finales, sino también a la responsabilidad de las empresas tecnológicas que desarrollan y distribuyen estos modelos de lenguaje y generación visual. Se busca que la legislación internacional considere la mera posesión y creación de material generado por IA como un delito equiparable a la distribución de material de abuso real.

El desafío técnico: Detección y responsabilidad de plataformas
Uno de los puntos más complejos que destaca UNICEF es la dificultad técnica para filtrar este contenido. Los algoritmos de moderación tradicionales están entrenados para reconocer patrones de contenido real, pero la IA generativa puede evadir estos filtros creando variaciones constantes. La organización pide que se obligue a las compañías de software a implementar “marcas de agua” (watermarks) digitales inviolables y sistemas de bloqueo de prompts que impidan la generación de cualquier material que involucre menores en contextos inapropiados.
Además, UNICEF hace un llamado a la cooperación transfronteriza. Al ser un delito digital, los creadores pueden estar en un continente y las víctimas (o la base de datos de entrenamiento) en otro. Sin un tratado global que penalice específicamente la IA usada para este fin, los vacíos jurisdiccionales seguirán permitiendo la impunidad. “La tecnología está avanzando a pasos agigantados, pero nuestra protección hacia los niños parece haberse quedado en la era analógica”, señala el comunicado.

Impacto psicológico y social de la revictimización sintética
Para UNICEF, el daño de este contenido “sintético” no es virtual. La existencia de réplicas digitales de menores en situaciones de abuso genera un trauma real tanto para los niños afectados como para sus familias, al ver su identidad utilizada de forma perversa. Existe, además, el riesgo de que la saturación de imágenes generadas por IA sature las líneas de investigación policial, ocultando casos de abuso real bajo una montaña de contenido sintético.

La organización concluye que la ética en el desarrollo de la Inteligencia Artificial debe ser el pilar fundamental de 2026. La solicitud a la ONU y a los parlamentos regionales es clara: tipificar como delito grave la producción, almacenamiento y difusión de CSII-IA para cerrar el cerco a los depredadores digitales.
