El reciente “trend” donde los usuarios piden a ChatGPT ilustrar su día a día laboral para publicar los resultados en Instagram o TikTok está exponiendo información corporativa sensible.
Al alimentar a la IA con detalles específicos sobre procesos, nombres de software internos o rutinas de seguridad para obtener una imagen “precisa”, los usuarios están entregando involuntariamente las llaves de su privacidad y la de sus empresas a actores malintencionados que explotan estos datos para ataques de ingeniería social.
Lee también: Este es Polar ID: El identificador facial para los Samsung Galaxy
El riesgo radica en la desensibilización de los datos. En el afán de que la IA genere una imagen perfecta, muchos empleados introducen prompts que incluyen jerga técnica de la empresa, nombres de clientes o descripciones de infraestructuras críticas.

Los hackers, mediante técnicas de “prompt injection” o simplemente analizando lo que se comparte públicamente, pueden reconstruir el ecosistema digital de una organización. Este fenómeno, detectado con fuerza en este inicio de 2026, demuestra que la brecha de seguridad más peligrosa sigue siendo el factor humano y su deseo de validación en plataformas sociales.
Ingeniería Social 2.0: Del prompt al ataque dirigido
Expertos en seguridad digital advierten que las imágenes generadas, aunque estilizadas, suelen contener elementos visuales que revelan más de lo que parece, como esquemas de oficinas o tipos de dispositivos utilizados. Sin embargo, el peligro real está en el historial de chat. Si la cuenta del usuario no tiene las medidas de seguridad adecuadas (como la autenticación de dos factores), un atacante que acceda al historial de ChatGPT encontrará una mina de oro de información contextual sobre el funcionamiento interno de empresas que, de otro modo, estaría protegida por contratos de confidencialidad.

La recomendación es tajante: la IA no es un diario privado. Cada interacción contribuye al entrenamiento de modelos y, en manos equivocadas, sirve para diseñar campañas de phishing hiperpersonalizadas.
En este 2026, la regla de oro es “anonimizar” cualquier consulta: nunca menciones nombres de empresas, software propietarios o detalles de proyectos que no sean públicos. Divertirse con la tecnología es parte de nuestro ADN, pero no a costa de entregar el acceso a nuestra vida profesional por unos cuantos likes.
