No es un diario íntimo, es una base de datos. La experta en ciberseguridad y criminología, María Aperador, ha lanzado una alerta sobre los riesgos de la ingeniería social inversa. Al interactuar con modelos de lenguaje, los usuarios suelen bajar la guardia, entregando piezas de un rompecabezas que, en manos equivocadas o mediante una brecha de seguridad, permiten reconstruir una identidad completa para cometer fraudes.
Con el auge de los ciberataques automatizados, la información que “regalas” hoy es el combustible de las estafas de mañana.

Las 5 cosas que NUNCA debes compartir con una IA
Según la advertencia técnica de Aperador, estos datos deben permanecer fuera de cualquier prompt:
- Información Financiera Específica: Nunca pegues estados de cuenta para que la IA los “analice” o resuma. Estos datos pueden ser utilizados para entrenar modelos que luego identifiquen patrones de gasto y vulnerabilidades bancarias.
- Secretos Corporativos y Propiedad Intelectual: Si eres programador o creativo, subir código propietario o estrategias de negocio para “optimizar” el texto es un suicidio profesional. Esos datos pasan a formar parte del corpus de entrenamiento y podrían ser filtrados involuntariamente a la competencia.
- Datos de Salud Detallados: Compartir diagnósticos, síntomas específicos o historiales clínicos crea un perfil médico digital que, aunque anonimizado en teoría, es altamente sensible ante posibles filtraciones de bases de datos.
- Ubicación y Rutinas Diarias: “Ayúdame a planear mi ruta al trabajo” o “Dime qué hacer mientras mis hijos están solos en casa” entrega información de geolocalización y hábitos de vida que facilitan el acoso o el robo físico.
- Contraseñas y Preguntas de Seguridad: Parece obvio, pero muchos usuarios usan la IA para “generar reglas mnemotécnicas” para sus claves. Nunca entregues la materia prima de tus credenciales de acceso.

Riesgo de exposición de datos
| Categoría de Dato | Nivel de Riesgo | Consecuencia Potencial |
|---|---|---|
| Financiero | Extremo | Robo de identidad y fraude bancario. |
| Laboral | Muy Alto | Despido o pérdida de patentes. |
| Salud | Alto | Discriminación en seguros o estafas médicas. |
| Privacidad (Rutinas) | Medio/Alto | Riesgo de seguridad física y doxing. |
| Claves/Passwords | Crítico | Acceso total a tu ecosistema digital. |
La paradoja de la IA: “Lo que entra, se queda”
El principal problema técnico que señala Aperador es la persistencia. Aunque borres el chat de tu historial, los datos ya han sido procesados por los servidores. La legislación sobre el “derecho al olvido” en los pesos de los modelos neuronales sigue siendo un terreno gris y complejo de ejecutar.
La Inteligencia Artificial es una herramienta de productividad, no un terapeuta ni un asistente personal con pacto de confidencialidad. La recomendación es clara: trata a la IA como a un extraño en una plaza pública. Puedes preguntarle sobre física cuántica o pedirle una receta, pero guarda tus secretos bajo siete llaves analógicas.
Guía de “Modo Privado”: Blindando tus chats contra el entrenamiento de IA
El objetivo es desactivar el “Entrenamiento con datos de usuario”. Al hacer esto, tus prompts se procesan en memoria volátil y se eliminan tras cerrar la sesión, impidiendo que el modelo “aprenda” de tus secretos o hábitos personales.
1. OpenAI (ChatGPT)
- Ruta: Ve a Configuración (Settings) > Controles de datos (Data controls).
- Acción: Desactiva “Entrenamiento de modelos para todos” (Model training for everyone).
- Nota Técnica: Al desactivar esto, también perderás el historial de chats (los chats no se guardarán permanentemente). Es el precio de la privacidad total.
2. Google (Gemini)
- Ruta: Ve a la actividad de tus aplicaciones de Gemini (myactivity.google.com/product/gemini).
- Acción: En “Actividad de las aplicaciones de Gemini”, desactiva la opción “Actividad de Apps de Gemini”.
- Aviso: Esto evita que tus conversaciones se guarden en tu cuenta de Google y que sean revisadas por anotadores humanos o usadas para el ajuste fino de modelos futuros.
3. Anthropic (Claude)
- Ruta: En la interfaz de Claude, ve a Settings > Feature Previews (o Data Privacy según la versión de 2026).
- Acción: Busca la política de “Data Usage” y asegúrate de que esté configurada en “Opt-out” o “Don’t use my data for model training”.
- Ventaja: Claude es de los más transparentes en este aspecto; al activar esta opción, tus documentos subidos no se usan para alimentar su entrenamiento.
Activar estos modos convierte a la IA en una herramienta de consulta “pura”, similar a usar una calculadora. No te conocerá, no recordará quién eres mañana, pero tampoco podrá traicionarte con tu propia información.
Recomendación de Oro: Si vas a tratar temas financieros, de salud o legales, usa siempre una sesión en modo incógnito (o sesión privada) junto con estos ajustes. Nunca operes desde tu cuenta principal para temas sensibles, incluso con la privacidad activada.
