Internet

El “Efecto Confesionario” de la IA: Por qué contarle estos 5 detalles a ChatGPT o Gemini podría arruinar tu seguridad digital

No es tu mejor amigo, no lo olvides.

Su uso permite a las organizaciones adaptarse a la IA con confianza al proporcionar información sin precedentes, ayudando a garantizar la seguridad, la confiabilidad, el rendimiento y la rentabilidad
Conoce las novedades en programas de Inteligencia Artificial Su uso permite a las organizaciones adaptarse a la IA con confianza al proporcionar información sin precedentes, ayudando a garantizar la seguridad, la confiabilidad, el rendimiento y la rentabilidad (Dreamstime)

No es un diario íntimo, es una base de datos. La experta en ciberseguridad y criminología, María Aperador, ha lanzado una alerta sobre los riesgos de la ingeniería social inversa. Al interactuar con modelos de lenguaje, los usuarios suelen bajar la guardia, entregando piezas de un rompecabezas que, en manos equivocadas o mediante una brecha de seguridad, permiten reconstruir una identidad completa para cometer fraudes.

Con el auge de los ciberataques automatizados, la información que “regalas” hoy es el combustible de las estafas de mañana.

Chat GPT
Chat GPT Pixabay

Lee también: IA fuera del planeta: Blue Origin planea centros de datos orbitales para resolver la crisis energética del cómputo en la Tierra

Las 5 cosas que NUNCA debes compartir con una IA

Según la advertencia técnica de Aperador, estos datos deben permanecer fuera de cualquier prompt:


  1. Información Financiera Específica: Nunca pegues estados de cuenta para que la IA los “analice” o resuma. Estos datos pueden ser utilizados para entrenar modelos que luego identifiquen patrones de gasto y vulnerabilidades bancarias.
  2. Secretos Corporativos y Propiedad Intelectual: Si eres programador o creativo, subir código propietario o estrategias de negocio para “optimizar” el texto es un suicidio profesional. Esos datos pasan a formar parte del corpus de entrenamiento y podrían ser filtrados involuntariamente a la competencia.
  3. Datos de Salud Detallados: Compartir diagnósticos, síntomas específicos o historiales clínicos crea un perfil médico digital que, aunque anonimizado en teoría, es altamente sensible ante posibles filtraciones de bases de datos.
  4. Ubicación y Rutinas Diarias: “Ayúdame a planear mi ruta al trabajo” o “Dime qué hacer mientras mis hijos están solos en casa” entrega información de geolocalización y hábitos de vida que facilitan el acoso o el robo físico.
  5. Contraseñas y Preguntas de Seguridad: Parece obvio, pero muchos usuarios usan la IA para “generar reglas mnemotécnicas” para sus claves. Nunca entregues la materia prima de tus credenciales de acceso.
La inteligencia artificial se ha convertido en un parteaguas para la educación, particularmente en la forma en que las personas aprenden un nuevo idioma. Foto: Freepik.
Tecnología. La inteligencia artificial se ha convertido en un parteaguas para la educación, particularmente en la forma en que las personas aprenden un nuevo idioma. Foto: Freepik. (Dragos Condrea)

Riesgo de exposición de datos

Categoría de DatoNivel de RiesgoConsecuencia Potencial
FinancieroExtremoRobo de identidad y fraude bancario.
LaboralMuy AltoDespido o pérdida de patentes.
SaludAltoDiscriminación en seguros o estafas médicas.
Privacidad (Rutinas)Medio/AltoRiesgo de seguridad física y doxing.
Claves/PasswordsCríticoAcceso total a tu ecosistema digital.

La paradoja de la IA: “Lo que entra, se queda”

El principal problema técnico que señala Aperador es la persistencia. Aunque borres el chat de tu historial, los datos ya han sido procesados por los servidores. La legislación sobre el “derecho al olvido” en los pesos de los modelos neuronales sigue siendo un terreno gris y complejo de ejecutar.

La Inteligencia Artificial es una herramienta de productividad, no un terapeuta ni un asistente personal con pacto de confidencialidad. La recomendación es clara: trata a la IA como a un extraño en una plaza pública. Puedes preguntarle sobre física cuántica o pedirle una receta, pero guarda tus secretos bajo siete llaves analógicas.

Guía de “Modo Privado”: Blindando tus chats contra el entrenamiento de IA

El objetivo es desactivar el “Entrenamiento con datos de usuario”. Al hacer esto, tus prompts se procesan en memoria volátil y se eliminan tras cerrar la sesión, impidiendo que el modelo “aprenda” de tus secretos o hábitos personales.

1. OpenAI (ChatGPT)

  • Ruta: Ve a Configuración (Settings) > Controles de datos (Data controls).
  • Acción: Desactiva “Entrenamiento de modelos para todos” (Model training for everyone).
  • Nota Técnica: Al desactivar esto, también perderás el historial de chats (los chats no se guardarán permanentemente). Es el precio de la privacidad total.

2. Google (Gemini)

  • Ruta: Ve a la actividad de tus aplicaciones de Gemini (myactivity.google.com/product/gemini).
  • Acción: En “Actividad de las aplicaciones de Gemini”, desactiva la opción “Actividad de Apps de Gemini”.
  • Aviso: Esto evita que tus conversaciones se guarden en tu cuenta de Google y que sean revisadas por anotadores humanos o usadas para el ajuste fino de modelos futuros.

3. Anthropic (Claude)

  • Ruta: En la interfaz de Claude, ve a Settings > Feature Previews (o Data Privacy según la versión de 2026).
  • Acción: Busca la política de “Data Usage” y asegúrate de que esté configurada en “Opt-out” o “Don’t use my data for model training”.
  • Ventaja: Claude es de los más transparentes en este aspecto; al activar esta opción, tus documentos subidos no se usan para alimentar su entrenamiento.

Activar estos modos convierte a la IA en una herramienta de consulta “pura”, similar a usar una calculadora. No te conocerá, no recordará quién eres mañana, pero tampoco podrá traicionarte con tu propia información.

Recomendación de Oro: Si vas a tratar temas financieros, de salud o legales, usa siempre una sesión en modo incógnito (o sesión privada) junto con estos ajustes. Nunca operes desde tu cuenta principal para temas sensibles, incluso con la privacidad activada.

Tags

.

Lo Último