En la nueva guerra de la inteligencia artificial ya no se pelea solo con modelos más grandes, más rápidos o más “listos”. Ahora también se trata de quién protege mejor el cerebro de su IA.
Y en ese frente, Google acaba de revelar un intento serio de clonar a Gemini desde fuera: intentaron destilar su comportamiento usando más de 100 mil prompts, explotando el acceso legítimo a la API para replicar sus patrones de respuesta sin necesidad de hackear nada. Es espionaje industrial versión siglo XXI, pero a base de texto.
Te puede interesar: [Google no se olvida de quienes no pueden actualizar su computador tanto como quisieran y ofrece un SO a la medida]
No querían tirar Gemini: querían copiarlo
Según la información recogida por Android Headlines, lo que se detectó no fue un ataque clásico de denegación de servicio, sino algo mucho más quirúrgico: una campaña masiva de “destilación”.
La idea es simple en teoría, pero muy peligrosa en la práctica:bombardear al modelo con miles y miles de preguntas de todo tipo —idiomas, estilos, temas, formatos— para mapear cómo responde, cómo razona y qué patrones sigue.
Con esos pares de entrada/salida, otro modelo puede entrenarse para imitar el comportamiento de Gemini sin tocar ni una línea de su código interno.
Es el equivalente moderno a sentar a un experto frente a un micrófono, hacerle 100.000 preguntas, grabarlo todo… y luego entrenar a alguien más para que hable igual, solo que aquí el “experto” es una red neuronal multimillonaria.
La destilación como herramienta (y arma)
La técnica de destilación no es nueva en el mundo de la IA:las propias empresas la usan para crear modelos más pequeños que imitan a modelos gigantes, reduciendo coste y consumo de recursos.
Lo inquietante es cuando se usa para copiar la propiedad intelectual ajena sin necesidad de acceder a servidores, repositorios ni pesos originales.
En este caso, los atacantes aprovecharon precisamente lo que Google ofrece de forma legítima:el acceso a la API de Gemini para desarrolladores.
En lugar de construir aplicaciones, lo usaron como una especie de “sonda” para exprimirle todo lo posible: variando idiomas, estructuras de pregunta y contextos, intentaron forzar al modelo a que expusiera su famosa “cadena de pensamiento” interna.
Si esa información se recopila en masa y se procesa con calma, es posible entrenar un modelo competidor que se parezca mucho al original sin haber entrado jamás a la infraestructura de Google.
Google contraataca: detección en tiempo real y protocolos más duros
Lo positivo para la compañía es que los sistemas de monitorización detectaron a tiempo el volumen anómalo de consultas y bloquearon las cuentas implicadas. No hubo brecha de datos personales ni filtración directa de información sensible de usuarios, según ha asegurado Google.
La empresa ha aprovechado el incidente para subrayar un mensaje que repite cada vez más:su propia IA también sirve como escudo defensivo, ayudando a detectar patrones raros, automatizar auditorías y localizar comportamientos sospechosos que un equipo humano tardaría mucho más en ver.
A raíz del intento de clonación, Google ha endurecido los protocolos de acceso a sus modelos más avanzados y ha afinado los sistemas que identifican:
- uso abusivo de la API,
- intentos de generar código malicioso,
- creación de correos de phishing y otros usos claramente peligrosos.
No es la primera vez que el sector vive algo así. OpenAI ya reconoció hace meses una brecha importante, y cada informe de amenazas coincide en lo mismo: los modelos de IA se han convertido en objetivo prioritario, tanto por lo que saben como por lo que valen.
Espionaje industrial versión IA: silencioso y automatizado
La lección de todo esto es bastante directa: hoy en día, el espionaje industrial no necesita hackers entrando por la puerta trasera. Basta con:
- acceso a una API,
- presupuesto para pagar consultas,
- y mucha paciencia para automatizar prompts, registrar respuestas y entrenar un clon.
El valor de un modelo como Gemini no está solo en sus parámetros, sino en los años de investigación, datos, ajustes finos y pruebas que lo han llevado hasta ahí.
Si alguien puede aproximarse a su rendimiento “solo” haciendo ingeniería inversa de sus salidas, la ventaja competitiva de los gigantes tecnológicos se vuelve mucho más frágil de lo que parece.
Por eso Google insiste en que su prioridad ya no es solo mejorar la calidad de Gemini para los usuarios, sino blindar su lógica interna contra ataques de destilación masiva.
En el futuro inmediato, la pregunta ya no será solamente “¿quién tiene la mejor IA?”, sino también “¿quién es capaz de evitar que se la copien?”.
Un juego de gato y ratón que no va a parar
El intento de clonar Gemini con más de 100.000 prompts no fue exitoso, al menos según la versión oficial. Pero el mensaje de fondo es claro: nadie debería confiar en la seguridad absoluta, y menos en un campo tan nuevo como el de los modelos de lenguaje.
Hoy fue un intento detectado y bloqueado. Mañana puede ser una campaña más sutil, más larga o mejor camuflada.
Y en paralelo, los propios modelos seguirán creciendo en uso: Gemini ya ronda los 750 millones de usuarios, lo que lo convierte en un objetivo tan jugoso como cualquier gran banco de datos.
Te puede interesar: [Este es el funcional pero poco conocido dispositivo Google TV que no es un Smart TV ni un Chromecast]
La guerra ya no es solo comercial ni tecnológica: es una carrera por proteger el “alma” de cada modelo frente a un tipo de espionaje que no necesita balas, solo texto y tiempo.
