Internet

Ciberseguridad: ¿Es seguro para las empresas utilizar herramientas de IA abierta? El riesgo de la “fuga invisible de datos”

Expertos advierten sobre el uso masivo y sin control de plataformas de IA generativa abiertas dentro del entorno corporativo.

Fuga de datos / Whisk-FW
Fuga de datos / Whisk-FW (Made with Google AI)

El auge de herramientas de Inteligencia Artificial (IA) generativa como ChatGPT y Gemini ha disparado la productividad en numerosas áreas de trabajo. Sin embargo, esta adopción masiva, a menudo impulsada por empleados y sin políticas claras de gobernanza interna, ha abierto una discusión crucial en el Mes de la Ciberseguridad: el uso de plataformas de IA abiertas expone información confidencial y vulnera los estándares de seguridad empresarial.

Lee también: ¿Más grande y quizás alienígena? El cometa interestelar 3I/ATLAS supera las predicciones de tamaño

Expertos en seguridad tecnológica alertan que el principal riesgo radica en la falta de claridad sobre dónde terminan los datos corporativos ingresados en estas plataformas y quién tiene acceso a ellos. La información sensible puede ser replicada o reutilizada para entrenar modelos externos, creando un nuevo y grave riesgo corporativo: la “fuga invisible de datos”.

Fuga de datos / Whisk-FW
Fuga de datos / Whisk-FW (Made with Google AI)

La clave está en la gobernanza y los agentes ia privados

Ante este panorama, las instituciones deben enfocarse en alternativas que permitan aprovechar el potencial de la IA (incluyendo agentes inteligentes y análisis predictivo) sin ceder el control de su información a entornos externos.


Datawalt, una plataforma SaaS que se especializa en la unificación de datos empresariales, subraya que la solución radica en integrar la IA directamente dentro de los marcos de seguridad y gobernanza de la organización.

Fuga de datos / Whisk-FW
Fuga de datos / Whisk-FW (Made with Google AI)

Lucas Waltemath, CEO y fundador de Datawalt, destaca que la IA no debe ser una herramienta independiente, sino parte del ecosistema tecnológico empresarial:

“El gran riesgo hoy no está en usar IA, sino en usarla de manera arbitraria. La información es el activo más valioso de cualquier organización, y no puede estar en manos de sistemas abiertos. Creemos que la inteligencia artificial debe operar bajo las mismas normas que cualquier otro proceso crítico del negocio”, menciona Waltemath.

Súper analistas con trazabilidad total

La propuesta tecnológica de empresas como Datawalt se centra en un enfoque de IA responsable que combina analítica avanzada y gestión de datos con modelos de IA empresariales privados para cada cliente.

  • Entornos Seguros: Estos modelos se alojan en entornos cerrados, seguros y auditables.
  • Agentes Propios: Datawalt ha desarrollado un módulo de “Agents” que permite a las empresas crear “súperanalistas” personalizados que tienen acceso seguro y controlado a la data interna (por ejemplo, del ERP).
  • Trazabilidad y Control: Este enfoque garantiza precisión, trazabilidad completa de cada interacción y permisos configurables, mitigando el riesgo de la fuga de datos.
Fuga de datos / Whisk-FW
Fuga de datos / Whisk-FW

El objetivo final es promover el uso de la IA dentro de marcos de auditoría continua que mantengan el control total de la información, asegurando que las decisiones estratégicas y los datos confidenciales permanezcan dentro de los límites seguros de la organización.

       

Tags

     
.

Lo Último