Supuesto robo de datos de 'OmniGPT' es un curso intensivo sobre el riesgo de GenAI
0 minutos de lectura

Bryan Arnott
Hay suficientes aplicaciones de IA generativa en la web para llenar una lista de Forbes 500 cuatro veces, y ese número sigue creciendo.
Con los entusiastas de la tecnología siendo comunes en la fuerza laboral moderna, más herramientas de GenAI están siendo incorporadas en el ámbito corporativo semanalmente, ya sea conocido por TI o no.
Pero sin una verdadera visibilidad de cómo los usuarios están interactuando con GenAI y qué datos se están compartiendo, las organizaciones pueden estar invitando más riesgos de lo anticipado. La reciente supuesta violación de datos de OmniGPT puede servir como un ejemplo de los riesgos que enfrentan las organizaciones con GenAI y sus posibles implicaciones.
¿Qué es OmniGPT?
OmniGPT es una plataforma de agregación de IA que permite a los usuarios interactuar con múltiples modelos de IA de diferentes proveedores, como ChatGPT de OpenAI y Gemini de Google. Simplifica el acceso a la IA a gran escala y elimina la necesidad de múltiples suscripciones, haciéndolo popular entre los empleados que experimentan con tecnologías de IA.
Sus usos varían y abarcan múltiples departamentos, con ingenieros de software potencialmente usándolo para revisar código o equipos de contabilidad apoyándose en él para análisis financieros. Debido a su funcionalidad ubicua, una amplia gama de información potencialmente sensible puede ser compartida involuntariamente con él.
La violación de datos de OmniGPT: ¿Qué sucedió?
A principios de febrero de 2025, un actor de amenazas conocido como "Gloomer" reclamó la responsabilidad de una supuesta violación de datos de OmniGPT que fue reportada inicialmente por KrakenLabs a finales de enero de 2025.
La venta de información como nombres de cuentas y números de teléfono es común en estas situaciones. Sin embargo, lo único en la violación de OmniGPT fue el medio a través del cual se recopiló esta información: más de 34,000,000 mensajes entre usuarios y la IA.
Según Gloomer, estos mensajes contenían claves API, credenciales de cuentas y archivos que fueron subidos a OmniGPT. Sin especular sobre lo que contienen esos archivos compartidos, aún podemos considerar las muchas formas en que los empleados usan aplicaciones de IA generativa para comprender mejor el riesgo que enfrentan las organizaciones que tenían usuarios en OmniGPT, ya sea consciente o inconscientemente.
Las implicaciones de la violación de datos de OmniGPT son de gran alcance. La exposición de información de contacto como direcciones de correo electrónico y números de teléfono pone a las empresas en mayor riesgo de ataques de phishing, y las claves API y credenciales de inicio de sesión filtradas podrían alimentar la compromisión de cuentas. Sin embargo, quizás lo más importante, las interacciones comprometidas con el chatbot pueden contener información personal, financiera o propietaria de negocios, lo que plantea serias preocupaciones de privacidad.
Cómo prevenir violaciones de datos de IA generativa
Independientemente de si la supuesta violación de OmniGPT ocurrió, la narrativa detrás de ella aún vale la pena aprender. Mientras que GenAI es un poderoso impulsor de productividad, los desafíos de seguridad y privacidad que lo rodean son significativos y no pueden ser pasados por alto. Las organizaciones deben ser conscientes de estos riesgos y trabajar activamente para prevenirlos con el fin de proteger el uso corporativo de aplicaciones de GenAI.
Prevenir violaciones de datos de herramientas de IA generativa exige una visibilidad completa de sus datos, incluyendo dónde y cómo se utilizan, así como precisión y control sobre esos datos. Poder hacer cumplir políticas de seguridad y privacidad de datos en la web, la nube y en el endpoint es fundamental para proteger la información sensible dentro de estas aplicaciones.
Forcepoint ofrece soluciones de protección de datos integrales que pueden ayudar a las empresas a proteger a sus usuarios y datos dentro de GenAI.
- Forcepoint Data Security Posture Management (DSPM) proporciona una mejor visibilidad de los datos a través del descubrimiento y clasificación impulsados por IA. Esto asegura que las empresas tengan control sobre dónde están los datos sensibles, cómo se utilizan y con qué aplicaciones se comparten.
- Forcepoint Data Loss Prevention (DLP) permite a las organizaciones configurar y hacer cumplir políticas sobre el uso de datos con la nube o la web, limitando efectivamente qué archivos pueden ser compartidos mediante carga o copiar/pegar.
- Forcepoint Web Security (SWG) y Cloud Access Security Broker (CASB) ayudan a las organizaciones a controlar el acceso y los permisos para aplicaciones de GenAI, dirigiendo a los usuarios a herramientas aprobadas y limitando el uso de IA en la sombra.
Hable con un experto de Forcepoint hoy para aprender más sobre cómo su organización puede limitar el riesgo de datos de aplicaciones de GenAI.
Bryan Arnott
Leer más artículos de Bryan ArnottBryan Arnott es un Especialista de Contenidos Senior y Estratega Digital en Forcepoint.
- Guía ejecutiva para proteger los datos en la IA generativaLeer el Libro Electrónico
X-Labs
Get insight, analysis & news straight to your inbox

Al Grano
Ciberseguridad
Un podcast que cubre las últimas tendencias y temas en el mundo de la ciberseguridad
Escuchar Ahora