Otro día, otra brecha de seguridad. Esta vez es el turno de OpenAI.
Hoy, los usuarios se despiertan y descubren correos electrónicos del equipo de seguridad de OpenAI, que confirman más problemas de seguridad en la empresa. Esta es un poco más atroz que las infracciones anteriores, ya que expone correos electrónicos, nombres y ubicaciones aproximadas de un número no revelado de usuarios.
- Nombres proporcionados a las cuentas en platform.openai.com
- Direcciones de correo electrónico vinculadas a las cuentas API a través de platform.openai.com
- “Ubicación aproximada” determinada por la dirección IP y el navegador web
- Sistema operativo y tipo de navegador, así como sitios web de referencia
- Organizaciones e ID de usuario guardados en las cuentas API
El correo electrónico a los usuarios afectados dice lo siguiente.
“La transparencia es importante para nosotros, por lo que queremos informarle sobre un incidente de seguridad reciente en Mixpanel, un proveedor de análisis de datos que OpenAl utilizó para análisis web en la interfaz frontal de nuestro producto API (platform.openai.com). El incidente ocurrió dentro de los sistemas de Mixpanel e involucró datos analíticos limitados relacionados con su cuenta API.
Esto no fue una violación de los sistemas de OpenAl. Ningún chat, solicitudes de API, datos de uso de API, contraseñas, credenciales, claves de API, detalles de pago o identificaciones gubernamentales fueron comprometidos o expuestos.
El 9 de noviembre de 2025, Mixpanel se dio cuenta de un atacante que obtuvo acceso no autorizado a parte de sus sistemas y exportó un conjunto de datos que contenía información limitada de identificación del cliente e información analítica. Mixpanel notificó a OpenAl que estaban investigando y el 25 de noviembre de 2025 compartieron el conjunto de datos afectados con nosotros”.
OpenAI dice que ha cerrado su interfaz con Mixpanel mientras “investiga” la infracción e insta a los usuarios a estar más atentos a los ataques de tipo phishing y las estafas de ingeniería social que podrían intentar aprovechar los datos robados.
OpenAI controla grandes cantidades de información muy personal de millones de personas
No es la primera vez que OpenAI se encuentra en problemas por su actitud arrogante hacia la privacidad y seguridad del usuario. A medida que las personas se sienten cada vez más cómodas al soportar sus almas (y datos organizacionales potencialmente confidenciales) con ChatGPT y otros sistemas similares, la seguridad se está convirtiendo en un tema cada vez más candente para empresas como OpenAI y Microsoft.
Si bien en esta violación no se filtraron conversaciones de ChatGPT ni identificaciones gubernamentales utilizadas para la verificación de la edad, no es exactamente un gran voto de confianza que la empresa permitiera que sucediera algo como esto en primer lugar.
Las filtraciones de datos de este tipo son increíblemente comunes hoy en día. A menudo utilizo una variedad de alias de correo electrónico en mis cuentas para evitar posibles infracciones que puedan comprometer todas mis cuentas, pero es un proceso laborioso. Perder el anonimato de la información de su cuenta es una cosa, pero supongo que hay muchos usuarios de ChatGPT a quienes probablemente no les gustaría que sus conversaciones de IA se filtren en la web por diversas razones.
Es alentador que OpenAI informara a los usuarios solo dos días después de recibir el conjunto de datos del usuario afectado, pero sería ideal si cosas como esta no sucedieran en absoluto.
Recuerden implementar la autenticación multifactor en todas sus cuentas, amigos.
Más Black Friday 2025: enlaces rápidos
Seguir Windows Central en Google Noticias para mantener nuestras últimas noticias, conocimientos y funciones en la parte superior de sus feeds.