La firma Tenable Research ha descubierto múltiples vulnerabilidades nuevas y persistentes en el ChatGPT de OpenAI que podrían permitir a un atacante exfiltrar información

privada de las memorias y el historial de chat de los usuarios.

Según el estudio, estas fallas incluyen inyecciones de prompt indirectas, exfiltración de información personal, evasión de filtros de seguridad y la posibilidad de que un atacante modifique las “memorias” del usuario para extraer datos de manera persistente. En términos simples, basta con hacer una pregunta inocente para quedar expuesto a la manipulación del sistema si la IA accede a un sitio web comprometido o si se encuentra con instrucciones ocultas.

Para los usuarios comunes, el impacto no se limita a la privacidad digital: comprometer la seguridad de

See Full Page