La firma Tenable Research ha descubierto múltiples vulnerabilidades nuevas y persistentes en el ChatGPT de OpenAI que podrían permitir a un atacante exfiltrar información
privada de las memorias y el historial de chat de los usuarios.
Según el estudio, estas fallas incluyen inyecciones de prompt indirectas, exfiltración de información personal, evasión de filtros de seguridad y la posibilidad de que un atacante modifique las “memorias” del usuario para extraer datos de manera persistente. En términos simples, basta con hacer una pregunta inocente para quedar expuesto a la manipulación del sistema si la IA accede a un sitio web comprometido o si se encuentra con instrucciones ocultas.
Para los usuarios comunes, el impacto no se limita a la privacidad digital: comprometer la seguridad de

El Tiempo Economía

NBC News
Slate Politics
Associated Press US News
NFL Dallas Cowboys
NFL New York Giants
The List