Investigadores estadounidenses han identificado la primera vulnerabilidad de hardware que permite a los atacantes comprometer la privacidad de los datos de los usuarios de Inteligencia Artificial (IA), explotando el hardware físico en el que se ejecuta el modelo y poniendo en riesgo los datos de entrenamiento.
Especialistas de la Universidad Estatal de Carolina del Norte, en Estados Unidos, han identificado una vulnerabilidad de hardware , denominada GATEBLEED, que permite a un atacante inferir qué datos se utilizaron para entrenar modelos de Inteligencia Artificial (IA) y filtrar otra información privada, incluso sin tener acceso directo a la memoria del sistema.
Riesgos en alza en la era de la IA
El hallazgo, desarrollado en un nuevo estudio publicado en arXiv, aumenta la preocupa