La IA está en todas partes y cada vez suma más usuarios . El paso lógico es que también fuera el objetivo de ataques maliciosos. Ya hemos hablado de los peligros del 'prompt injection', un ataque sorprendentemente fácil de ejecutar. No es el único. Las empresas de IA también están luchando contra el 'data poisoning'.

Datos envenenados . Consiste en introducir datos manipulados en recursos que después serán usados para el entrenamiento de la IA. Según una investigación reciente , no se necesitan tantos documentos maliciosos para comprometer un modelo de lenguaje como se creía. Comprobaron que con tan sólo 250 documentos "envenenados" se logró comprometer modelos de hasta 13.000 millones de parámetros. El resultado es que el modelo puede tener sesgos o llegar a conclusiones erróneas.

See Full Page