El autor principal del estudio señala que no es la IA la que decide comportarse maliciosamente, sino el humano la que puede empujar a que lo haga

Cada vez más se encuentran las personas inmersas en la Inteligencia Artificial y los grandes modelos de lenguaje (LLM, por sus siglas en inglés) como ChatGPT o Bard, los cuales pueden explotarse para crear chatbots que manipulen a los usuarios para que brinden su información personal, advirtió un estudio.

➡️ Únete al canal de El Sol de Puebla en WhatsApp para no perderte la información más importante

José Such, colaborador del Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la Universidad Politécnica de Valencia (UPV) de España, junto a investigadores del King’s College de Londres en el Reino Unido, se

See Full Page