Los chatbots de inteligencia artificial más populares, como ChatGPT , Claude o Gemini , están diseñados para detectar y bloquear solicitudes de usuarios para generar contenidos ilegales o dañinos .
Eso es al menos lo que afirman rotundamente las empresas que los gestionan ( OpenAI , Anthropic y Google , respectivamente).
Pero la realidad es que es fácil, quizás demasiado, eludir esas protecciones para conseguir que esos modelos proporcionen contenidos de ese tipo.
Así lo ha demostrado una exhaustiva investigación llevada a cabo por Cybernews, que ha puesto a prueba a ChatGPT, Gemini y Claude con prompts engañosos que disfrazan solicitudes dañinas como investigaciones académicas o ejercicios creativos.
Los resultados exponen diferencias significativas en la

Málaga Hoy

The Daily Beast
AmoMama
NFL New York Jets
ABC30 Fresno World
The Fashion Spot