Un estudio reciente realizado por psicólogos y psiquiatras del Reino Unido advierte que ChatGPT-5 , el chatbot de inteligencia artificial de OpenAI , puede ofrecer consejos peligrosos y poco útiles a personas con enfermedades mentales. Según la investigación, la IA no identifica ni responde adecuadamente a situaciones de riesgo, lo que pone en peligro a usuarios vulnerables.
El equipo de expertos de King’s College London (KCL) y la Association of Clinical Psychologists UK (ACP) , en colaboración con The Guardian, diseñó personajes ficticios para interactuar con ChatGPT-5: un adolescente con tendencias suicidas, una mujer con trastorno obsesivo-compulsivo, un hombre que creía tener TDAH y una persona con síntomas de psicosis.
Los investigadores, usando casos reales de formació

Infobae México

América TeVé EEUU
The Fashion Spot