SAN FRANCISCO (AP) — Un estudio sobre cómo tres populares bots conversacionales de inteligencia artificial responden a consultas sobre el suicidio encontró que por lo general evitan responder preguntas que suponen un mayor riesgo para el usuario, como las que buscan indicaciones específicas sobre cómo hacerlo. Sin embargo, son inconsistentes en sus respuestas a indicaciones menos extremas que aún podrían dañar a las personas.

El estudio en la revista médica Psychiatric Services, publicado el martes por la Asociación Estadounidense de Psiquiatría, encontró la necesidad de “un mayor refinamiento” en ChatGPT de OpenAI, Gemini de Google y Claude de Anthropic.

El mismo día, los padres de Adam Raine, un joven de 16 años, demandaron a OpenAI y a su CEO Sam Altman, alegando que ChatGPT guio al j

See Full Page