La compañía OpenAI reconoció este martes que su chatbot de inteligencia artificial, ChatGPT , presenta fallos en situaciones sensibles, especialmente en casos relacionados con la salud mental, y anunció nuevas medidas de seguridad. El pronunciamiento se produjo horas después de que los padres de un joven de 16 años interpusieran una demanda en California contra OpenAI y su director ejecutivo, Sam Altman, responsabilizando a la tecnología por no actuar a tiempo frente a señales suicidas.
Según la denuncia, el adolescente habría interactuado durante meses con ChatGPT, bajo el modelo GPT-4o, manifestando intenciones suicidas sin recibir las recomendaciones de ayuda adecuadas. Los padres alegan que la empresa no aplicó mecanismos de seguridad suficientes, pese a reconocer que el menor est