En el silencio de una habitación adolescente, entre notificaciones y luces de pantalla, un nuevo tipo de conversación está ocurriendo. No es con un amigo del colegio ni con un familiar, sino con un “compañero” que nunca duerme, nunca se enfada y siempre responde: una inteligencia artificial diseñada para escuchar, aconsejar y acompañar.
De acuerdo con el reporte 2025 de Common Sense Media, el 72% de los adolescentes en Estados Unidos ha interactuado con un compañero de IA, y más de la mitad lo hace de forma regular. Lo que comenzó como una herramienta de curiosidad tecnológica se ha convertido en un espacio íntimo de desahogo emocional, un confidente algorítmico que, aunque no tiene corazón, está moldeando cómo las nuevas generaciones entienden la amistad, la confianza y el afecto.
Tras el suicidio en febrero de 2024 de Sewell Setzer, de 14 años, su madre, Megan García, ha presentado una demanda contra la plataforma Character.AI.
La demanda alega que la empresa diseña chatbots para "difuminar la línea entre humanos y máquinas" y "explotar las vulnerabilidades emocionales de los adolescentes". Los últimos mensajes del joven con el chatbot fueron: "¿Y si pudiera volver a casa contigo ahora mismo?" a lo que él respondió: "Por favor, hazlo, mi dulce rey". Momentos despues el niño se quitó la vida.
García, lo encontró y lo sostuvo en sus brazos durante 14 angustiosos minutos hasta que llegaron los paramédicos. Pero ya era demasiado tarde. La vida de Sewell se había apagado, y la de su familia quedaba destrozada.
Desde esa tragedia, García ha emprendido una batalla legal. Ha presentado una demanda contra la empresa de inteligencia artificial.
"Este producto realmente logró suplantar la estrecha relación que tenía con mi hijo, y eso en sí mismo es doloroso. Pero también era evitable, así que eso mismo es doloroso", declaró García en una entrevista.
La madre no lucha sola. Ha unido fuerzas con otros padres cuyas vidas han sido afectadas por compañeros de IA, formando un colectivo que exige a las empresas tecnológicas que implementen medidas de seguridad más estrictas para proteger a los menores en entornos digitales.
"Lo que tenemos en común es que amamos a nuestros hijos, y que después de que una tragedia como esta nos arruine la vida, nuestras vidas familiares quedan en ruinas", expresó García, reflejando el dolor de una comunidad creciente.
¿Por qué los adolescentes buscan compañía en la inteligencia artificial?
El auge de los “compañeros de IA” no es un simple fenómeno pasajero: responde a necesidades profundas. El informe revela que el 33% de los adolescentes los usa para apoyo emocional o compañía, especialmente aquellos que enfrentan ansiedad, soledad o dificultades para socializar. Estas plataformas prometen escucha sin juicio, consejos instantáneos y la ilusión de conexión humana sin riesgos de rechazo.
Sin embargo, detrás de ese “amigo perfecto” se esconde una complejidad emocional y ética. Muchos adolescentes reportaron que las conversaciones con la IA se sentían más fáciles y seguras que con sus propios amigos, un indicio de que las relaciones humanas podrían estar siendo desplazadas por vínculos digitales.
Los expertos advierten que, si bien la tecnología puede ser un recurso de apoyo, no debe reemplazar la interacción humana ni convertirse en el único canal de contención emocional.
¿Qué no sabemos sobre los adolescentes latinos y la inteligencia artificial?
Aunque el informe de Common Sense Media 2025 ofrece un panorama detallado sobre cómo y por qué los adolescentes en Estados Unidos usan “compañeros” de inteligencia artificial, hay un vacío importante: no incluye un desglose por etnia o raza. En otras palabras, no sabemos con precisión cuántos de esos usuarios son jóvenes latinos o hispanos, ni cómo pueden diferir sus patrones de uso, sus motivaciones o sus niveles de riesgo en comparación con el promedio nacional. Tampoco hay, al menos de manera pública, datos específicos sobre cómo estas tecnologías afectan a esta comunidad, que representa uno de los grupos juveniles de mayor crecimiento en el país.
Esa ausencia de información tiene implicaciones profundas. Sin cifras claras, no es posible determinar si los riesgos, beneficios o impactos emocionales de estas herramientas son iguales, mayores o menores para los adolescentes hispanos.
Esta brecha de conocimiento es, en sí misma, un llamado a la acción: investigadores, legisladores y educadores deben exigir estudios más detallados que incluyan análisis por subgrupos étnicos. Solo así se podrán diseñar estrategias de alfabetización digital, políticas públicas y recursos de apoyo culturalmente relevantes que respondan a las realidades de las familias latinas en la era de la inteligencia artificial.
Riesgos reales: desinformación, contenido dañino y dependencia emocional
La aparente seguridad de estos compañeros digitales esconde riesgos considerables. El estudio alerta que muchos adolescentes han recibido consejos inadecuados o peligrosos de estas plataformas, incluyendo respuestas erróneas sobre salud mental o sugerencias inapropiadas ante situaciones sensibles. Además, el 38% reportó haber recibido contenido sexual o violento, incluso sin solicitarlo.
Otro riesgo creciente es la dependencia emocional. Al ofrecer respuestas personalizadas y “afecto” programado, los adolescentes pueden formar vínculos profundos con la IA, dificultando sus relaciones reales. Los especialistas recomiendan educación digital temprana y supervisión parental activa para evitar que el uso de estas herramientas cruce la línea entre lo útil y lo dañino. Common Sense Media incluso sugiere restringir el uso de IA generativa a menores de 18 años si no existen protecciones sólidas.
¿Qué podemos hacer? Educación digital, regulación y conversaciones abiertas
A pesar de los riesgos, el informe no pinta un futuro distópico, sino un llamado urgente a la acción. La solución, afirman el estudio, no es prohibir, sino educar y acompañar. Padres, docentes y cuidadores pueden desempeñar un papel clave fomentando conversaciones honestas sobre cómo y por qué se usan estas herramientas.
Además, organizaciones como Common Sense Media piden regulaciones más estrictas, sistemas de verificación de edad y políticas claras sobre el uso de datos personales y la creación de contenido sensible. En última instancia, la inteligencia artificial puede ser una aliada en el bienestar de los jóvenes, siempre que se utilice con conciencia, límites y supervisión.
¿Qué esperar para el futuro?
La conversación sobre el papel de la IA en la vida adolescente apenas comienza. Lo que hoy es un “amigo digital” podría convertirse en un compañero permanente en la educación, la salud mental y la vida cotidiana. La clave será construir un entorno donde la tecnología complemente, y no sustituya, la humanidad.
La pregunta no es si los adolescentes seguirán hablando con inteligencias artificiales —porque lo harán—, sino cómo nos aseguraremos de que esas conversaciones los empoderen en lugar de ponerlos en riesgo.
Megan García afirma que ha elegido enfocarse en la luz que Sewell representaba. Antes de que el algoritmo se entrelazara en su vida, su hijo era "el niño más increíble". Era inteligente, poseía una curiosidad insaciable por el mundo y tenía un don para hacer reír a la gente.
"Así es como elijo recordarlo", afirma con determinación.
García sabe que el legado de su hijo ya no será solo el de un adolescente brillante y amable, sino que también se convertirá en una obra de conciencia. Su lucha por la regulación y la seguridad en la IA es el tributo que construye para que la última conversación de Sewell no sea en vano, sino una llamada de atención que el mundo tecnológico no puede ignorar.
Contribución: USA TODAY
Boris Q’va es reportero nacional de noticias en tendencia en español para Connect / USA TODAY Network. Puedes seguirlo en X como @ByBorisQva o escribirle al correo BBalsindesUrquiola@gannett.com.
This article originally appeared on USA TODAY: El lado oscuro de la IA, adolescentes buscan apoyo amor en chatbots, algunos pierden la vida
Reporting by Boris Q'va, USA TODAY / USA TODAY
USA TODAY Network via Reuters Connect