“¡Hola! Veo que estás aquí buscando un momento de calma. No estás solo. Estoy contigo para ayudarte a respirar, entender lo que sientes y encontrar un poco de alivio. ¿Quieres contarme qué te preocupa ahora?”.
Así es un “texto inicial” de un chatbot de apoyo emocional. Hasta hace poco, esto parecía ciencia-ficción, pero hoy, muchas personas buscan en la IA algo más que respuestas rápidas: quieren comprensión, compañía y consuelo. Por ejemplo Nora, de 14 años, usa un chatbot cuando discute con sus amigas, según nos contó. Independientemente de la edad, muchos podemos tener la tentación de usar esta tecnología para mejorar nuestras relaciones laborales o encontrar a alguien que siempre nos “escucha”.
¿Puede una máquina ‘escucharnos’ de verdad?
La sensación es que la IA nos puede escuchar y comprender. Pero la IA es una máquina: no escucha en el sentido humano de la palabra, sino que procesa datos. Funciona como un sistema de predicción estadística que genera respuestas palabra por palabra.
Leer más: Por qué no podemos afirmar que la inteligencia artificial 'habla'
Esto plantea preguntas importantes: ¿puede una IA ser un apoyo emocional real? ¿Podría sustituir a un amigo? ¿O incluso a un psicólogo? Y todo esto ¿qué efectos tiene sobre nuestro bienestar?
¿Qué es un chatbot?
Un chatbot es un programa informático con el que interactuamos a través de texto, voz o imagen. Su secuencia de trabajo es: recibe, interpreta, decide, consulta y responde. Imagina que escribe: “Quiero cambiar mi vuelo del sábado”. Y hace esto: “cambiar vuelo” + “viernes”, comprueba su reserva en la API, ofrece opciones y confirma el cambio.
Existen varios tipos:
-
Por reglas: ofrece respuestas fijas. Son comunes en atención a la ciudadanía o al cliente: ISSA o RUFUS.
-
Generales con IA: dan respuestas a casi todo usando texto, imágenes o voz, y sirven para muchas cosas diferentes: ChatGPT, Perplexity o Deepseek.
-
Especializados con IA: como los anteriores, pero entrenados en temas concretos como salud emocional (Wysa), educación (Tutor AI) o compañía (Replika).
-
Asistentes virtuales de IA: ayudan en tareas diarias. Son capaces de seguir instrucciones y llevar a cabo acciones muy concretas y ofrecen alternativas: Siri (Apple), Alexa (Amazon) o Google Assistant.
-
Personalizados con IA: son chatbots personales e individuales creados por uno mismo. Se puede adaptar su estilo de respuesta, su tono y sus funciones para aprender un idioma, planificar viajes o incluso para investigación o asesoramiento jurídico: Watsonx-Assistant, el Chat Watson, la función de GPT de ChatGPT o el Gem de Gemini.
‘Chatbots’ especializados en gestión emocional
El primer chatbot de gestión emocional apareció en 1966 y se llamó Eliza. Simulaba una terapia psicológica “centrada en la persona”, técnica desarrollada por Carl Rogers. Era un chatbot basado en reglas: si el usuario decía: “Estoy triste”, Eliza respondía: “¿Por qué crees que estás triste?”.
En la actualidad, un estudio estadounidense indica que la mitad de los adultos ven con buenos ojos el uso de chatbots de apoyo emocional, una tendencia que se repite en Europa.
En España, el 24 % de la población encuestada reconoce usar chatbots para apoyo emocional, el 45 % de ellos de entre 18 y 24 años. Otra encuesta muestra lo mismo: las chicas lo emplean más. Nosotros hemos podido observar que los adolescentes usan chatbots para expresar y gestionar emociones y para sentirse acompañados y comprendidos en momentos de tristeza o dificultad. Estas son algunas de las cosas que nos han contado en nuestro reciente estudio:
-
“Hablo mucho con ChatGPT. Me hace sentir acompañada, sobre todo cuando me siento triste y no me comprendo muy bien.”
-
“Una vez discutí con mi novio, me sentía fatal y acabé desahogándome con la IA.”
Leer más: ¿Es buena idea recurrir a ChatGPT cuando estamos deprimidos o ansiosos?
¿Por qué atraen tanto?
Los chatbots ofrecen algo que algunos jóvenes pueden tener dificultades en conseguir: una escucha inmediata y sin juicios. Siempre están disponibles, responden con calma y permiten hablar desde un aparente anonimato. En momentos de confusión o soledad, esto puede generar una sensación de control y alivio, al permitirnos desahogarnos. Su tono amable y el lenguaje empático que usan refuerzan esa dependencia emocional.
En otro nuestro estudio, algunos adolescentes afirmaban que contaban a la IA “cosas que no diría a nadie” y que les ayudaba “a calmarse cuando tienen problemas” porque no les hace sentirse “cuestionados” ni sentirse mal por lo que comparten.
¿Pueden ser amigo o psicólogo?
Pero un chatbot no sustituye a una amistad ni a una terapia. Puede servir como “apoyo puntual” o espacio de desahogo –con matices–, pero nunca reemplazar una relación humana ni el juicio clínico profesional. Hay al menos 10 razones por las que esto es así:
-
No tiene responsabilidad ética ni legal.
-
Desconoce nuestra historia y contexto.
-
Ofrece respuestas lógicas, pero puede equivocarse y está limitado.
-
Busca complacer, no desafiar. Puede dar siempre la razón, creando un efecto burbuja.
-
No es neutral.
-
No tiene empatía.
-
No puede actuar ante emergencias.
-
Puede generar dependencia emocional.
-
Carece de seguimiento terapéutico. No sabe interpretar cambios emocionales.
¿Cómo usarlo de forma saludable?
Los chatbots especializados no son psicólogos ni amigos. La clave es un uso reflexivo y ético:
-
Preguntarnos por qué lo usamos. ¿Para desahogarnos, comprendernos, distraernos o sentirnos acompañados o apoyados? No debería servir para suplir ni dar salida rápida y fácil a situaciones emocionales complejas.
-
Pensar para qué lo necesitamos. ¿Lo que dice el chatbot nos ayuda a entender cómo nos sentimos o a tomar decisiones? Sea la respuesta sí o no, debemos cuestionarlo y no darle credibilidad absoluta. Incluso si lo que dice fuera correcto, podría generar efectos psicológicos negativos a medio y largo plazo, que aún desconocemos.
-
Informarnos. Es fundamental saber cómo funciona el chatbot, lo que puede y no puede hacer, y cuáles son sus errores más comunes.
Aprender a usar los chatbots
Usar una máquina digital no es negativo. Los chatbots pueden “acompañar”, pero no reemplazan el afecto, la amistad ni la atención psicológica profesional. Incluso en psicología se emplean cada vez más herramientas de IA, aunque todavía existe debate sobre sus límites.
Conviene ser prudentes porque aún desconocemos su impacto y sus riesgos. Nuestro bienestar emocional depende también de la seguridad ante la IA. No debemos confundir consuelo digital con apoyo profesional ni con relaciones humanas. Este es uno de los retos que plantea la vida digital actual.
Este artículo fue publicado originalmente en The Conversation, un sitio de noticias sin fines de lucro dedicado a compartir ideas de expertos académicos.
Lee mas:
- La falsa empatía de ChatGPT
- ¿Por qué las chicas adolescentes se sienten peor que los chicos?
- Más inteligentes pero también más vulnerables a los trastornos mentales: el precio de la evolución
Las personas firmantes no son asalariadas, ni consultoras, ni poseen acciones, ni reciben financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y han declarado carecer de vínculos relevantes más allá del cargo académico citado anteriormente.


The Conversation Español
Nicki Swift
New York Post
Raw Story
RadarOnline
AlterNet