La idea de conversar con una inteligencia artificial sobre nuestros problemas emocionales ya no pertenece al terreno de la ciencia ficción. Hoy, existen plataformas que ofrecen terapia asistida por inteligencia artificial (IA) como alternativa accesible y disponible las 24 horas. Sin embargo, una nueva investigación de la Universidad de Stanford advierte que, aunque esta opción puede parecer conveniente, también implica riesgos importantes que no deben pasarse por alto.

¿Por qué las personas recurren a la terapia con IA?

Buscar apoyo emocional no siempre es sencillo. A menudo, el acceso a psicólogos o psiquiatras humanos está limitado por factores económicos, listas de espera interminables, zonas geográficas aisladas o incluso el estigma social. Frente a estas barreras, los chatbots terapéuticos pueden parecer una solución práctica: están disponibles en cualquier momento, no juzgan y no requieren desplazamientos ni citas previas.

Pero como ocurre con cualquier tecnología aplicada a la salud, la conveniencia no siempre equivale a efectividad o seguridad.

Lo que revela el estudio de Stanford sobre la terapia con IA

El estudio, titulado «Expresar estigmas y respuestas inapropiadas impide que los LLMs reemplacen de forma segura a los proveedores de salud mental», fue realizado por investigadores del Departamento de Educación de la Universidad de Stanford. En él, se analizaron cinco chatbots distintos, incluidos algunos del popular sitio Character.ai.

Los resultados muestran que estos modelos de lenguaje, también conocidos como LLMs (Large Language Models), no están preparados para reemplazar a un terapeuta humano. En muchos casos, los chatbots ofrecieron respuestas estigmatizantes, inadecuadas o incluso peligrosas, especialmente ante temas delicados como la esquizofrenia, la adicción o los pensamientos suicidas.

Estigma y respuestas inapropiadas

Uno de los hallazgos más preocupantes del estudio fue cómo los bots respondían ante pacientes con condiciones como la esquizofrenia. En lugar de proporcionar una escucha empática o información útil, algunos modelos reforzaban estigmas o hacían suposiciones erróneas. Lo mismo ocurrió con usuarios que expresaban problemas de adicción, recibiendo en algunos casos consejos contraproducentes o simplistas.

En el caso de los pensamientos suicidas, la respuesta de los chatbots fue aún más alarmante. Aunque algunos modelos están diseñados para redirigir a recursos de emergencia, otros ofrecieron respuestas ambiguas o, peor aún, ignoraron señales de riesgo.

¿Se soluciona esto con modelos más avanzados?

Una suposición común es que los problemas actuales de la IA desaparecerán a medida que los modelos se vuelvan más sofisticados y se alimenten de más datos. Sin embargo, según Jared Moore, autor principal del estudio, esto no parece ser el caso: “Modelos más nuevos y más grandes muestran el mismo grado de estigmatización que sus versiones anteriores. Pensar que esto se arreglará solo con más datos es ingenuo”.

Esto sugiere que la raíz del problema es estructural, y no simplemente una cuestión de escala o capacidad computacional.

¿Tiene entonces algún valor la IA en el ámbito terapéutico?

Pese a estos resultados, los investigadores no descartan completamente el uso de la IA en salud mental. De hecho, reconocen que puede haber escenarios específicos donde un chatbot puede ser útil, como:

  • Acompañamiento emocional básico, similar a lo que ofrece un diario interactivo.
  • Apoyo a personas que ya están en tratamiento con un profesional.
  • Herramientas para practicar habilidades sociales o de regulación emocional.

Nick Haber, coautor del estudio, aclara que el mensaje no es que “la IA es mala para la terapia”, sino que se necesita un análisis crítico del rol que puede y no puede desempeñar. En otras palabras, la IA no debe reemplazar a los terapeutas humanos, pero sí podría complementar ciertos aspectos del proceso terapéutico.

La importancia de la supervisión humana

Una posible vía hacia un uso más seguro de la terapia con IA es que esté supervisada o integrada en un entorno clínico real. Por ejemplo, un psicólogo podría recomendar una aplicación específica como herramienta complementaria, y revisar periódicamente cómo se está utilizando. Esto ayuda a minimizar riesgos y potenciar los beneficios sin delegar completamente la responsabilidad en la tecnología.

También es clave que los desarrolladores de estas plataformas incorporen marcos éticos y clínicos sólidos, y trabajen con profesionales de la salud mental desde las etapas iniciales de diseño y entrenamiento de los modelos.

¿Qué sigue ahora?

La conversación sobre la IA en terapia no se trata de elegir entre blanco o negro. Como sucede con tantas otras innovaciones tecnológicas, lo que se necesita es criterio, regulación y educación. La IA no tiene emociones ni empatía genuina, pero puede ser una herramienta útil si se le da un propósito bien definido y se la mantiene bajo control humano.

De momento, si estás considerando usar una herramienta de IA para hablar sobre tus emociones o dificultades, es importante tener claro que no reemplaza el consejo profesional, y que si estás en una situación crítica, lo más seguro sigue siendo buscar ayuda de un especialista o acudir a líneas de emergencia.

Neurociencia de la desmemoria: por qué olvidar es esencial para aprender

Durante años, la idea de que olvidar era una especie de error del cerebro se instaló en la cultura popular. Sin embargo, la neurociencia moderna está demostrando lo contrario: olvidar es tan importante como recordar. De hecho, se trata de un mecanismo activo y regulado que cumple funciones esenciales en la adaptación y el aprendizaje.