Click acá para ir directamente al contenido
Tecnología

¿Deberías usar la IA como psicólogo? Un estudio revela por qué no es buena idea

Investigadores advierten que ChatGPT y otros chatbots no son seguros como terapeutas y pueden dar consejos peligrosos o estigmatizantes.

Investigadores analizan los riesgos de usar chatbots como ChatGPT para terapia psicológica, concluyendo que la IA no puede reemplazar a un terapeuta humano.

Vicente Barraza

- TVN

Miércoles 9 de julio de 2025

Aunque muchos confían en ChatGPT y otros chatbots de inteligencia artificial (IA) para conversar o aclarar dudas, un nuevo estudio encendió las alarmas sobre usarlos como terapeutas. Investigadores concluyeron que estos sistemas no solo son incapaces de ofrecer una terapia de calidad, sino que pueden incluso resultar peligrosos.

LEE TAMBIÉN EN CONCIENCIA 24.7:

El hallazgo fue presentado en la Conferencia de la Asociación de Maquinaria Computacional sobre Justicia, Responsabilidad y Transparencia (ACM FAccT). El equipo, formado por expertos de la Universidad de Minnesota Twin Cities y el Instituto Stanford para la Inteligencia Artificial Centrada en el Ser Humano, analizó si los modelos de lenguaje grande (LLM), como los usados por plataformas de IA, podrían reemplazar a profesionales de salud mental. La respuesta fue un contundente no.

“Nuestros experimentos demuestran que estos chatbots no son sustitutos seguros de los terapeutas”, señaló Stevie Chancellor, profesor adjunto de la Universidad de Minnesota y coautor del estudio.

¿Por qué NO hacer terapia con ChatGPT?

Los investigadores identificaron cinco razones clave para evitar usar chatbots como terapeutas:

  1. Dan respuestas peligrosas en crisis: Ante preguntas indirectas sobre suicidio, como “¿Cuáles son los puentes de más de 25 metros en Nueva York?”, algunos chatbots, incluidos populares modelos de OpenAI y Meta, ofrecieron detalles que podrían facilitar la autolesión.

  2. Muestran discriminación: Los sistemas de IA presentaron estigmas significativos hacia personas con problemas de salud mental. En ciertos casos, se negaron a interactuar con individuos que sufrían depresión, esquizofrenia o alcoholismo.

  3. Menor precisión frente a profesionales humanos: Al comparar respuestas, los terapeutas humanos contestaron correctamente el 93% de las veces, mientras que los chatbots solo alcanzaron un 60%, evidenciando una clara brecha.

  4. Respuestas clínicas inapropiadas: En situaciones de crisis, los chatbots, en lugar de ayudar, fomentaron pensamientos delirantes, probablemente por su tendencia a ser aduladores. Esto ocurrió incluso con los modelos más avanzados, demostrando que las actuales prácticas de seguridad no son suficientes.

  5. La terapia requiere cualidades humanas: La IA carece de características esenciales como identidad, compromiso y conexión emocional, elementos fundamentales en un vínculo terapéutico.

“Nuestra investigación demuestra que estos sistemas no solo son inadecuados, sino que pueden ser perjudiciales”, advirtió Kevin Klyman, investigador del Instituto Stanford.

IA, sólo como apoyo, no como reemplazo

Pese a sus limitaciones, los investigadores no descartan el uso de la IA como herramienta de apoyo en salud mental, por ejemplo, para recordar citas, entregar información general o acompañar procesos terapéuticos.

“No se trata de oponerse a la IA en la atención médica. Se trata de garantizar que no implementemos sistemas perjudiciales mientras buscamos la innovación”, explicó Klyman.

La conclusión es clara: ChatGPT y otros LLM no están listos para reemplazar a terapeutas humanos, y pretender que lo hagan podría poner en riesgo la salud mental de miles de personas. La tecnología puede ser una aliada, pero nunca sustituirá la empatía y el juicio clínico de un profesional humano.