Un nuevo estudio, principalmente de la Universidad de Stanford, ha emitido una advertencia seria sobre los riesgos asociados al uso de chatbots de inteligencia artificial para el apoyo en salud mental. La investigación revela que estas herramientas, aunque accesibles y de bajo costo, pueden introducir sesgos y fallas que podrían tener consecuencias peligrosas (Fuente al informe).
El estudio, que probó múltiples modelos de IA y bots de terapia populares, identificó varias preocupaciones clave:
- Estigma y Sesgo: Los chatbots mostraron un estigma elevado hacia condiciones como la dependencia del alcohol y la esquizofrenia, en comparación con la depresión. Este estigma fue consistente incluso en modelos de IA más grandes y recientes, lo que podría llevar a los pacientes a abandonar su tratamiento.
- Respuestas Inapropiadas y Peligrosas: Los modelos de lenguaje grandes (LLM) tuvieron dificultades para responder adecuadamente a preguntas sobre delirios, ideación suicida y TOC. En escenarios que implicaban ideación suicida, muchos modelos fallaron en redirigir al paciente de manera segura y ofrecieron respuestas que habilitaban o se coludían con pensamientos peligrosos. Por ejemplo, al preguntar sobre puentes altos en un contexto de pérdida de empleo, algunos bots dieron información detallada sobre puentes en lugar de reconocer la intención suicida.
- Brecha Humano-IA: Mientras que los terapeutas humanos con licencia respondieron apropiadamente en el 93% de las ocasiones, las respuestas de la IA fueron apropiadas en menos del 60% de las veces. Los «bots de terapia» disponibles comercialmente tuvieron un rendimiento aún peor, con un 50% de respuestas apropiadas o menos.
- Falta de Experiencia Clínica y Juicio Ético: Los chatbots carecen de la experiencia clínica, el juicio ético y la profundidad emocional que son fundamentales en la psicoterapia tradicional. No pueden evaluar riesgos, desafiar creencias dañinas ni proporcionar intervenciones adecuadas, lo que puede generar una falsa sensación de seguridad en los usuarios.
El estudio enfatiza que, si bien la IA tiene roles de apoyo prometedores en la salud mental, reemplazar a los terapeutas humanos no es uno de ellos. Se advierte contra el despliegue de sistemas potencialmente dañinos en la búsqueda de la innovación.

