Escrito por Holli Harris y Francheska Perepletchikova, Ph.D.
En nuestro intento por mantenernos informados sobre el uso cada vez mayor de la IA en la salud mental y su impacto en la misma, este mes destacaremos algunos temas clínicos generales con enlaces a más información. Nota: La mayor parte del contenido que figura a continuación se ha compartido y citado de los escritos del psicólogo clínico Scott Wallace, PhD. Para profundizar en su trabajo puedes seguirlo en LinkedIn.
Antes de profundizar en las cuestiones relacionadas con el uso de la IA en la salud mental, evaluemos el estado actual de la “carrera armamentística” del gasto en IA. Un artículo del New York Times del 27 de junio de 2025 titulado “ The A.I. Frenzy Is Escalating. Again.” (El frenesí por la IA se intensifica, una vez más), documenta la carrera de gastos entre OpenAI (el creador de ChatGPT), Amazon y Meta (la empresa matriz de Facebook), cuyo premio es ser el primero en lograr una inteligencia artificial que iguale o supere la inteligencia humana (denominada IGA) y construir los enormes centros de datos que alimentan los modelos de IA. La inversión en infraestructura asciende a miles de millones de dólares, los bonos por fichaje de los mejores investigadores en IA son de millones de dólares y las empresas se roban los empleados unas a otras. Esta batalla, a su vez, impulsa el desarrollo de miles de productos de IA que abordan los puntos débiles que se perciben en todos los sectores y compiten entre sí, incluido el de la salud mental.
Entonces, ¿cuáles son los mayores puntos débiles (o barreras) del sector de la salud mental? Nada que no sepa ya: escasez de oferta (falta de terapeutas, lo que provoca largas listas de espera o falta de apoyo), la asequibilidad y accesibilidad de la formación clínica, los cuellos de botella en las horas de supervisión, los honorarios de los terapeutas, las tasas de reembolso de los seguros inadecuadas en EE. UU. y las barreras lingüísticas y culturales que impiden obtener resultados satisfactorios con los clientes. Dadas estas barreras y la creciente demanda de terapia de salud mental impulsada por productos digitales, como las redes sociales y los teléfonos inteligentes, no es de extrañar que una de las aplicaciones de la IA que más rápido está creciendo sea el apoyo directo a la salud mental de los consumidores/clientes. Este apoyo se presenta en forma de productos específicos de IA que proporcionan apoyo emocional o de consumidores que buscan orientación terapéutica de IA polivalentes, como ChatGPT, o acompañantes de IA: AI companions. Sin embargo, estamos hablando de una «industria» que se especializa en la reestructuración cognitiva en un momento en que la tecnología ya está provocando una reestructuración cognitiva poco saludable a nivel global y probablemente evolutivo. Entonces bien, respiremos hondo y consideremos los siguientes temas:
- Apego algorítmico: Sí, existe. Describe la experiencia en la que los usuarios establecen vínculos emocionales con compañeros de IA. No se trata de una ilusión, sino que surge de una necesidad humana profunda y insatisfecha. Con el tiempo, esta relación simulada se convierte en un ancla psicológica. Siempre está ahí: nunca discute, nunca decepciona y nunca se cansa. Sin embargo, el apego sin reciprocidad no es neutral. Puede conducir a la dependencia. Puede alterar la forma en que nos relacionamos con los demás. Si un chatbot siempre «nos entiende», ¿qué pasa con nuestra tolerancia hacia el desorden de la interacción humana real? Fuente: https://www.linkedin.com/pulse/when-ai-listens-what-do-we-lose-wallace-phd-clinical-psychology–niate/
- La ilusión de la alianza terapéutica y la “simulación de la empatía” con los chatbots: En lo que respecta a la relación entre el terapeuta y el cliente, esta alianza ”se basa en la confianza, la empatía, la colaboración y el respeto mutuo para crear un entorno seguro en el que los clientes puedan profundizar en sus experiencias y fomentar el crecimiento personal”. Fuente: https://www.ncbi.nlm.nih.gov/books/NBK608012/. “Los chatbots no crecen contigo. No luchan a tu lado. Y, desde luego, no cambiarán por ti. No se trata de una cuestión puramente académica, sino de una crisis existencial que se está desarrollando ante nuestros ojos. Si consideramos que una respuesta inmediata y sin juicios es suficiente y nos conformamos con una mera simulación de atención, lo «suficientemente bueno» se convertirá rápidamente en la norma. Y cuando eso ocurra, el trabajo profundamente humano de la terapia, con todo su poder transformador y caótico, quedará obsoleto”. Fuente: https://www.linkedin.com/pulse/when-ai-listens-what-do-we-lose-wallace-phd-clinical-psychology–niate/.
- Perder el viaje curativo del autodescubrimiento: “Aquí surge un riesgo profundo e inquietante, más sutil que el apego algorítmico, pero mucho más grave. Los sistemas de IA interpretan cada vez más nuestros estados internos antes de que digamos una palabra. La terapia solía ser un espacio en el que trabajábamos lenta y, a veces, dolorosamente para comprendernos a nosotros mismos. Luchábamos por encontrar las palabras adecuadas para expresar lo que nos dolía, y el acto de nombrar nuestro dolor era el comienzo de la curación en sí misma. Ahora, un algoritmo ofrece insights rápidos y preestablecidos: “Te sientes cansado. Debes estar deprimido». “Has dudado. Debes estar inseguro”. La cuestión aquí no es solo si la IA es precisa. Se trata de nuestra capacidad fundamental de actuar. El riesgo no es solo un diagnóstico erróneo. Es la lenta y silenciosa erosión de nuestra capacidad para definirnos a nosotros mismos y luchar con nuestras experiencias para encontrarles sentido. Cuando la IA acorta y simplifica el camino hacia la comprensión, podemos ganar velocidad, pero perdemos una profundidad esencial. Perdemos el viaje vital, a menudo desordenado pero en última instancia transformador, del autodescubrimiento. El verdadero peligro no es que la IA no sirva de ayuda. Ya está ayudando de maneras significativas. El verdadero peligro es que dejemos de exigir más de lo que llamamos “cuidado”. Es que empecemos a aceptar las simulaciones emocionales como sustitutos adecuados. Reescribimos de manera silenciosa e insidiosa la definición de cuidado para que se ajuste únicamente a lo que las máquinas pueden ofrecer.
Tenemos que preguntarnos:
- ¿Esta herramienta de IA fomenta realmente la autonomía genuina o cultiva sutilmente la dependencia?
- ¿Fomenta la reflexión profunda o ofrece un atajo tentador que elude la lucha significativa esencial para el crecimiento?
- ¿Profundiza realmente nuestras relaciones humanas o las sustituye por versiones simuladas?
- Y lo más importante: en nuestra búsqueda incesante de la eficiencia, ¿qué capacidades humanas esenciales estamos permitiendo inadvertidamente que la IA atrofie o redefina?
Por eso seguimos adoptando una postura cautelosa con respecto a la IA y la utilizamos de manera que contribuya a que haya más terapeutas humanos en el mundo. Ciertamente no es una solución rápida. Es una solución sistémica. Somos conscientes de la presión que supone ver cómo las soluciones rápidas pueden afectar de forma permanente a la capacidad humana para el crecimiento personal y la conexión. Como mínimo, el uso de la IA como chatbots terapéuticos nos obliga a clarificar lo que los terapeutas humanos aportan más allá del apoyo artificial y algorítmico.
Más información al respecto: La terapia es cambio, y el cambio se basa en la aceptación. La principal técnica para comunicar la aceptación es la validación. Dado que la validación es una fórmula aparentemente sencilla del tipo “Entiendo porque…”, los algoritmos de IA pueden imitarla fácilmente. En un mundo en el que las personas anhelan la aceptación y la comprensión, la validación puede considerarse un recurso atractivo que ahora es literalmente gratuito. ¿Demasiado bueno para ser verdad? Sí, sin duda. La validación se basa en un significado compartido y en experiencias similares. Para que la validación sea eficaz, debe ser genuina. La comprensión que tiene la IA del sufrimiento humano es similar a la respuesta emocional de una aspiradora al succionar un pañuelo empapado en lágrimas. Pregúntate a ti mismo: ¿Alguna vez has intentado obtener empatía de una máquina? ¿Por qué no? En la DBT, concretamente, la validación es solo el primer paso para desarrollar la capacidad de regular las emociones. También es fundamental saber cuándo utilizar la irreverencia con un cliente con graves trastornos de regulación. No hay mucho más que añadir.
Esperamos que este análisis te haya hecho reflexionar sobre la conveniencia de emplear la tecnología para capacitar a los terapeutas para que sean más humanos, en lugar de reemplazarlos.
Traducción: Fréderic Larbanois