CUANDO CHAT GPT SE CONVIERTE EN TU PSICÓLOGO
- Franco Jara
- 26 nov 2024
- 6 Min. de lectura
Para algunos, la inteligencia artificial está revolucionando la psicoterapia, pero, al mismo tiempo, pone en riesgo la salud mental de las personas y plantea nuevos desafíos éticos para los terapeutas humanos.
“Cambia, todo cambia”. Es el estribillo de una canción de Mercedes Sosa, un clásico del folclore argentino lanzado en los 80. Desde ese momento hasta ahora, muchas cosas cambiaron: cambia la forma de pensar, de entretenerse, ¿Cambia el modo de pedir ayuda?
La tecnología avanza y agiliza tareas cotidianas como pagar, ver televisión, leer libros, pero cuando se trata de problemas de salud, físicos o mentales, las personas siguen recurriendo a profesionales que tras años de estudio dedican su vida a ayudar.

Y si bien la tecnología posibilita recibir atención fuera de un consultorio, por ejemplo, desde la comodidad de una casa, aún persiste el vínculo entre el profesional y el paciente. La psicología, al igual que otras disciplinas, se adapta a la tecnología. ¿Pero hasta qué punto se puede mantener esta convivencia? ¿El contrato de confidencialidad entre psicólogo y paciente se convertirá en la política de privacidad de una empresa multinacional?
Según la Organización Mundial de la Salud, “en 2019 una de cada ocho personas en el mundo padecían un trastorno mental, cifra que aumentó un 28% tras la pandemia de coronavirus”. Para atender a tantas personas se necesitan millones de terapeutas. Aunque con el avance de la tecnología, los requisitos podrían cambiar a una conexión a Internet para acceder a un chatbot.
Psicoterapia e inteligencia artificial
Y aunque la situación parece provenir de una buena trama de ciencia ficción, lo cierto es que tecnologías como estas están apareciendo. La doctora en Psicología por la Universidad de Buenos Aires (UBA), Andrea Vázquez, explica que en la actualidad existen 2 tipos de aplicaciones en el mercado. “Por un lado están aquellas que se ofrecen como un complemento de la tarea de los profesionales de la psicología como pueden ser plataformas que facilitan la acreditación de identidad o que preservan los datos de ambas partes; y por otro lado existen algunas plataformas que surgen y que se presentan a sí mismas como psicoterapéuticas, pero en realidad son fenómenos muy preocupantes para nuestro campo profesional porque suponen no solamente un engaño en la población, sino también un deterioro de cualquier cuestión que surja de sus respuestas”, afirma Vázquez.
Sobre los chatbots que aparecen como psicoterapéuticos, el máster en Investigación en Psicología por la Universidad Internacional de La Rioja, Javier Vidal Marciel, escribió un artículo para la revista española Nous en el que ejemplifica: “JoBot y Wysa son chatbots que realizan entrevistas diagnósticas y aplican tratamientos cognitivo-conductuales para un amplio rango de problemas de salud mental, incluida la depresión y la ansiedad”.

Si bien la inteligencia artificial evoluciona rápidamente, su capacidad aún es limitada. En un artículo publicado en la Revista Escritos, el magíster en Psicoterapia Psicoanalítica Jairo Esteban Rivera Estrada y la magíster en Bioética Diana Vanessa Sánchez Salazar analizan el caso de una terapeuta virtual llamada Ellie, programada con inteligencia artificial para ofrecer terapia cognitivo conductual (TCC). Al respecto, los investigadores advierten que la inteligencia artificial está “muy lejos de ser consciente” de sí misma. “Simplemente son programas diseñados para dar respuestas predeterminadas ante ciertos datos que se les ingresan y el paciente puede darse cuenta que está tratando con una máquina en minutos”, indican.

Por su parte, Vidal Marciel agrega que actualmente la IA solo puede analizar automáticamente partes de la realidad para llegar a “conclusiones cuya síntesis es explícita y, por lo tanto, configurable”.
En el contexto actual, la inteligencia artificial tiene ciertos límites y la confiabilidad de sus respuestas no está garantizada, pero al tratarse de una tecnología en constante evolución, posiblemente puedan superarse. Los investigadores Estrada y Salazar manifiestan que en la discusión sobre la posibilidad de que la tecnología reemplace al ser humano en el campo de la psicología, se debe buscar un factor diferencial que las personas aporten a la terapia y ellos lo encuentran en “la necesidad innata del ser humano de generar vínculos de apego”.
La ausencia de relaciones interpersonales, tanto en el tratamiento psicológico como en cualquier aspecto de la vida, puede generar consecuencias en la salud de las personas. “A diferencia de una máquina, excluida por definición de la posibilidad de una relación interpersonal, un humano puede llegar a enfermar por la calidad de las relaciones con otros, fuente más común de la patología mental por lo que las relaciones interpersonales serían indispensables para una cura en la psicoterapia”, precisan Estrada y Salazar
Hombre vs. Máquina.

De este modo, la sustitución de terapeutas por máquinas se presenta como un escenario con algunos beneficios como el bajo costo y la rapidez de las respuestas, pero también implicaría riesgos éticos. En consecuencia, Vázquez sentencia: “No es posible reemplazar el vínculo terapeuta-paciente con una inteligencia artificial, ya que estas plataformas se presentan sin ningún tipo de protección para la ciudadanía en general y sin tener en cuenta el secreto profesional, que es un tema tan relevante en nuestro ejercicio de la profesión”.
Por ello, la inteligencia artificial en este momento no sería capaz de reemplazar a un terapeuta, más bien, podría aconsejar al paciente, aunque sin brindar una solución efectiva sin la intervención de profesionales.
Sin embargo, hay que considerar que “el estudio en este campo sigue avanzando a pasos agigantados; lo que no hace descabellado el preguntarse si estamos ante el principio del fin de la psicoterapia como la conocemos y si en realidad necesitamos a otro ser humano para llevar a cabo un proceso psicoterapéutico exitoso”, pronostican Estrada y Salazar.
El cambio está en proceso y, como en la mayoría de los casos, hay opositores. En junio de 2024 el noticiero Telenoche reveló que en Trenque Lauquen, la implementación de una app que ofrecía terapia con inteligencia artificial causó polémica a nivel nacional e incluso fue promocionada por personalidades del espectáculo, como Connie Ansaldi.
CUX fue implementado en 2023 por el municipio para brindar acompañamiento y asistencia emocional a los vecinos, pero recibió numerosas críticas, entre ellas las de la Federación de Psicólogos de Argentina que tildó de “peligroso” el uso de mecanismos terapéuticos basados en inteligencia artificial ya que “violan la ley de salud mental y no cuentan con las certificaciones adecuadas”.
La Ley 26.657 de salud mental plantea en su artículo 5° la necesidad de evaluaciones interdisciplinarias para definir la incapacidad de las personas con diagnósticos del campo de la salud mental. Además, en el capítulo IV, la ley garantiza el derecho a las personas de “recibir atención sanitaria y social integral y humanizada basada en fundamentos científicos ajustados a principios éticos no experimentales”.
Pero esta ley fue sancionada en 2010, cuando la cuestión de la inteligencia artificial parecía algo lejano. Entonces, la psicóloga Vázquez puntualiza sobre la falta de una normativa actualizada que contemple esta cuestión. “No hay normativas todavía que protejan ni a la ciudadanía, pero tampoco a los colegas y a la profesión. Si sucede algo grave con una persona que intercambia con un chatbot y arriba una situación de angustia profunda, o queda con alguna situación de malestar, nos preguntamos quién o quiénes van a ser responsables de eso, si la empresa que realiza el software, si es quien la paga, si es quien la pone a disposición del público, es un tema que todavía tiene muchos interrogantes y que me preocupa”, plantea.
Una mirada hacia el futuro

De todas formas, la tecnología sigue avanzando y los especialistas conciben distintas visiones sobre lo que podría pasar. Estrada y Salazar, por ejemplo, anticipan que la IA se convertirá en “una herramienta más al servicio del terapeuta”.
Entonces, se podría lograr una convivencia entre la psicoterapia y la inteligencia artificial. “Podría ayudarnos a detectar contenidos paralingüísticos, como la gesticulación del paciente o su tono de voz que podrían pasar desapercibidos a un humano, que en un proceso de evaluación psicológica serían de gran ayuda para llegar a un diagnóstico más preciso que posibilitaría un encuadre más adecuado a una futura terapia, o ayudar a un paciente en crisis sin acceso a la terapia”, aseguran los investigadores.
Por su parte, Vidal Marciel enfatiza que la IA va a generar una profunda crisis en la disciplina psicológica marcada por “angustia e incomprensión”. El investigador advierte: “Cuanto más se defienda la psicología como una disciplina cuya tarea es diagnosticar, diseñar trastornos a partir de cuadros sintomáticos y proponer tratamientos estructurados o desarrollar técnicas protocolarias, más expuesta se encontrará a que aquellos que la requieren acudan a modelos de IA en un futuro”.
Finalmente, la investigadora Andrea Vázquez plantea la imposibilidad de predecir si la inteligencia artificial reemplazará a los terapeutas en el futuro. “Creo que los psicólogos no serán reemplazados, porque no se me ocurre de qué modo podría haber tantas conexiones algorítmicas como para que la inteligencia artificial pueda reproducir lo que un terapeuta concreto le diría a una persona con una biografía particular, con condiciones de vida singulares, viviendo una situación crítica, porque escuchar a otro es un acto tan humano y hoy me resulta inverosímil que la tecnología pueda copiarlo”, sostiene.
Analizar estas perspectivas hace difícil lograr una predicción sobre qué pasará exactamente con la intrusión de la inteligencia artificial en el campo de la psicología. Quizás la disciplina se reinventará, se logrará una complementación entre máquina y terapeuta o la tecnología absorberá completamente a la psicología. Lo cierto es que actualmente solo tenemos predicciones, aunque podríamos preguntarle a Chat GPT qué opina al respecto…
Comentarios