IA vs Psicología: ¿Puede ChatGPT sustituir a un terapeuta?
La psicóloga Iria Fernández analiza las ventajas, límites y riesgos del uso de la inteligencia artificial como herramienta de apoyo emocional y deja clara una conclusión: la empatía no se programa.
En tiempos de avances tecnológicos vertiginosos, la inteligencia artificial se cuela cada vez más en espacios íntimos y sensibles de la vida humana. Pero ¿dónde están los límites? ¿Puede ChatGPT, una de las herramientas más populares de IA, llegar a sustituir a un psicólogo? Esta es la gran pregunta que plantea la psicóloga Iria Fernández, del Centro de Psicología Resiliencia, y sobre la que arroja una mirada profesional y crítica.
«ChatGPT es útil, claro que sí», reconoce Iria. «Puede ofrecer pautas generales, psicoeducación, acompañamiento básico y tiene una disponibilidad de 24 horas, todos los días. En contextos donde el acceso a la salud mental es limitado, puede ser una herramienta que acerque ciertos recursos a la población». Pero rápidamente matiza: «Una herramienta, no un sustituto».
El factor humano, insustituible
Uno de los argumentos clave de la experta es que la psicología no se limita a dar consejos. «La terapia es una relación humana profundamente compleja», afirma. En ella entran en juego factores como la sintonía emocional, el vínculo terapéutico, la contratransferencia, los gestos, silencios, contradicciones sutiles y el lenguaje no verbal. «Todo eso, la inteligencia artificial no lo puede captar. No tiene empatía real. No puede interpretar una mirada esquiva ni un temblor en la voz».
A eso se suma la importancia del código ético que rige la práctica profesional: el secreto profesional, la responsabilidad clínica, la evaluación del riesgo en casos graves como intentos de suicidio o depresión profunda. «ChatGPT puede darte una orientación inicial, pero no puede decidir si un caso es leve o grave. No puede ni debe asumir esa responsabilidad».
La ilusión de la compañía
Uno de los mayores peligros del uso inadecuado de la IA es la falsa sensación de compañía. «Hay personas que, por comodidad, economía o desconocimiento, empiezan a interactuar con ChatGPT como si estuviesen en terapia. Y eso es peligroso. Puede retrasar mucho el acceso a una ayuda profesional real», advierte Iria.
La psicóloga también alerta del auge de gurús en redes sociales, test virales o autodiagnósticos digitales. «Lo hemos visto con Google, y ahora con la IA. Todo el mundo cree que sabe de psicología. Pero una buena terapia requiere formación, experiencia y ética».
Una herramienta poderosa... con cabeza humana
Iria no demoniza la tecnología. De hecho, reconoce que la IA le ha sido útil para inspirarse, organizar ideas o desbloquear textos. «ChatGPT puede darte ideas estupendas. Lo importante es usarlo con inteligencia humana», señala.
Incluso valora positivamente su prudencia. «Cuando le preguntas si puede sustituir a un psicólogo, te dice que no. Y eso ya es más de lo que muchos humanos contestarían sin pensarlo». Pero eso no quita su preocupación por los riesgos, sobre todo si cae en manos equivocadas. «La IA la crean personas. Si quienes la desarrollan no tienen criterios éticos, sí que podemos tener un problema serio».
Una conclusión clara: la psicología es humanidad
La entrevista finaliza con una reflexión que resume la esencia del debate. «La psicología no es solo técnica, es relación, es humanidad y es empatía», subraya Iria. En un mundo hiperconectado, insiste en que seguimos necesitando vínculos reales, cara a cara, con alguien que escuche, entienda y nos diga también lo que no queremos oír.
Porque, como ella misma advierte: «Lo barato sale caro. Y cuando hablamos de salud mental, ese precio puede ser muy alto».