La inteligencia artificial va a transformar la psicología, pero hay dilemas éticos
Los expertos exploran cómo herramientas como los chatbots y los dispositivos portátiles mejoran la terapia y la capacitación, al tiempo que plantean preguntas sobre la privacidad y la confianza.
“La revolución de la IA ya está aquí. Colaboremos para guiarla hacia el bien”, dicen psicólogos de la Asociación Estadounidense de Psicología. La inteligencia artificial (IA), considerada por muchos el motor de la cuarta revolución industrial, está revolucionando sectores, entre ellos la psicología.
Los modelos generativos y las tecnologías portátiles prometen transformar la atención de la salud mental, pero también plantean desafíos éticos. Conceptos como “modelos de lenguaje generativo” o “etiqueta de las máquinas sociales” resaltan la necesidad de comprender y controlar estas herramientas. El papel de los psicólogos es esencial para integrar la IA de forma ética, protegiendo a los pacientes y garantizando que la tecnología complemente, no reemplace, el juicio humano.
IA en la práctica clínica
«Ahora es el momento de empezar a integrar la IA», afirma David Luxton, psicólogo clínico y profesor afiliado de la Universidad de Washington. Luxton lidera la investigación sobre chatbots que pueden evaluar cuestiones como la depresión o el riesgo de suicidio de una manera más empática y menos repetitiva que los cuestionarios estándar como el PHQ-9. Estos chatbots podrían mejorar la precisión de las evaluaciones al ofrecer una interacción más humana, pero la aceptación de estas herramientas dependerá de cómo las perciban tanto los médicos como los pacientes.
Sin embargo, la introducción de la IA no está exenta de riesgos. Margaret Morris, psicóloga clínica y académica de la Universidad de Washington, señala que los pacientes pueden sentirse inseguros si sus datos no están completamente protegidos. “Si como paciente no sientes que tus conversaciones con un terapeuta son realmente tuyas, todo el proceso cambia”, advierte.
Morris anima a los médicos a hacer preguntas críticas antes de adoptar tecnologías basadas en IA: ¿Los datos de los pacientes se almacenan en la nube? ¿Quién tiene acceso a ellos? ¿El paciente podrá retirar su información en el futuro? Estas cuestiones son particularmente relevantes en estados donde los datos confidenciales podrían tener consecuencias legales, como los relacionados con el aborto.
Las opciones prometedoras incluyen el uso de software de transcripción local basado en modelos de código abierto, como Llama de Meta, que permite mantener los datos seguros en computadoras locales en lugar de depender de servidores externos. Según Morris, este enfoque refleja una adopción responsable de la IA al priorizar la privacidad del paciente y la relación terapéutica.
Innovaciones en la práctica
La IA también está ampliando las herramientas de los terapeutas, desde la transcripción automatizada de notas hasta el análisis de datos desde dispositivos portátiles. Un estudio dirigido por Zachary Englhardt de la Universidad de Washington encontró que los terapeutas podrían utilizar datos como la actividad física o el uso del teléfono para analizar patrones emocionales en los pacientes. «Lo que me encanta de esto es que pone la IA al servicio de la relación humana, la alianza terapéutica que sabemos que es crucial para la terapia», explica Morris.
Además, modelos como mpatic y Lyssn analizan las transcripciones de las sesiones para ayudar en la supervisión y formación de nuevos terapeutas. Estos sistemas pueden identificar desviaciones de los protocolos establecidos y proporcionar comentarios en tiempo real, incluidas sugerencias para reformular las respuestas. Aunque actualmente estas herramientas se limitan a protocolos como la terapia cognitivo-conductual, los expertos esperan que en el futuro también puedan apoyar enfoques psicodinámicos y basados en insights.
Las simulaciones avanzadas también podrían cambiar la formación de los terapeutas. Tara Behrend, profesora de la Universidad Estatal de Michigan, imagina un futuro en el que los estudiantes interactúen con pacientes simulados que respondan con expresiones faciales y lenguaje corporal realistas. Según Behrend, este tipo de práctica podría ser una herramienta invaluable para que los alumnos experimenten escenarios difíciles sin riesgos.
Implicaciones éticas y sociales
La IA no sólo transforma la clínica, sino también la investigación psicológica. Ericka Rovira, profesora de psicología en la Academia Militar de West Point, advierte sobre los riesgos de confiar ciegamente en herramientas generativas como ChatGPT. «Es importante que la gente siga participando en la toma de decisiones», afirma. Su investigación muestra que las personas con mejor memoria de trabajo y control de la atención tienden a detectar más fácilmente errores de IA, como referencias falsas o datos inventados.
Otro desafío es el uso de la IA para escribir manuscritos científicos. Si bien estas herramientas pueden acelerar el proceso y hacerlo más accesible para los investigadores que no hablan inglés, también podrían sobrecargar el sistema de revisión por pares. “Esta explosión de manuscritos podría romper el sistema tal y como lo conocemos”, advierte Rovira.
A pesar de estos riesgos, Adrian Aguilera, psicólogo y profesor de las universidades de California en Berkeley y San Francisco, ve la IA como una oportunidad para abordar las desigualdades en salud. “Con mucho menos esfuerzo, los modelos lingüísticos pueden ayudarnos a adaptar las intervenciones a poblaciones específicas”, afirma, señalando ejemplos como la traducción culturalmente sensible de protocolos para hispanohablantes latinoamericanos.
La clave para el uso ético de la IA, dicen los expertos, será establecer principios claros, como recopilar sólo los datos necesarios y garantizar la transparencia en su uso. “El cambio genera ansiedad y ser crítico es sumamente importante”, concluye Aguilera. “Pero la revolución de la IA está en marcha. Participemos y orientemos su desarrollo hacia el bien”.
REFERENCIA
Las 10 principales tendencias a seguir en 2025
Puedes consultar la fuente de este artículo aquí