La IA ya puede explicar cómo se construyen las emociones humanas
Los investigadores están explorando si la formación de emociones puede modelarse computacionalmente a través de esquemas de Inteligencia Artificial (IA), proporcionando a las máquinas una comprensión más profunda y similar a la humana de los estados emocionales.
[–>[–>[–>La inteligencia artificial avanza un paso más allá del reconocimiento facial o de voz. Investigadores del Instituto de Ciencia y Tecnología de Nara y la Universidad de Osaka, en Japón, han desarrollado un modelo de IA que puede explicar cómo el cerebro humano construye las emociones, combinando datos fisiológicos, estímulos visuales y palabras, sin necesidad de categorías emocionales predefinidas.
[–> [–>[–>El estudio, publicado en la revista IEEE Transactions on Affective Computing, propone que la inteligencia artificial no solo reconozca señales emocionales, sino que ayude a explicar cómo se forman los conceptos de emoción en la mente humana, procesos extremadamente complejos que la neurociencia aún no ha logrado comprender en su totalidad.
[–>[–>[–>
Datos integrados: cómo la IA reconoce las emociones
[–>[–>[–>
La base teórica de la investigación es la llamada teoría de la emoción construida, que sostiene que las emociones no son respuestas automáticas primitivas, sino conceptos que el cerebro arma en cada situación, combinando información interna (como por ejemplo la frecuencia cardíaca) con la percepción externa y el significado lingüístico.
[–>[–>[–>A partir de esa premisa, los autores diseñaron una extensión multimodal de un modelo probabilístico, para descubrir categorías emocionales a partir de datos sin etiquetar. Según una nota de prensa, para entrenar y evaluar el sistema los investigadores registraron reacciones de 29 participantes, mientras veían 60 imágenes catalogadas por su capacidad de evocar emociones.
[–>[–>[–>
Al mismo tiempo, recogieron señales fisiológicas como el ritmo cardíaco, capturas visuales y descripciones verbales de la experiencia emocional, dejando que el modelo encontrara patrones sin recibir etiquetas previas sobre “miedo”, “alegría” o “tristeza”, entre otras emociones.
[–>[–>
[–>La IA y las emociones humanas: aplicaciones prácticas en salud mental
[–>[–>[–>
El resultado es sorprendente: los conceptos de emoción que el modelo de IA aprendió coincidieron con las evaluaciones subjetivas de las personas en aproximadamente un 75 %, una cifra que sugiere que el sistema puede captar regularidades emocionales relevantes para la experiencia humana, aunque lógicamente no logre precisar con exactitud las experiencias individuales.
[–>[–>[–>
Referencia
Estudio de la formación de conceptos emocionales mediante la integración de la visión, la fisiología y la información de las palabras mediante la asignación de Dirichlet latente multimodal multicapa. Kazuki Tsurumaki et al. Transacciones IEEE sobre informática afectiva (2026). DOI: https://doi.org/10.1109/TAFFC.2025.3585882
[–>[–>[–>
Los autores interpretan a partir de estos resultados que la formación de categorías emocionales puede ser explicada, al menos parcialmente, por procesos computacionales de integración multimodal. Las aplicaciones son numerosas: el modelo podría mejorar sistemas de apoyo en salud mental, monitorear pacientes con demencia o poner en marcha asistentes robóticos que respondan con mayor empatía al contexto humano.
[–>[–>[–>Además, como el sistema puede deducir estados que la persona no logra verbalizar, abre posibilidades en diagnósticos tempranos y cuidado personalizado. Sin embargo, los investigadores aclaran que esto no equivale a “sentir”: la IA modela patrones estadísticos, no posee experiencia subjetiva.
[–>[–>[–>
Puedes consultar la fuente de este artículo aquí