ABUSO DE CHATGPT | El abuso de ChatGPT pasa factura al cerebro: lastra la memoria y la capacidad de razonamiento
La irrupción de herramientas de inteligencia artificial como ChatGPT está cambiando el mundo. Según las estadísticas proporcionadas por la empresa OpenAI, su propietaria, actualmente ya hay más de 900 millones de personas que utilizan este asistente casi a diario para buscar información, redactar textos, resolver tareas complejas y hasta consultar sus problemas personales. Pero, según empiezan a advertir algunos estudios científicos, so uso excesivo de estas podría estar «atrofiando» nuestro cerebro y, a la larga, podría producir problemas cognitivos como, por ejemplo, perjudicar nuestra capacidad de razonamiento, deteriorar los circuitos cerebrales que nos ayudan a resolver problemas y hasta mermar el funcionamiento de nuestra memoria. «Delegar todo nuestro pensamiento a una máquina puede parecer una buena idea al principio pero, a la larga, es una desventaja para nuestro cerebro», afirma el neurocientífico Rodrigo Quian Quiroga, profesor ICREA en el Hospital del Mar Research Institute.
[–>[–>[–>«El uso de gadgets digitales modifica la forma en la que funciona nuestro cerebro. El quid de la cuestión está en entender qué se puede delegar y qué no»
[–>[–>[–>
Cada vez son más las instituciones científicas que se están centrando en estudiar el impacto de la IA generativa en nuestros cerebros. Uno de los trabajos más convincentes realizados hasta la fecha, liderado por el Massachusetts Institute of Technology (MIT), uno de los centros de investigación más prestigiosos del mundo, indica que su uso está afectando de forma directa al rendimiento cognitivo de los usuarios.
[–> [–>[–>Un experimento del MIT muestra que las personas que completan tareas utilizando ChatGPT muestran una menor activación de ciertas áreas del cerebro, una reducción en la conectividad neuronal y una menor capacidad de recordar contenido
[–>[–>[–>
En un experimento realizado con medio centenar de voluntarios, los investigadores pidieron a los participantes realizar una actividad con o sin ayuda de ChatGPT mientras se les realizaba un electroencefalograma. El análisis de su actividad cerebral demostró que quienes llevaban a cabo el trabajo utilizando herramientas de IA mostraban una menor activación de ciertas áreas del cerebro, una reducción en la conectividad neuronal y una menor capacidad de recordar el contenido sobre el que habían trabajado.
[–>[–>[–>
Deuda cognitiva
[–>[–>[–>
La investigación también desveló que, al final del experimento, cuando se pedía a las personas que habían utilizado de forma recurrente ChatGPT que llevaran a cabo un trabajo utilizando solo lo que había en su cerebro, estos no eran capaces de igualar los resultados de quienes desde el principio habían realizado todas las tareas sin ningún tipo de ayuda de la IA. Los expertos definen este fenómeno como «deuda cognitiva». Esto es el coste cerebral acumulado que aparece cuando se delega en exceso tareas como el pensamiento crítico, la memoria y la resolución de problemas a los chatbots —»rendición cognitiva«— y, en consecuencia, el cerebro pierde fuelle. Todo esto, según afirman varias investigaciones, está contribuyendo a debilitar conexiones neuronales y a reducir la autonomía intelectual de aquellas personas que utilizan de forma recurrente y acrítica este tipo de herramientas.
[–>[–>[–>Los expertos afirman que el uso excesivo de estas herramientas produce una «deuda cognitiva» en la que se debilitan conexiones neuronales y se reduce la autonomía intelectual
[–>[–>[–>
La voz de alarma sobre el potencial peligro de estas herramientas no viene solo de las instituciones académicas. Incluso Microsoft advirtió en un estudio publicado el año pasado junto a la Carnegie Mellon University que, «si se utilizan de forma inadecuada», productos como ChatGPT, Gemini (Google), Claude (Anthropic) o Grok (xAI, de Elon Musk) pueden provocar «el deterioro de las facultades cognitivas que deberían preservarse».
[–>[–>[–>
En esta misma línea, otro análisis reciente de la Universidad de Copenhague denuncia que la industria tecnológica está pasando por alto las amenazas que suponen estas herramientas para la salud mental y la pérdida de habilidades cognitivas para centrarse, en cambio, en posibles peligros futuros y, en algunos casos, distópicos.
[–>[–>
[–>Saber qué delegar
[–>[–>[–>
Según explica Quiroga, profesor ICREA, el problema no está en las herramientas en sí sino en su uso y, sobre todo, en el tipo de tareas que se delegan. «El uso de ‘gadgets’ digitales modifica la forma en la que funciona nuestro cerebro en tanto que nos permite delegar tareas cognitivas. Así que el ‘quid’ de la cuestión está en entender qué se puede delegar y qué no«, afirma el especialista en una entrevista con EL PERIÓDICO.
[–>[–>[–>
«Una cosa es confiar en ChatGPT para tareas mecánicas y otra muy distinta es dejar que lleve a cabo tareas que requieren pensamiento crítico o que tome una decisión importante sin ningún tipo de supervisión», añade el especialista quien, además, recuerda que «ChatGPT no puede tener ideas originales ni pensamiento crítico porque eso es algo aún exclusivo de la mente humana«.
[–>[–>[–>«Una cosa es confiar en ChatGPT para tareas mecánicas y otra muy distinta es dejar que lleve a cabo tareas que requieren pensamiento crítico»
[–>[–>[–>
Para algunos, el debate sobre el impacto de estas herramientas en el cerebro se asemeja a lo que ocurrió en los años setenta cuando, tras el ‘boom’ de los primeros ordenadores, la gente también se empezó a preguntar si las nuevas generaciones perderían la capacidad de pensar como siempre al delegar parte del trabajo en las máquinas.
[–>[–>[–>
«Habrá que prestar atención a cómo se modificará progresivamente buena parte del conexionado de nuestras neuronas, bien por falta de uso o bien por acabar implicándose en los nuevos requerimientos cognitivos»
[–>[–>[–>
En este sentido, según explica Ignacio Morgado Bernal, catedrático emérito de Psicobiología en la UAB y miembro numerario de la Academia de Psicología de España, es lógico pensar que la irrupción de herramientas como ChatGPT cambiará la forma en la que funciona el cerebro humano «tal y como ha ocurrido ante otras revoluciones tecnológicas«. Pero en este caso, explica, habrá que prestar atención a «cómo se modificará progresivamente buena parte del conexionado de nuestras neuronas, bien por falta de uso o bien por acabar implicándose en los nuevos requerimientos cognitivos que imponga el uso frecuente (e incluso adictivo) de los nuevos ingenios».
[–>[–>[–>
Llamada a la cautela
[–>[–>[–>
La incertidumbre sobre la magnitud de este fenómeno ha llevado ya a muchos especialistas a lanzar una llamada de cautela. Sobre todo de cara al posible uso descontrolado de estas herramientas por parte de los más jóvenes. Un estudio de la Universidad de Shanghái, de hecho, sugiere que el uso de estas herramientas en los colegios debe utilizarse con especial cuidado ya que un uso excesivo podría perjudicar el desarrollo cognitivo y la formación de pensamiento crítico de los estudiantes.
[–>[–>[–>
En los Países Bajos, más de 900 profesores han pedido «detener la adopción acrítica de la IA en la Academia», una protesta que se replica en otros lares. En España, son muchos los docentes que están cambiando su forma de evaluar el aprendizaje de los estudiantes para evitar que ChatGPT sustituya por completo el proceso de aprendizaje.
[–>[–>[–>
La dependencia excesiva de ChatGPT podría estar promoviendo situaciones de «pensamiento pasivo» o «inerte» en las que los usuarios confían tanto en las respuestas que acaban disminuyendo su actividad cognitiva autónoma
[–>[–>[–>
El ‘boom’ de ChatGPT en todos los sectores también ha levantado la voz de alarma entre los especialistas. Un trabajo de la Universidad de Pekín afirma que la dependencia excesiva de ChatGPT podría estar promoviendo situaciones de «pensamiento pasivo» o «inerte» en las que los usuarios confían tanto en las respuestas generadas por estas herramientas que acaban disminuyendo su actividad cognitiva autónoma y, sobre todo, dejan de analizar, cuestionar o resolver problemas por sí mismos al confiar ciegamente en el criterio de una máquina. Aunque, como recuerdan los expertos, estas máquinas no son oráculos que pontifican la verdad, sino sistemas estadísticos programados para arrojar respuestas más o menos plausibles que casen con la visión del mundo de cada usuario.
[–>[–>[–>
Suscríbete para seguir leyendo
Puedes consultar la fuente de este artículo aquí