la CNMV alerta de «fallos, errores y alucinaciones» en sus consejos
El dinero estancado puede ser uno de los mayores quebraderos de cabeza para miles de ahorradores que, en un contexto de inflación, ven cómo su capital cada vez tiene menos valor. Ahí es cuando surge la idea de empezar a invertir y todo puede empezar. … con una pregunta a la inteligencia artificial.
Con solo preguntarle a ChatGPT, el asistente reconoce hasta 12 preguntas frecuentes que hacen quienes quieren empezar a invertir. Desde “dónde debo invertir” hasta “qué riesgo estoy asumiendo”, pasando por “cuándo debo empezar”.
El desconocimiento de los productos, la necesidad de aprovechar el dinero al máximo y tener alguna respuesta disponible sin mayor investigación puede ser un problema. De ello lo ha advertido esta semana la Comisión Nacional del Mercado de Valores (CNMV), que ha analizado la capacidad de razonamiento de modelos como ChatGPT, Gemini, DeepSeek y Perplexity a la hora de tomar decisiones de inversión.
La IA confunde términos básicos
La CNMV advierte de que el «uso de la IA sin intervención humana conlleva importantes riesgos operativos» y destaca fallos de razonamiento o resultados directamente inventados, a los que se refiere como «alucinaciones».
La IA puede confundir entidades y utilizar datos de empresas equivocadas, fabricar datos, mezclar tablas o cometer errores de agregación y transferencia, entre otros.
Una de las mayores trampas es la fluidez ya que, según el estudio difundido por la CNMC, «genera una falsa impresión de precisión que puede llevar a los usuarios a confiar indebidamente en las recomendaciones de la IA sin comprender sus riesgos». De hecho, advierte de que los modelos llegan a interpretar conceptos fundamentales como un ratio de valoración bajo como algo negativo en lugar de como un signo de infravaloración. También ocurre al revés, cuando se considera buena una inversión que en realidad es mala y eso aumenta el riesgo de pérdida de capital.
La mayor incidencia de fallas se da en consultas simples, por lo que el organismo señala que la supervisión es muy importante. El riesgo aumenta con preguntas como «¿qué acciones debo comprar?» porque el modelo predictivo es débil y no difiere de lo que obtendría un inversor aleatorio.
El peligro más crítico surge porque la IA está diseñada para complacer. De esta manera, sus respuestas son “persuasivas”, lo que lleva a los inversores a confiar indebidamente en sus consejos.
¿Y si se trata de una IA bien entrenada?
Si bien reconoce avances en este sentido, lo mejor es actuar bajo una guía estructurada y supervisada. De esta forma se han encontrado rentabilidades con rendimientos excesivos superiores al 3% mensual.
Pero este resultado se da sólo cuando el modelo detalla todos sus pasos y es supervisado por una persona. Aun así, y aunque cada vez están mejor formados, los fallos de razonamiento son recurrentes, según la CNMV. La organización señala que estas nuevas tecnologías deben estar «ancladas» y siempre basadas en documentos oficiales.
Puedes consultar la fuente de este artículo aquí