La inteligencia artificial no sirve para invertir: presenta “fallos, errores y alucinaciones”, advierte la CNMV

El supervisor señala que el uso de la IA por inversores minoristas, sin mecanismos de revisión por parte de expertos, puede traducirse en “pérdidas económicas” y decisiones erróneas

Guardar
Una persona señala con un bolígrafo en su pantalla de ordenador el comportamiento de un valor del índice Ibex-35 de la Bolsa española. EFE/Chema Moya
Una persona señala con un bolígrafo en su pantalla de ordenador el comportamiento de un valor del índice Ibex-35 de la Bolsa española. EFE/Chema Moya

Seguir los consejos de la Inteligencia Artificial (IA) para invertir puede salir muy caro a los que la utilicen para sacar el máximo rendimiento a su dinero. Así se desprende de un informe elaborado por la Comisión Nacional del Mercado de Valores (CNMV) que analiza la fiabilidad de la IA en el actual contexto financiero y alerta sobre los riesgos de invertir en bolsa guiándose únicamente por predicciones de la inteligencia artificial.

El estudio titulado Large Language Models and Stock Investing: Is the Human Factor Required? y elaborado por Ricardo Crisóstomo y Diana Mykhalyuk, técnicos de la Dirección General de Estrategia y Asuntos Internacionales de la CNMV, expone que el uso de herramientas basadas en modelos de lenguaje de última generación puede dar lugar a errores graves y pérdidas económicas si no existe una verificación humana rigurosa.

El documento evalúa el desempeño de cuatro de los sistemas más avanzados —ChatGPT, Gemini, DeepSeek y Perplexity— en la predicción y el análisis bursátil. Los autores identifican fallos recurrentes de razonamiento, errores computacionales, interpretaciones incorrectas y uso de información desactualizada o inventada en las respuestas generadas por estos modelos, según recoge la CNMV.

Riesgo de pérdidas para los pequeños inversores

De acuerdo con el estudio, el uso de la inteligencia artificial sin la intervención de expertos conlleva riesgos operativos importantes. La CNMV advierte que la aplicación de estos sistemas por parte de inversores minoristas, sin mecanismos de supervisión, puede traducirse en “pérdidas económicas” y decisiones erróneas.

Una de las principales conclusiones del informe es que los modelos de IA presentan una mayor tasa de error al recibir instrucciones vagas o preguntas sin contexto. En estos casos, según los autores, la probabilidad de obtener respuestas incorrectas, cálculos fallidos o razonamientos inadecuados aumenta de manera significativa.

El estudio recomienda que los usuarios proporcionen instrucciones analíticas claras y que se establezcan protocolos de revisión con intervención humana para minimizar errores.

Según detalla el supervisor de mercados, “la integración de la IA en los mercados financieros supone un reto no solo tecnológico sino también organizativo”. Los expertos subrayan la necesidad de un marco colaborativo donde la potencia de procesamiento de la inteligencia artificial esté sujeta a verificación constante y validación por profesionales cualificados.

Pep Martorell, físico y doctor en informática, experto en IA y supercomputación, nos explica cómo están adaptando la inteligencia artificial las empresas españolas y los retos que esta supone para los trabajadores.

La importancia de la supervisión humana

El informe insiste en que la supervisión humana es imprescindible para evitar que los modelos generativos de IA produzcan resultados inexactos o engañosos. Además, resalta la relevancia de utilizar fuentes de información verificadas frente a los contenidos generales de internet, donde abundan las narrativas contradictorias y los datos sesgados.

En esta línea, la investigación resalta que los modelos que utilizan datos procedentes de supervisores oficiales presentan menos errores que aquellos que se nutren de información general disponible en la web. Al emplear fuentes oficiales, los sistemas de IA pueden aportar análisis más sólidos y seguros para los inversores.

“El anclaje (grounding) con datos estandarizados y altamente contrastados contribuye a reducir el ruido informativo, favorece la comparabilidad y permite obtener razonamientos financieros coherentes”, señala el documento. Esta práctica disminuye la incidencia de errores y alucinaciones, un fenómeno en el que la IA inventa información inexistente.

Un desafío para el sector financiero y los reguladores

La CNMV destaca que la irrupción de la inteligencia artificial en los mercados financieros plantea desafíos tanto para los operadores como para los reguladores. “Es fundamental establecer procesos de validación y verificación en todas las etapas del análisis y la toma de decisiones”, concluyen Crisóstomo y Mykhalyuk en el informe. La ausencia de un marco de gobernanza sólido podría amplificar los riesgos para los inversores particulares y el conjunto del sistema financiero.

El supervisor español ha subrayado la importancia de este debate en un contexto en el que las herramientas de IA ganan protagonismo en el ámbito bursátil. La CNMV recomienda a los usuarios y a las entidades financieras que adopten una estrategia basada en la combinación de tecnología avanzada y control humano para garantizar la fiabilidad de los análisis y evitar la proliferación de errores que puedan afectar a la estabilidad de los mercados.

El estudio, disponible en la web de la CNMV, se enmarca en los esfuerzos del organismo por fomentar la seguridad y la transparencia en el uso de nuevas tecnologías en el sector financiero.