Tres grandes desafíos de confiabilidad que enfrentan los sistemas financieros basados en modelos de lenguaje a gran escala: casos reales y estrategias de mitigación

Shurui XU ,  

Feng LUO ,  

Shuyan LI ,  

Mengzhen FAN ,  

Zhongtian SUN ,  

Abstract

La integración de modelos de lenguaje a gran escala (LLM) en aplicaciones financieras muestra un potencial significativo para mejorar los procesos de toma de decisiones, automatizar operaciones y proporcionar servicios personalizados. Sin embargo, las características de alto riesgo de los sistemas financieros exigen una confianza extremadamente alta, que los LLM actuales a menudo no pueden satisfacer. Este estudio identifica y analiza tres grandes desafíos de confiabilidad en sistemas financieros basados en LLM: (1) evasión de indicaciones — aprovechamiento de vulnerabilidades de alineación del modelo para generar respuestas dañinas o no conformes; (2) alucinaciones — producción de salidas factualmente erróneas que desorientan las decisiones financieras; (3) sesgos y cuestiones de equidad — los sesgos demográficos o sistémicos incrustados en los LLM pueden causar trato injusto hacia individuos o regiones. Para presentar concretamente estos riesgos, diseñamos tres pruebas relacionadas con finanzas y evaluamos los principales LLM propietarios y de código abierto. En todos los modelos, al menos una conducta riesgosa apareció en cada prueba. Basándonos en estos hallazgos, resumimos sistemáticamente las estrategias de mitigación existentes. Consideramos que abordar estos problemas es fundamental no solo para asegurar el uso responsable de la IA en finanzas, sino también clave para su implementación segura y escalable.

Keywords

IA confiable;modelos de lenguaje a gran escala;finanzas;fintech

READ MORE