L’intégration des grands modèles de langage (LLM) dans les applications financières montre un potentiel considérable, pouvant améliorer les processus décisionnels, automatiser les opérations et offrir des services personnalisés. Cependant, les caractéristiques à haut risque des systèmes financiers exigent une fiabilité extrêmement élevée, ce que les LLM actuels peinent souvent à atteindre. Cette étude identifie et explore trois principaux défis de fiabilité dans les systèmes financiers basés sur les LLM : (1) l’évasion des consignes — exploitation des failles d’alignement du modèle pour générer des réponses nuisibles ou non conformes ; (2) les hallucinations — production par le modèle de sorties factuellement erronées induisant en erreur les décisions financières ; (3) les biais et enjeux d’équité — les biais démographiques ou systémiques inhérents aux LLM pouvant entraîner un traitement injuste des individus ou des régions. Pour illustrer concrètement ces risques, nous avons conçu trois tests liés à la finance et évalué les principaux LLM propriétaires et open source. Dans tous les modèles, au moins un comportement à risque est apparu lors de chaque test. Sur cette base, nous avons systématiquement résumé les stratégies d’atténuation existantes. Nous estimons que résoudre ces enjeux est non seulement crucial pour garantir l’utilisation responsable de l’IA dans la finance, mais aussi la clé pour un déploiement sûr et évolutif.
Keywords
IA fiable;grands modèles de langage;finance;fintech