تُظهر نماذج اللغة الكبيرة (LLM) إمكانيات واضحة عند دمجها في التطبيقات المالية، حيث يمكنها تحسين عمليات اتخاذ القرار، تحقيق التشغيل الآلي، وتقديم خدمات مخصصة. ومع ذلك، فإن الخصائص عالية المخاطر للأنظمة المالية تتطلب موثوقية فائقة، وهو ما يصعب تحقيقه حاليًا مع النماذج. تحدد هذه الدراسة ثلاثة تحديات أساسية للموثوقية في الأنظمة المالية المعتمدة على LLM: (1) الهروب من التوجيه – استغلال ثغرات الضبط لإنتاج استجابات ضارة أو مخالفة; (2) الهلاوس – إنتاج مخرجات خاطئة تحرف قرارات مالية; (3) الانحياز والقضايا المتعلقة بالعدالة – الانحيازات السكانية أو النظامية المدمجة في LLM التي قد تسبب معاملة غير عادلة للأفراد أو المناطق. لتوضيح هذه المخاطر بشكل ملموس، قمنا بتصميم ثلاثة اختبارات مالية وقيمنا النماذج الرائدة من العائلات المملوكة والمفتوحة المصدر، حيث ظهر سلوك محفوف بالمخاطر مرة واحدة على الأقل في كل اختبار. بناءً على هذه النتائج، قمنا بتلخيص استراتيجيات التخفيف المعمول بها بشكل منهجي. نؤمن أن معالجة هذه القضايا ليست ضرورية فقط لضمان الاستخدام المسؤول للذكاء الاصطناعي في المالية، بل هي أيضًا مفتاح للنشر الآمن والقابل للتوسع.
Keywords
الذكاء الاصطناعي الموثوق;نماذج اللغة الكبيرة;المالية;التكنولوجيا المالية