بفضل قدراته الممتازة في معالجة وتوليد اللغة الطبيعية، تم تطبيق نماذج اللغات الكبيرة (LLM) على نطاق واسع في مجالات متعددة. ومع ذلك، فإن LLM أحيانًا ينتج محتوى يتعارض مع الحقائق، وهو ما يُعرف بالهلوسة، مما يشكل تحديًا كبيرًا لاستخدامه في السيناريوهات الواقعية. لتعزيز موثوقية LLM، من الضروري الكشف عن ظاهرة الهلوسة أثناء عملية توليد النموذج. تشمل الطرق الشائعة للكشف عن الهلوسة الحصول على المعرفة الخارجية أو فحص الحالة الداخلية للنموذج، لكن هذا يتطلب وصولاً داخليًا للنموذج أو الاعتماد على مصادر خبرية موثوقة، مما يشكل عائقًا للمستخدم النهائي. لحل هذه التحديات، نقترح طريقة كشف بلا موارد وصندوق أسود تعتمد على التحقق من التناسق من متعدد المناظر لتحديد هلوسة LLM. تقوم هذه الطريقة بدمج درجات التناسق من وجهات نظر متعددة للاستعلام والاستجابة، مما يخفف من مشكلة الثقة المفرطة في LLM. بالمقارنة مع الطرق التي تعتمد على منظور واحد فقط، أظهرت طريقتنا أداءً أفضل في الكشف عن الهلوسة عبر مجموعات بيانات مختلفة ونماذج LLM متعددة. ومن الجدير بالذكر أنه في سيناريو تجريبي بلغت فيه نسبة هلوسة LLM 94.7%، حسّنت طريقتنا الدقة المتوسطة (B-ACC) بنسبة 2.3 نقطة مئوية وحققت مساحة تحت المنحنى (AUC) بمقدار 0.832، دون الحاجة إلى الاعتماد على أي موارد خارجية طوال العملية.
Keywords
نماذج اللغات الكبيرة (LLM); كشف هلوسة LLM; التحقق من التناسق; أمان LLM