تحسين نشر نماذج اللغة الكبيرة (LLMs) في بيئة الحوسبة الحافة أمر أساسي لتعزيز الخصوصية وكفاءة الحساب. لتحقيق استدعاء فعال لنماذج LLM لاسلكي، يحلل هذا البحث تأثير نقاط الانقسام المختلفة في نماذج LLM مفتوحة المصدر. يقدم هذا البحث إطارًا لتعزيز الذكاء على أساس النموذج (MBRL) لتحديد أفضل نقطة انقسام بين الحافة وجهاز المستخدم (UE). من خلال إدخال نموذج الجائزة بدلاً من ذلك، يقلل هذا الأسلوب بشكل ملحوظ من تكلفة تقييم الأداء المتكررة. توضح نتائج المحاكاة الواسعة النطاق أن هذا الأسلوب يوازن بشكل فعال أداء الاستدلال وتحميل الحساب تحت شروط الشبكة المختلفة، ويوفر حلاً قوياً لنشر LLM في بيئة غير مركزية.
Keywords
نموذج اللغة الكبيرة؛ الحوسبة الحافة؛ الذكاء على أساس النموذج؛ الاستدلال التقسيمي؛ نموذج المحول