Método de adaptación del fraccionamiento inalámbrico de grandes modelos de lenguaje en el borde del cálculo basado en el aprendizaje con refuerzo basado en el modelo
La optimización de la implementación de grandes modelos de lenguaje (LLM) en un entorno de computación en el borde es fundamental para mejorar la protección de la privacidad y la eficiencia del cálculo. Para lograr un razonamiento LLM inalámbrico eficiente, este estudio analiza de manera exhaustiva el impacto de diferentes puntos de división en los principales LLM de código abierto. Este documento presenta un marco de aprendizaje con refuerzo basado en modelos (MBRL) para determinar el mejor punto de división entre el borde y el dispositivo de usuario (UE). Al introducir un modelo de recompensa, este método reduce significativamente el costo computacional de las evaluaciones de rendimiento frecuentes. Los amplios resultados de simulación muestran que este método equilibra eficazmente el rendimiento del razonamiento y la carga computacional en diferentes condiciones de red, proporcionando una solución sólida para la implementación de LLM en un entorno descentralizado.
Keywords
grandes modelos de lenguaje; cálculo en el borde; aprendizaje con refuerzo basado en el modelo; razonamiento fraccionado; modelo Transformer