En raison des changements majeurs provoqués par le modèle de base dans le domaine de l'intelligence artificielle, l'intérêt pour l'apprentissage fédéral intercentre augmente en raison de ses données relativement riches et de sa puissante capacité de calcul. Contrairement à l'apprentissage fédéral entre appareils, le problème de l'hétérogénéité des données dans l'apprentissage fédéral intercentre est principalement causé par les données massives entre les clients et le décalage de distribution, ce qui oblige l'algorithme à prendre en compte un équilibre entre la personnalisation et la généralisation. Cet article vise à résoudre le problème de l'apprentissage fédéral intercentre, qui se traduit par l'élargissement de la capacité de généralisation du modèle global et l'amélioration des performances du client d'entraînement local personnalisé. En étudiant l'équité de répartition des performances dans le système fédéral, la relation entre l'erreur de généralisation et les poids d'agrégation dans les recherches antérieures est examinée, et une méthode de guidage de l'équité fédérale d'entraînement équilibrée (FFT-GP) est proposée. FFT-GP combine une stratégie d'agrégation consciente visant à minimiser la variance de l'erreur de généralisation entre les clients d'entraînement et une stratégie d'apprentissage métacognitive pour maintenir la cohérence de la distribution des caractéristiques du modèle local avec ledistributi
Keywords
Generalized and personalized federated learning;Performance distribution fairness;Domain shift