Aufgrund der erheblichen Veränderungen, die das Grundmodell im Bereich der künstlichen Intelligenz bewirkt, steigt das Interesse an der föderalen lernenden Zwischenzentren aufgrund seiner relativ reichen Daten und seiner leistungsfähigen Rechenleistung. Im Gegensatz zum föderalen Lernen zwischen Geräten wird das Problem der Datenheterogenität im föderalen lernen zwischen Zentren hauptsächlich durch massenhafte Daten zwischen den Kunden und die Verschiebung der Verteilung verursacht, was den Algorithmus dazu zwingt, ein Gleichgewicht zwischen Personalisierung und Verallgemeinerung zu berücksichtigen. Dieser Artikel zielt darauf ab, das Problem des föderalen Lernens zwischen Zentren zu lösen, das sich in der Erweiterung der Generalisierungsfähigkeit des globalen Modells und der Verbesserung der Leistung des lokalen Trainingskunden manifestiert. Durch die Untersuchung der Fairness der Leistungsverteilung im föderalen System wird die Beziehung zwischen Generalisierungsfehler und Aggregationsgewichten in früheren Forschungen untersucht und eine Methode zur Ausrichtung des gerechten ausgewogenen föderalen Trainings (FFT-GP) vorgeschlagen. FFT-GP kombiniert eine bewusste Aggregationsstrategie, um die Varianz des Generalisierungsfehlers zwischen den Trainingskunden zu minimieren, und eine Metalernte-Strategie, um die Konsistenz der lokalen Trainingsmerkmalverteilung mit dem globalen Modell aufrechtzuerhalten, um so ein Gleichgewicht zwischen Generalisierung und Personalisierung zu erreichen. Umfangreiche Experimente zeigen, dass FFT-GP im Vergleich zu bestehenden Modellen ausgezeichnete Effekte hat und deren Potenzial zur Verbesserung des föderalen Lerntrainings in einer Vielzahl von praktischen Szenarien aufzeigt.
Keywords
Generalized and personalized federated learning;Performance distribution fairness;Domain shift