Aufgrund der bedeutenden Veränderungen, die das Basismodell im Bereich der künstlichen Intelligenz verursacht hat, gewinnt das interzentrierte föderale Lernen aufgrund seiner relativ reichhaltigen Daten und seiner leistungsstarken Rechenfähigkeiten immer mehr an Aufmerksamkeit. Im Gegensatz zum föderalen Lernen zwischen Geräten wird das Problem der Datenheterogenität im interzentrierten föderalen Lernen hauptsächlich durch die umfangreichen Daten zwischen den Clients und die Verschiebung der Verteilung verursacht, was erfordert, dass Algorithmen die Balance zwischen Personalisierung und Verallgemeinerung berücksichtigen. Dieser Artikel zielt darauf ab, die Herausforderung des föderalen Lernens durch die Verbesserung der Generalisierungsfähigkeit des globalen Modells in verschiedenen Bereichen und die Verbesserung der Leistung des lokalen Trainings des Kunden auszugleichen. Durch die Untersuchung der Fairness der Leistungsverteilung im föderalen System untersucht die weitere Forschung die Beziehung zwischen dem in früheren Studien festgelegten Generalisierungsfehler und den Aggregationsgewichten und schlägt eine Methode für das föderale Lernen vor, die die Fairness der Generalisierung und Personalisierung berücksichtigt (FFT-GP). FFT-GP kombiniert eine Strategie zur Wahrnehmung der Fairness in der Aggregation zur Minimierung der Varianz des Generalisierungsfehlers zwischen lokalen Trainingsclients und eine Meta-Learning-Strategie, um die Übereinstimmung zwischen lokalem Training und globaler Modellmerkmalsverteilung zu gewährleisten und so die Generalisierung und Personalisierung auszugleichen. Zahlreiche experimentelle Ergebnisse zeigen, dass FFT-GP im Vergleich zu vorhandenen Modellen eine herausragende Leistung aufweist und damit sein Potenzial zur Verbesserung des Leistung des föderalen Trainings in verschiedenen praktischen Szenarien zeigt.
Keywords
Föderiertes Training und Generalisierung; Fairness in der Leistungsverteilung; Domänenverschiebung