Comme nouveau cadre d'apprentissage machine, l'apprentissage fédéré permet de former des modèles profonds en favorisant la collaboration décentralisée des clients tout en respectant les contraintes de confidentialité. Dans l'algorithme classique d'apprentissage fédéré (FedAvg), le modèle global est créé par une combinaison linéaire pondérée de modèles locaux, dont les poids sont proportionnels au volume de données local du client. Cependant, cette méthode est confrontée à des défis lors de la confrontation de distributions de données client hétérogènes et inconnues, ce qui entraîne souvent un écart par rapport à l'objectif global d'optimisation attendu. Les méthodes d'agrégation basées sur une combinaison linéaire sont difficiles à utiliser de manière efficace dans des environnements d'apprentissage fédéré aux paramètres divers, aux distributions de données et aux changements dynamiques, ce qui entraîne des difficultés de convergence et une diminution de la capacité de généralisation. Cet article propose une nouvelle méthode d'agrégation FedMcon, basée sur un cadre d'apprentissage méta. Un agrégateur apprenant est introduit, formé sur un petit ensemble de données d'agents de référence, et utilisé pour agréger automatiquement une variété de modèles locaux pour créer un modèle global plus conforme aux objectifs. Les résultats des expériences montrent que cette méthode permet de traiter efficacement des données extrêmement non indépendantes et de réaliser une amélioration de 19 fois de l'efficacité de la communication dans un seul environnement d'apprentissage fédéré.