La federación de aprendizaje, como un nuevo marco de aprendizaje automático, permite entrenar modelos profundos a través de la colaboración descentralizada de los clientes respetando las restricciones de privacidad. En el algoritmo clásico de aprendizaje federado (FedAvg), el modelo global se crea mediante una combinación lineal ponderada de modelos locales, cuyos pesos son proporcionales al volumen de datos local del cliente. Sin embargo, este método enfrenta desafíos al enfrentarse a distribuciones de datos heterogéneas y desconocidas de los clientes, lo que a menudo conduce a una desviación del objetivo global de optimización esperado. Los métodos de agregación basados en combinaciones lineales son difíciles de usar de manera efectiva en entornos de aprendizaje federado con configuraciones diversas, distribuciones de datos y cambios dinámicos, lo que causa dificultades de convergencia y disminución de la capacidad de generalización. Este artículo propone un nuevo método de agrupación, FedMcon, basado en un marco de aprendizaje meta. Se introduce un agregador aprendible, que se entrena en un pequeño conjunto de datos de referencia de agente y se utiliza para agrupar automáticamente una variedad de modelos locales para crear un modelo global más acorde con los objetivos. Los resultados experimentales muestran que este método puede manejar datos extremadamente no independientes y lograr una mejora de 19 veces en la eficiencia de comunicación en un entorno de aprendizaje federado.