Avec la mise en évidence croissante des problèmes de confidentialité, il est désormais urgent de disposer d'un moyen de communication sécurisé, utilisé pour entraîner un modèle de reconnaissance d'activité humaine sur les données d'activité de l'utilisateur. Le l'apprentissage fédéré, en tant que technologie, peut être utilisé pour entraîner le modèle entre le serveur et le client tout en préservant la confidentialité des données. Cependant, les méthodes traditionnelles d'apprentissage fédéré supposent généralement que les données de chaque client sont indépendantes et homogènes, ce qui n'est pas le cas dans la réalité. Les activités humaines dans les scénarios réels présentent des différences, ce qui entraîne un biais systématique lors de l'exécution du même comportement sur différents clients. Cela conduit à l'écart des objectifs du modèle local par rapport au modèle global, ce qui entrave la convergence globale. Ainsi, sur la base de l'apprentissage comparatif et du contrôle des variables adaptatives, nous proposons dans cet article un modèle fédéré appelé FedCoad pour traiter les biais des clients dans la reconnaissance des activités humaines. L'apprentissage comparatif réduit au minimum l'écart entre le modèle global et le modèle local, ce qui favorise la convergence du modèle global. Pendant la mise à jour du modèle local, le contrôle adaptatif des variables pénalisera la mise à jour du modèle local en fonction des modifications du poids du modèle et de la vitesse de modification de la variable de contrôle. Nos résultats expérimentaux montrent que FedCoad surpasse les performances sur l'ensemble de données de référence pour la reconnaissance des activités humaines par rapport aux algorithmes d'apprentissage fédéré de pointe existants.
Keywords
apprentissage fédéré; reconnaissance des activités humaines; apprentissage comparatif; apprentissage profond