Angesichts der zunehmenden Probleme im Bereich der Privatsphäre besteht derzeit ein dringender Bedarf an einer sicheren Kommunikationsmethode, die zur Schulung eines Modells für die Erkennung menschlicher Aktivitäten auf den Daten der Benutzeraktivität verwendet wird. Als Technologie kann das föderierte Lernen dazu verwendet werden, das Modell zwischen Server und Client zu trainieren und gleichzeitig die Datenprivatsphäre zu schützen. Traditionelle Methoden des föderierten Lernens gehen jedoch in der Regel davon aus, dass die Daten jedes Clients unabhängig und gleichmäßig verteilt sind, was in der Realität nicht zutrifft. Menschliche Aktivitäten in realen Szenarien weisen Unterschiede auf, die zu systematischen Verzerrungen führen, wenn dasselbe Verhalten auf verschiedenen Clients ausgeführt wird. Dies führt dazu, dass sich die Ziele des lokalen Modells vom globalen Modell entfernen und die Gesamtkonvergenz beeinträchtigen. Basierend auf dem Vergleichslernen und der adaptiven Variablensteuerung schlagen wir in diesem Artikel ein föderiertes Modell namens FedCoad vor, um die Clientverzerrungen bei der Erkennung menschlicher Aktivitäten zu behandeln. Das Vergleichslernen minimiert die Lücke zwischen dem globalen Modell und dem lokalen Modell und trägt zur Konvergenz des globalen Modells bei. Während des Updates des lokalen Modells bestraft die adaptive Steuerung variabler basierend auf Änderungen im Modellgewicht und der Änderungsgeschwindigkeit der Steuerungsvariable das Update des lokalen Modells. Unsere experimentellen Ergebnisse zeigen, dass FedCoad in Bezug auf die Leistung im Benchmark-Datensatz zur Erkennung menschlicher Aktivitäten im Vergleich zu bestehenden fortschrittlichen föderierten Lernalgorithmen übertroffen wird.