Das verstärkte tiefe Lernen hat in visuellen Aufgaben bemerkenswerte Fähigkeiten gezeigt, aber seine Verallgemeinerungsfähigkeit ist schwächer, wenn das Eingabebild von einem Störsignal beeinträchtigt wird, weshalb es schwierig ist, einen trainierten intelligenten Agenten in einer neuen Umgebung anzuwenden. Um einem intelligenten Agenten zu ermöglichen, Störsignale auf dem Bild von wichtigen Pixeln zu unterscheiden, sind Datenverstärkungstechniken und der Aufbau von Hilfsnetzwerken eine effektive Lösung. Es wird ein neuer Algorithmus vorgeschlagen, nämlich die Verbesserung der Extraktion der Q-Wert-Bedeutung (SEQA), dieser Algorithmus ermutigt den Agenten, den unbekannten Zustand vollständig zu erkunden und seine Aufmerksamkeit auf wichtige Informationen zu konzentrieren. Konkret blockiert SEQA störende Merkmale, extrahiert wichtige Merkmale, verwendet den Verlust des Kritikers, um das Maskendekodierungsnetzwerk zu aktualisieren und zwingt so den Agenten, sich auf wichtige Merkmale zu konzentrieren und die richtigen Entscheidungen zu treffen. Dieser Algorithmus wurde auf dem DeepMind Control Generalization Benchmark evaluiert, die experimentellen Ergebnisse zeigten, dass dieser Algorithmus die Trainingsleistung und Stabilität erheblich verbessert. Gleichzeitig übertrifft unser Algorithmus in den meisten Aufgaben des DeepMind Control Generalization Benchmark die führenden verstärkten tiefen Lernmethoden in Bezug auf die Probenffizienz und die Generalisierungsfähigkeit.