Autonome Fahrsysteme (ADS) erregen im Bereich maschinelles Lernen weitreichendes Interesse. Mit Hilfe von tiefen neuronalen Netzen (DNN) zeigen diese Systeme nicht nur zufriedenstellende Leistungen bei erheblicher Unsicherheit der Umgebung, sondern können auch Systemfehler ohne externes Eingreifen korrigieren. Aufgrund der Anfälligkeit tiefer neuronaler Netze für Angriffe mit adversarialen Mustern hat die Vulnerabilität autonomer Fahrsysteme das Interesse der Forschung auf sich gezogen. In dieser Untersuchung werden die physischen adversarialen Angriffe, die derzeit in autonomen Fahrsystemen vorhanden sind, detailliert untersucht. Zunächst werden die Angriffe und physischen Verteidigungsmethoden basierend auf Bereitungsbeschränkungen in 3 Kategorien eingeteilt: die echte Welt, die virtuelle Welt und die digitale Welt. Die adversarialen Angriffe der verschiedenen Sensoren der autonomen Fahrsysteme werden analysiert und unterteilt in kamera-basierte Angriffe, LiDAR-basierte Angriffe und fusion-basierte Angriffe mit mehreren Sensoren. Die Aufgaben der Angriffe werden nach den Elementen des Verkehrs klassifiziert. Für die physische Verteidigung wird ein umfassendes Verteidigungssystem für tiefe neuronale Netzmodelle aufgebaut, basierend auf der Vorverarbeitung von Bildern, der Adversarialerkennung und der Verstärkung der Modelle. Schließlich werden die Herausforderungen in diesem Forschungsbereich diskutiert und Zukunftsperspektiven aufgezeigt.