Les systèmes de conduite automatique (ADS) suscitent un intérêt généralisé dans le domaine de l'apprentissage automatique. À l'aide des réseaux de neurones profonds (DNN), ces systèmes non seulement montrent des performances satisfaisantes face à l'incertitude majeure de l'environnement, mais peuvent également corriger les défaillances du système sans intervention extérieure. Cependant, en raison de la vulnérabilité des réseaux de neurones profonds aux attaques adverses, la vulnérabilité des systèmes de conduite automatique est devenue un sujet de recherche. Cette étude examine en détail les attaques adverses physiques actuellement présentes dans les systèmes de conduite automatique. Tout d'abord, les attaques et les méthodes de défense physiques sont classées en 3 catégories en fonction des restrictions de déploiement : le monde réel, le monde virtuel et le monde numérique. Les attaques adverses des différents capteurs des systèmes de conduite automatique sont analysées et classées en attaques basées sur la caméra, attaques basées sur le LiDAR et attaques basées sur la fusion de capteurs multiples. Les tâches d'attaque sont classées en fonction des éléments de circulation. Pour la défense physique, un système de défense complet des modèles de réseaux de neurones profonds est mis en place, basé sur le prétraitement d'images, la détection adversaire et le renforcement des modèles. Enfin, les défis auxquels ce domaine de recherche est confronté sont discutés, ainsi que les perspectives de développement futur.
Keywords
Attaques adverses physiques ; Défenses adverses physiques ; Sécurité de l'intelligence artificielle ; Apprentissage profond ; Système de conduite autonome ; Fusion de données ; Vulnérabilité adverse