Die meisten aktuellen Studien zur Interpretierbarkeit des Deep Learning beruhen auf Erfahrungswerten, und die Frage, ob es grundlegende Prinzipien gibt, die die internen Mechanismen tiefer neuronaler Netze aus verschiedenen Blickwinkeln erklären, ist zu einem der grundlegenden wissenschaftlichen Probleme geworden, die im Bereich der interpretierbaren künstlichen Intelligenz dringend gelöst werden müssen. In diesem Artikel wird untersucht, ob die Theorie der äquivalenten Interaktionen zur Analyse der ursprünglichen Interpretation tiefer neuronaler Netze verwendet werden kann. Wir sind der Meinung, dass die interpretative Stärke dieser Theorie in vier Aspekten zum Ausdruck kommt: (1) Aufbau eines neuen axiomatischen Systems, das die Logik der Entscheidungsfindung des tiefen neuronalen Netzes in eine Reihe symbolischer Interaktionen umwandelt; (2) Fähigkeit, gleichzeitig mehrere typische Merkmale des Deep Learning, einschließlich der Generalisierungsfähigkeit des Netzes, der Empfindlichkeit gegenüber Stimulation, des Flaschenhalses der Repräsentation und der Lerndynamik, zu interpretieren; (3) Bereitstellung universeller mathematischer Werkzeuge zur Interpretation von Deep-Learning-Algorithmen, um systematisch verschiedene Methoden der Erfahrungszuweisung und Mechanismen der Migration zu erklären; (4) Analyse der doppelten dynamischen Variabilität der Interaktionskomplexität im Prozess der Modellierung des tiefen neuronalen Netzes, Erklärung der Modellierungskomplexität tiefer neuronaler Netze während des Lernens und der Beziehung zwischen Generalisierungsfähigkeit und Empfindlichkeit gegenüber Stimulation, die die internen Mechanismen der Generalisierungsfähigkeit und der Empfindlichkeit gegenüber Stimulation tiefer neuronaler Netze in der Lehrphase tiefgreifend aufzeigt.