Subdivision ist eine weit verbreitete Technik zur Netzverfeinerung. Klassische Methoden basieren auf festen, manuell definierten Gewichtungsregeln, die es erschweren, feinere Netze mit angemessenen Details zu erzeugen, während fortschrittliche neuronale Subdivision-Methoden zwar eine datengesteuerte nichtlineare Verfeinerung ermöglichen, jedoch an Robustheit mangeln, begrenzte Subdivisionsebenen haben und auf neuen Formen Artefakte zeigen. Zur Lösung dieser Probleme schlagen wir eine neuronale Netzverfeinerungsmethode (NMR) vor, die geometrische Priors aus feinen Formen erlernt, dann das grobe Netz adaptiv durch Subdivision verfeinert und robuste Generalisierbarkeit zeigt. Unsere zentrale Erkenntnis ist, dass das Netzwerk von nichtstrukturellen Informationen (wie Maßstab, Rotation und Translation) entkoppelt werden muss, damit es sich auf das Lernen und Anwenden der strukturellen Priors lokaler Patches zur adaptiven Verfeinerung konzentrieren kann. Dafür führen wir intrinsische Strukturbeschreiber und lokale adaptive neuronale Filter ein. Die intrinsischen Strukturbeschreiber schließen nichtstrukturelle Informationen aus, um lokale Patches auszurichten, stabilisieren so den Eingabefeaturraum und ermöglichen dem Netzwerk, strukturelle Priors robust zu extrahieren. Die neuronalen Filter verwenden einen Graph-Attention-Mechanismus, extrahieren lokale Strukturmerkmale und wenden die gelernten Priors auf lokale Patches an. Darüber hinaus beobachten wir, dass der Charbonnier-Verlust im Vergleich zum L2-Verlust übermäßiges Glätten reduzieren kann. Mit diesen Designentscheidungen erzielt die vorgeschlagene Methode robustes geometrisches Lernen und lokale Adaptivität und verstärkt die Generalisierung auf unbekannte Formen und beliebige Subdivisionsebenen. Die Methode wurde an einer Reihe komplexer 3D-Formen bewertet und zeigte bessere geometrische Qualität als bestehende Subdivisionsmethoden. Projektseite https://zhuzhiwei99.github.io/NeuralMeshRefinement.