Nach einem Jahr ist „Black Wukong“ zurück und erneut auf der Hotlist.
Zusätzlich zur offiziellen Veröffentlichung eines 6-minütigen Real-Life-Plot-Clips brachte NVIDIA dieses Mal auch einen 8-Minuten-Real-Life-Testclip mit.
Was noch wichtiger ist, ist, dass „Black Wukong“ zum ersten Mal 4K RTX ON Raytracing + NVIDIA DLSS-Technologie unterstützt.
Das Blut der Internetnutzer kochte sofort, nachdem sie es gesehen hatten.
Im Jahr 2020 wurde Black Wukong zum ersten Mal freigelegt und versetzte die Welt in Erstaunen.
Im Jahr 2021 wurde der UE5-Test gezeigt, und die Szenenverarbeitung auf verschneitem Boden ließ Internetnutzer die chinesische Version der Grafikkartenkrise nennen.
Im Jahr 2022 bin ich direkt zu NVIDIA 4K RTX ON übergegangen.
Vergleichen wir die Szene, in der sich Wukong zu Beginn in eine goldene Zikade verwandelt. Die Flügelmodellierung und Flugbewegungen sind in diesem Jahr offensichtlich strukturierter als in der Version von 2020.
Mit dem Segen der Lichtverfolgung zeigen verschiedene Positionen des Körpers der goldenen Zikade auch unterschiedliche Details basierend auf unterschiedlichen Beleuchtungswinkeln, wodurch sie realistischer und natürlicher erscheinen.
KI-Technologie und Raytracing-Technologie verändern eindeutig die Art und Weise, wie wir spielen und kreieren.
Aus technischer Sicht sind Raytracing und DLSS zur Standardausrüstung für die Produktion von AAA-Game-Meisterwerken geworden.
Der Grund, warum „Black Wukong“ den Spielern das Erleben einer so immersiven Fantasiewelt der chinesischen Mythologie ermöglicht, liegt an der leistungsstarken Raytracing-Funktion und NVIDIA DLSS, die alle auf der GeForce RTX-Technologie basieren.
NVIDIA RTX steht an der Spitze der aktuellen Revolution im Gaming, der schnellsten und fortschrittlichsten Plattform für hochmoderne Anwendungen und Spiele.
Wenn Spieler einen GeForce RTX-basierten PC verwenden und ihn mit dem neuesten Game Ready-Treiber optimieren, erhalten sie die stärkste Leistung, das reibungsloseste Spielerlebnis und die Raytracing-Effekte mit der höchsten Wiedergabetreue.
Als nächstes stellen wir Raytracing und DLSS im Detail vor.
Am 14. August 2018 fand in Vancouver die SIGGRAPH, die führende Computergrafikkonferenz, statt. NVIDIA stellte offiziell NVIDIA Quadro RTX vor, die weltweit erste neue Grafikkartenfamilie, die Echtzeit-Raytracing-Technologie unterstützt.
Am 21. August veröffentlichte NVIDIA eine neue Generation von Grafikkarten auf Basis der Turing-Architektur: GeForce 2080Ti, GeForce 2080 und GeForce 2070. Seitdem hat die GPU eine neue Welt des Raytracing für Spiele eröffnet.
Echtzeit-Raytracing-Technologie und DLSS-Technologie sind definitiv bahnbrechende Störungen.
1. Raytracing-Technologie
Raytracing ist eine Grafik-Rendering-Methode, die die physikalischen Eigenschaften von Licht simuliert.
Vor dem Aufkommen von Raytracing war die traditionelle Methode das Rasterrendering.
Angenommen, es gibt einen Raum und eine Lichtquelle. Geben Sie jeder Oberfläche eine ebene Textur, entsprechend der Position der Lichtquelle. Die Koordinatentransformation der Eckpunkte des Polygons oder Dreiecks auf dem Bildschirm (Matrixtransformation, Perspektive usw.) und das anschließende Füllen der Textur innerhalb des Polygons oder Dreiecks, während gleichzeitig die Farbe jedes Pixels des Raums berechnet wird, wodurch ein ziemlich realistischer 3D-Raum erzeugt wird .
Das Prinzip der Strahlverfolgung besteht darin, das Ausbreitungsverhalten jedes Strahls zu verfolgen und den Beitragswert jedes Strahls zur Beobachtung unseres menschlichen Auges, also den Farbwert, zu berechnen. Die mithilfe der Raytracing-Technologie gerenderten Lichtstrahlen springen wie in der realen Welt um die Szene herum und sehen daher realistischer aus. Es berechnet, wo das Licht den Raum trifft und wie viel es reflektieren soll, wie das Licht durch das Objektiv der virtuellen Kamera geht und bestimmt schließlich, wie das Bild der Kamera auf Ihrem Bildschirm erscheinen soll.
Um es einfach auszudrücken: Beim Rasterrendering beginnt die Berechnung des Lichts beim Objekt selbst und durchläuft Berechnungen und Simulationen wie eine Koordinatenmatrixtransformation, um die Farbe und andere Informationen zu erhalten, die auf jedes Pixel auf dem Bildschirm projiziert werden.
Und Raytracing verfolgt das Licht von der Kamera (Auge) zurück, um die verschiedenen Effekte der Lichtreflexion zu erfassen.
Rasterisierung (links) und Raytracing (rechts)
Im Spiel wird ein spezieller Light Tracing (RT)-Kern verwendet, um die Lichtphysik beim Szenenwechsel im Spiel zu simulieren.
Es können physikalisch genaue Schatten, Reflexionen und Brechungen sowie eine globale Beleuchtung erzielt werden, wodurch Objekte im Spiel in virtuellen Spielszenen realistischer werden.
Zum Beispiel wechseln sich Licht und Schatten bei der Black Wukong-Demonstration ab.
Szenen wie Flammen, Rauch und Explosionen wirken realistischer und vermitteln den Menschen ein immersives Gefühl, allesamt Lichtverfolgungseffekte.
Tatsächlich wurde der Algorithmus der Raytracing-Technologie bereits 1979 von Turner Whitted vorgeschlagen. Warum hat es so viele Jahre gedauert, diese Technologie für die Lichtwiedergabe einzusetzen? Dies liegt daran, dass der Rechenaufwand zu groß ist.
Um den enormen Bedarf an Rechenleistung sicherzustellen, verfügt NVIDIA in jeder SM-Einheit der Turing-Architektur über einen RT CORE, speziell für Raytracing-Dienste. Das Arbeitsprinzip von RT CORE ist der hierarchische Bounding-Box-Traversal-Algorithmus: BVH (Bounding Volume Hierarchy Traversal).
Zum Beispiel ist das Rendering-Objekt ein Kaninchen. Um die Wechselwirkung zwischen einem Lichtstrahl und dem Kaninchen selbst zu berechnen, teilen Sie den Raum, in dem sich das Kaninchen befindet, in N Begrenzungsrahmen auf und berechnen Sie, welchen Begrenzungsrahmen das Licht schneidet Wenn ja, dann wird dieser Begrenzungsrahmen weiter in N kleinere Begrenzungsrahmen unterteilt und der Schnittpunkt erneut berechnet. Dies wird wiederholt, bis der Begrenzungsrahmen gefunden wird, in dem sich das Dreieck befindet, das das Licht schneidet, und dann wird das Dreieck schließlich gefunden gerendert.
Der BVH-Algorithmus kann die Anzahl der Dreiecke, die durchlaufen werden müssen, um den nächsten Schnittpunkt jedes Strahls zu berechnen, erheblich reduzieren, und er muss nur einmal durchgeführt werden, um ihn für alle Strahlen zu verwenden, was die Ausführungseffizienz erheblich verbessert . 2. DLSS
Das ist NVIDIA Deep Learning Super Sampling (DLSS), ein Deep-Learning-Neuronales Netzwerk, das die Bildraten steigert und gestochen scharfe Bilder erzeugt.
Der vollständige Name von DLSS ist Deep Learning Super Sampling und der chinesische Name ist Deep Learning Super Sampling Technology. Es kann ein Bild mit niedriger Auflösung (z. B. 1080P) verwenden, um ein Bild mit hoher Auflösung (8K) zu erzeugen, und das 8K-Bild dann wieder auf 4K verkleinern, um ein Super-Sampling-Anti-Aliasing-Bild (SSAA) zu erhalten.
NVIDIA DLSS ist die einzige auf KI basierende Superauflösungstechnologie, die bis zu zweifache Leistungsverbesserungen für Spiele liefern kann.
In den nebligen Szenen von Black Wukong gab es beispielsweise keine instabile Bildrate, hauptsächlich aufgrund der DLSS-Technologie.
DLSS ist eine neue exklusive Anti-Aliasing-Technologie, die von NVIDIA nach TXAA eingeführt wurde. Sie nutzt die Leistungsfähigkeit von Deep Learning und KI, um die GPU für die Wiedergabe klarer Spielbilder zu trainieren.
Das Arbeitsprinzip von DLSS ist die Bild-Super-Resolution-Technologie, eine Funktion zur Optimierung von Bildern auf Basis von KI und Deep Learning. Durch NVIDIAs Supercomputing wird KI kontinuierlich zum Erlernen von Spielbildern mit ultrahoher Auflösung verwendet Bilder mit niedriger Auflösung werden ständig bis ins kleinste Detail wiederhergestellt.
Da die Supercomputing-Leistung enorm ist, kann sie die Details langsam vervollständigen, die Auflösung verbessern, ein tiefes Faltungs-Neuronales Netzwerk-Training verwenden und schließlich verschiedene Bilder mit nahezu perfekten Details und extrem hoher Auflösung ausgeben.
Der Berechnungsprozess von DLSS wird vollständig in der einzigartigen Tensor Core-Kerneinheit der RTX-Grafikkarte durchgeführt, sodass er nicht die CUDA-Allzweck-Recheneinheit der Grafikkarte belegt und so den Verbrauch vermeidet Renderleistung und Gameframes der Grafikkarte reduzieren sich.
Die DLSS-Technologie kann als Meilenstein im Grafikkarten-Rendering bezeichnet werden. Denn im Grafikbereich gibt es eine Regel: Wenn Sie eine bessere Bildqualität wünschen, müssen Sie eine bessere Leistung benötigen. DLSS 2.0, eine revolutionäre Technologie, bricht diese Regel und kann die Leistung verbessern, ohne die Bildqualität zu beeinträchtigen.
Nach dem Einschalten von DLSS läuft das Rendering der Engine mit einer niedrigen Auflösung von 1/2 bis 1/4 Pixel. Mehr als die Hälfte der Berechnungen auf Pixelebene entfallen. Berechnungen auf Pixelebene sind sehr zeitaufwändig und leistungsintensiv. Im Allgemeinen verbrauchen 3A-Meisterwerke mit besserer Grafik mehr Rendering-Leistung, und je mehr Rendering-Leistung zu einem Engpass wird, desto mehr Beschleunigung bietet DLSS.
Es besteht keine Notwendigkeit, ultrahochauflösende Bilder im Spiel voreinzustellen. Solange die DLSS-Technologie verwendet wird, ist das im Treiber integrierte Supercomputer-Modell aktiviert Wenn Sie die DLSS-Funktion aktivieren, wird sie aufgerufen.
Das wirklich Besondere an DLSS ist, dass es der erste KI-Algorithmus ist, der gleichzeitig stabile Bilder ohne Jitter-Artefakte erzeugt. Jedes Spiel erfasst hochwertige Bildsequenzen, wodurch die hohen Kosten für Echtzeit-Rendering vermieden werden und Spiele sehr schnell gerendert werden.
Es ist außerdem die einzige Bildschirmskalierungstechnologie, die Deep-Learning-Neuronale Netze nutzen kann, um sicherzustellen, dass die Bildqualität mit der nativen Auflösung vergleichbar ist. Ohne KI-gestützte Skalierungstechnologie können hochskalierte Bilder unansehnliche Artefakte wie Bewegungsartefakte, Flackern und stumpfe, verschwommene Texturen erzeugen.
Mit Hilfe der DLSS-Technologie kann zunächst die Bildqualität verbessert werden. Durch die fortschrittliche Time-Feedback-Technologie können klarere Bilddetails erzielt und gleichzeitig die Stabilität zwischen den Bildern verbessert werden.
Bilder, die mit einer Auflösung von 1080p im DLSS-Qualitätsmodus aufgenommen wurden
Zweitens können die Bildrate und die Auflösung erhöht werden. Das neue KI-Netzwerk nutzt Tensor-Kerne effizienter, um die doppelte Geschwindigkeit der Originalversion zu erreichen, was die Bildraten verbessert und frühere Einschränkungen bei Grafikkarten, Einstellungen und Auflösungen aufhebt.
Derzeit wurde DLSS auf Version 2.4.0 aktualisiert.
Angesichts der zweifachen Verbesserung der Spielleistung, Bildrate und Bildqualität gibt es nichts zu sagen.
Mittlerweile wird NVIDIA DLSS in 200 Spielen und Anwendungen verwendet.
Nachdem sie dieses von NVIDIA gezeigte Video gesehen haben, machen sich Internetnutzer Sorgen, ob ihre Grafikkarten explodieren könnten.
Was alle mehr beunruhigt, ist: Wann kommt Black Wukong?
Das obige ist der detaillierte Inhalt vonDie reale Demonstration von „Black Wukong' explodiert, NVIDIA präsentiert Light-Tracing-Technologie. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!