Künstliche Intelligenz revolutioniert das Spielen – von der Spielphysik und Animationssimulation bis hin zu Echtzeit-Rendering und KI-unterstützten Sendebeiträgen. Mit Deep Learning Super Sampling (DLSS) wollte NVIDIA das Echtzeit-Rendering durch KI-basierte Superauflösung neu definieren – weniger Pixel rendern und dann KI zur Konstruktion scharfer Bilder mit höherer Auflösung verwenden. Mit der neuesten Version 2.0 von DLSS haben sie große Fortschritte auf dem Weg zu dieser Vision gemacht.
DLSS 2.0 ist ein neues und verbessertes, tief lernendes neuronales Netzwerk, das von speziellen AI-Prozessoren auf GeForce RTX-Grafikprozessoren, den sogenannten Tensor Cores, angetrieben wird und die Bildraten erhöht und gleichzeitig schöne, scharfe Spielbilder erzeugt. Es bietet Spielern den Leistungsspielraum, um die Raytracing-Einstellungen zu maximieren und die Ausgabeauflösungen zu erhöhen.
In einem neuen Video wird euch die neue Technik vorgestellt:
Warum wir euch das zeigen? Nun, die Xbox Series X unterstützt ebenfalls „Machine Learning“ in Spielen mit DirectML. DirectML ist Teil von DirectX und nutzt die hohe Hardwareleistung der Xbox Series X und profitiert von über 24 TFLOPS bei 16-bit-Float Performance Berechnungen und mehr als 97 TOPS (Billion Berechnungen pro Sekunde) bei 4-bit Integer Berechnungen.
Dieses „Machine Learning“ kann viele Bereiche in Spielen verbessern, wie z.B. die Intelligenz von NPCs, beim Anzeigen von lebensechteren Animationen oder bei der Verbesserung der Grafikqualität.
Machine Learning das Wort macht mir Angst und erinnert mich irgendwie an Skynet.? Nein Spaß beiseite,haben ist immer gut
Skynet ist down… aber es gibt jetzt Legion 😉
Aber die Engländer nutzen doch Skynet ?
Denke er meinte Terminator 😉
Früher wurden GPU Hersteller an den Pranger gestellt wenn man Tiefenpassfilter, Tri oder Bi-Filtering in nicht sichtbaren Bereich herunterschraubte um Leistung zugewinnen und heute deklariert man es als Machine Learning und alle jubeln und feiern es, verrückte Welt heutzutage.
O.O abartig und Wahnsinn. Ich kanns kaum erwarten das selbst zu Hause zu haben.
Nächste Evolution ist dann Deep Fuzzy Logic, um absichtlich zufälligerweise Fehler einzubauen, weil uns als Menschen 100%ige Perfektion nicht gefällt. Siehe z.B. die Körnungsfilter in UHD-Material.
Die Körnung gefällt mir gar nicht bei Uhds. Der kack
Jap – ich finde es auch voll ätzend, aber einige Regisseure wollen das offensichtlich so.
Ich meinte das eher so, dass absichtliche Fehler in Gesichtsanimationen eingebaut werden, um diese „menschlicher“ wirken zu lassen, z.B. Oder bei Gegnern könnte man so tatsächlich die Illusion unterschiedlicher „Gangbilder“ erwecken.
Das werden noch quälend lange Monate bis zum Release. Ich freu mich auf jedenfall auf die ganzen Effekt Spielerein, vor allem wenn die Spiele Engines ein Upgrade/date erhalten. APEX oder Crystal Dynamics schaffen es immer schöne Welten zu erschaffen. Und auf das erste Ubi Game das ausschließlich für die „Neue Gen“ entwickelt wird bin ich sehr gespannt.
Ich denke direkt zum Launch wird es nicht so krass eingesetzt. Aber je mehr die Entwickler jetzt schon am PC experimentieren, desto besser für die XSX. Cyberpunk 2077 könnte auf der XSX echt heftig werden, genauso wie Halo Infinite und andere.
Denke dass wenn machine learning richtig eingesetzt wird einen echten Benefit bringen kann