Das unabhängige Entwicklerteam RealityArts Studio und Publisher Toplitz Productions kündigen gemeinsam stolz an, dass das kommende Action-Adventure Unawake (PC) die revolutionäre Audio2Face-Technologie von NVIDIA für die Gesichtsanimationen nutzen wird.
Mit der Integration von Audio2Face verwendet Unawake eine sogenannte generative KI, um Sprachausgabe in emotionale sowie lebensechte Mimik umzusetzen.
Die Einbindung dieser Technologie, die in diesem Jahr am NVIDIA-Booth auf der GDC in San Francisco gezeigt wurde, wird dem intensiven Spielgefühl und Storytelling seinen markanten Stempel aufdrücken, wenn die Reise in die düstere Welt von Unawake im Laufe dieses Jahres beginnt.
“Wir sind stolz und fühlen uns geehrt, dass NVIDIA Unawake ausgewählt hat, um seine KI-Werkzeuge zu präsentieren”, so Ismail Kemal Ciftcioglu, Mitbegründer von RealityArts und Game Director von Unawake. “In der Entwicklung spart uns Audio2Face eine Menge Zeit, die wir darauf verwenden können, uns auf das Erzählen der Geschichte zu fokussieren und das bestmögliche Spielerlebnis abzuliefern. Wir möchten uns für die Möglichkeit bedanken, eine neue Ära der Content-Erstellung begleiten zu dürfen!”
Dieser Meilenstein markiert den nächsten Schritt des Fortschritts, den das heiß erwartete Actionrollenspiel in Ego-Perspektive seit seinem letzten öffentlichen Auftritt während des Steam Scream Fests 2023 gemacht hat.
Mit dem Sammeln und Verarbeiten des Feedbacks von tausenden Spielern hat RealityArts nicht nur hinsichtlich der Spielmechanik von Unawake wichtige Fortschritte gemacht, sondern auch an der Grafik gearbeitet und u.a. Epics MetaHuman-Technologie sowie Audio2Face eingebaut und generell den Inhalt massiv aufgestockt.
Eine Demonstration der Technologie gibt es im folgenden Video zu sehen:
Also irgendwie finde ich das Video für eine Präsentation stark UNTERwältigend.
Hätte da wenigstens ein bisschen Dynamik in der Stimme erwartet, dass man sieht, was das System wirklich drauf hat…
Ich kann dem Video auch nichts entnehmen was da jetzt Revolutionär sein soll?!?!
Aber ich kann mir vorstellen das es den Entwickelten viel Arbeit abnimmt, wenn gewisse Abläufe über KI generiert werden
Nun das Ergebnis mag nicht besser aussehen als bei anderen Titeln, aber die Umsetzung ist das Beeindruckende. So eine Dialog Sequenz braucht in der Regel viel Zeit und Mitarbeiter Ressourcen, um die Gesichter zu animieren und die Dialogregie durchzuführen. Hier brauchst du im Endeffekt nur noch die Audioquelle und bestimmte Parameter, und der Rest generiert die KI.
Bei einem RPG mit oft ausladenden Dialogen kann extrem Zeit eingespart werden und das Ergebnis ist nicht schlechter, in Zukunft vermutlich sogar besser als die manuelle Umsetzung. Gerade in der Zeit, wo AAA zu teuer wird, ergeben sich hier attraktive Einsparpotenziale. Ich finde es sehr beeindruckend.
This!
Man muss einfach verstehen, was KI für Arbeit, Kosten und Zeit einsparen kann.
Herkömliche Animationen brauchen sehr viel Feinjustierung. Jeder Griff muss passen. Kopf- und Mundbewegungen, Animationen, Mimik, etc. Was glaubt ihr, warum viele NPCs total unterwältigend in den Dialogen sind und teils nur starr dastehen? Weil es teuer und aufwändig ist. Eine Möglichkeit hier bessere Leistungen zu liefern war bislang immer Motioncapturing, was aber ebenfalls aufwändig und kostenintensiv sein kann, zumal man einen Schauspieler braucht für jeden Charakter. Damit soll nicht heißen, das KI aktuell besser sei als Motion Capturing, aber kosteneffektiver. Daher ist diese Präsentation alles andere als Unterwältigend, vorausgesetzt man versteht was dahintersteckt und was das bedeutet.
Man muss bedenken, dass das erst der Anfang ist. Das wird sich noch massiv weiterentwickeln. Aber für reine Audioeingaben? Schon gut.
Also ich bin der Meinung, dich und @obithewan sehr gut zu verstehen und natürlich ist KI jetzt schon sehr stark und wird bestimmt die ganzen Entlassungen der Branche mehr als kompensieren…
Und ja… Auch ich find die Lippensynchro von Alan Wake bspw. sinnbildlich für schlechte manuelle Umsetzung.
Ich bleibe aber bei meiner Meinung über die Präsentation und sehe auch in euren Antworten keinen Bezug zur fehlenden Dynamik. Also erzeugt es in weniger monotonen Bereichen entweder den nächsten Uncanny Valley Effekt oder muss doch manuell nachgearbeitet werden(?).
Dann noch kombiniert mit der Einleitung…
„Die Einbindung dieser Technologie […] wird dem intensiven Spielgefühl und Storytelling seinen markanten Stempel aufdrücken“
…und meine Erwartungshaltung an die Präsentation ist nicht ansatzweise erfüllt.
Deine Reaktion zu meiner Aussage wirkt auf mich in gewissem Maß herablassend. Mindestens unterstellend.
Ich arbeite Hauptberuflich in einem Bereich, der sich sehr stark mit KI beschäftigt. Das Topic ist zudem ein Thema, was mich im Tagesgeschäft stark rumtreibt – sowohl im eigenen Unternehmen als auch bei externen – und du würdest nicht glauben wie viele gut aufgestellte Unternehmen (gerade im digitalen Bereich) sich noch in den Anfängen der KI befinden bzw sich noch nicht damit beschäftigt haben – mal ganz zu schweigen von „normalen“ Unternehmen. Und hier spielen solche Technologien natürlich noch ne wesentlich wichtigere Rolle, daher fällt die KI-Kompetenz von normalen Menschen in der Regel sehr gering aus. Ich glaube mal, dass es hier im Forum kaum jemanden gibt, der erfolgreich die Funktion eines neuralen Netzwerks erklären kann ohne danach zu googlen. Und selbst mit Google, würde das bei den meisten sicher min. ne Stunde Einarbeitungszeit brauchen.
Und keine Sorge, mein Kommentar war nicht herablassend gemeint, aber natürlich kann man sowas zwischen den Zeilen manchmal meinen herauszulesen. Ging eher in die Richtung fehlender Kompetenzen, was ja nichts verwerfliches ist, da es ein wirklich komplexes Thema ist, bei dem es quasi jeden Tag Veränderungen und Neuigkeiten gibt.
Das was da gezeigt wird ist schon sehr ordentlich. Das allerdings zu kritisieren, sehr ich eher als Vergleich mit den ersten 3D-Games, bei denen man kritisieren würde, dass die noch keine hochauflösenden Texturen oder dynamische Beleuchtungen hatten. Da kommen noch sehr große Veränderungen im Gamedesign auf uns alle zu. 🙂
Deine Kompetenzen will ich in dem Bereich auch nicht in Frage stellen.
Und ich habe das Gezeigte oder die Technologie auch nicht kritisiert. Finde meine Wortwahl da sehr eindeutig.
Das Video bzw. die Präsentation zeigt einfach nicht das, was (zumindest im Artikel) „versprochen“ wird.
Um bei deinem Beispiel zu bleiben finde ich es durchaus angebracht, eine Präsentation des ersten 3D Spieles zu kritisieren, wenn angekündigt wird, dass „Mario 64“ „lebensechte“ Grafik bietet.
Nichts speziellens das Video.
Die verschiedenen KI Möglichkeiten die für die Game Entwicklung eingesetzt werden können wird das ganze auf ein neues Level heben.
Man sollte jetzt nicht aufs Endresultat schauen und enttäuscht sein, sondern daran denken was damit zukünftig möglich ist. Einfach von der KI spontan erstellte NPCs die sinnvolle Quests haben und im besten Falle noch auf die eigene Figur und die Geschichte die man bis dahin erlebt hat eingehen, und das ganze ohne das ein Entwickler da groß Hand anlegen muss. Hört sich für mich sehr gut an in Zeiten in der die Entwickler wegen Kosten- und Zeitdruck nur noch banale Botenjungen Nebenquests hinbekommen.
Der Kostenfaktor ist mit Sicherheit revolutionär. Einerseits schade für die verlorenen Jobs, andererseits könnten die damit gewonnen Ressourcen, die anderen Bereiche profitieren. Bin mittlerweile ein echter Fan von KI Projekten, da sie soviel Mehrwert und Fortschritt mitbringen
Interessant wäre schon mal, inwieweit bei solchen Tools wie z. B. das hier auf der Seite vorgestellte oder aber auch Unreal Engine 5.xx von den Herstellern wie eben Epic, Nvidia usw. konkret Hilfestellungen für Entwickler bei z. B. Performance Problemen geben (können).
In den Videos flutscht das immer alles so easy und so würde ich meinen ist es eben nicht immer. Jedenfalls nicht bei allen Entwicklern. Und als Kunde / Gamer bekommt man es bei Neuveröffentlichungen durchaus mit, dass Spiele nicht immer rund laufen. Jüngste Beispiele gibt es ja doch ein paar.
Würde ich mir für das kommende Fallout und TES wünschen. Die KI wird die Spiele in eine neue Stufe bringen, völlig egal wie viele es versuchen mit sinnlosen Szenarien schlecht zu reden, KI wird das Gaming verbessern. Die Kombination zwischen Kreativen Köpfen und KI Tools, sparen nicht nur viel Zeit für Entwicklung sondern auch Kosten, auch wird man große Spiele von kleineren Teams erleben. Die Frage ist, was kosten die Tools für die Entwickler…
Normalerweise wird ein motion capturing dafür benötigt oder man bastelt die Animationen vollständig manuell zusammen. Beide Methoden sind sehr zeitaufwendig und damit teuer, hier wird das live berechnet und ausgegeben.
Klar wird sich NVIDIA das auch gut bezahlen lassen aber hier bleibt ein signifikanter zeitlicher Vorteil bestehen.