Der dedizierte Audio-Chip der Xbox Series X liefert realistischeres Audio, das es dem Spieler ermöglicht, Objekte in einem 3D-Raum genauer zu lokalisieren. Mit Unterstützung von Dolby Atmos, DTS:X und Windows Sonic verfügt nur die Xbox Series X über diese umfangreiche Sound-Format-Palette und setzt dazu maßgeschneiderte Audiohardware ein, um die CPU zusätzlich zu entlasten, damit mehr Power für die Grafik freigesetzt werden kann.
Nur die Xbox Series X unterstützt somit Dolby Atmos, DTS:X und Windows Sonic, während Sony mit der PlayStation 5 lediglich auf das eigene neue Format mit dem Namen „Tempest“ setzt. Ein Vergleich von Mark Cerny mit der PlayStation 5 und die Begründung, warum die PS5 auf Dolby Atmos verzichtet, ging nach hinten los. So stellte Dolby die falsch dargelegten Fakten in einem eigenen Beitrag richtig.
Doch damit nicht genug, denn Microsoft Research arbeitet seit geraumer Zeit an einem weiteren Soundformat und nennt dieses Projekt einfach: Project Acoustics.
Project Acoustics steht allen Spielentwicklern und Sounddesignern zur Verfügung. Es verwendet die in Microsoft Research entwickelte Triton-Technologie für eine präzise Schallausbreitung unter Verwendung der Wellenphysik.
Microsoft beschreibt das neue Soundformat wie folgt: „Microsoft Research arbeitet seit über einem Jahrzehnt an Project Acoustics, einem Modell für Klangausbreitungsphysik in Mixed Reality und Videospielen, das schon heute in vielen AAA-Entwicklungen genutzt wird. Project Acoustics ist bei der Simulation von Klangwellen, etwa bei der Beugung in komplexen Szenengeometrien, einzigartig, ohne die CPU zu belasten. Das ermöglicht viel immersivere und lebensechtere Audio-Erfahrungen als bisher. Sounddesigner werden mit Plug-Ins direkt in der Unity- und Unreal-Engine befähigt, durch Einstellungen die Klangrealität des Spiels anzupassen. Entwickler können Project Acoustics mit der Xbox Series X problemlos nutzen, weil die Konsole einen neuartigen, dedizierten Audio-Hardware-Block aufweist.“
Hier noch ein Video zu Project Acoustics:
Wo steht denn das die xbox DTS-X unterstützt?
Die one x unterstützt DTS und per upmixer vom AVR kommt DTS neutral X Raus.
Offizielle Bekanntgabe von Microsoft. Zitat: „Mit Unterstützung von Dolby Atmos, DTS:X und Windows Sonic verfügt die Xbox Series X über maßgeschneiderte Audiohardware, um die CPU zu entlasten.“
Und wir berichten hier über die Xbox Series X, nicht die Xbox One X.
Kann es selber gerade nicht testen, da ich noch sehr schwanke, was meinen zukünftigen AVR angeht (wird wohl Denon, da die als einzige meines Wissens nach auch Dolby Vision Lizenz haben)…
…aber ich dachte dass man per HDMI den Audio-Bitstream einer UHD untouched an den AVR gibt, also muss da ja eigentlich kein direkter Support sein.
Oder reden wir gerade aneinander vorbei?
Bitstream ist bei Film oder Spiel möglich. Bei Spielen muss dennoch in irgendeiner Form eine Lizensierung her. Daher auch die Dolby App auf der Xbox One. Bei der Series X wird dann vermutlich gleich Dolby Atmos und dtsX auf der Kiste stehen.
Sony wird sich das sparen. Kosten kann das nicht viel. Aber Cerny hat es ja selber gesagt. Deren Tempest Soundengine kann nur Stereo via Kopfhörer. Stereo mit virtuellem Surround ist in Vorbereitung. Dann erst wird man 5.1 umsetzen. MS ist da halt weiter, Project Acoustics ist auch nichts neues, wird bereits eingesetzt.
Die Dolby App ist nur nötig, wenn du Dolby Atmos für deine Kopfhörer haben willst. An die Anlage solltest du eigtl keine zusätzliche App benötigen
Doch die App brauchst du, aber keine Lizenz. Die Lizenz brauch man nur für Atmos mit Headset.
Richtig! Sorry, hatte mich da nicht konkret ausgedrückt.
Stimmt natürlich. Lizenzzahlungen sind auch nicht notwendig, weil der AV Receiver decodiert und der Bereits die Lizenz hat.
Ich finde es super dass die neuen Konsolen quasibl eine echte Soundkarte integriert haben.
Nur finde ich die Lösung von MS etwas sinnvoller, nämlich einfach alle Industrie Standards zu unterstützen
Die Xbox One hat bereits einen eigenen Soundchip. Die PS4 hat auch 2 DSPs auf der GPU. Man erfährt nur normalerweise so gut wie nichts zum Sound, lässt sich halt auch schlecht mit Texten oder Videos demonstrieren. Deshalb spart sich Digital Foundry das auch aus.
Ja, die Xbox One X hat auch schon einen Soundchip, aber der ist „nur“ dafür da Atmos zu liefern soweit ich weiß.
Dass wirklich Sound dediziert berechnet wird ist meines Wissens nach neu auf der kommenden Gen
Hä? MS baut 2013 einen Soundchip für Dolby Atmos ein, was aber erst 4 Jahre später genutzt wird? Hast du dir mal angeschaut, wie der Soundchip aufgebaut ist?
Die PS4 konnte auch schon die GPU Daten nutzen, hatte dann noch zusätzlich 2 DSPs. Trotzdem ist der Sound deutlich unter dem, was die Xbox One liefert (auch wenn diverse Multiplatformer gleich klingen). Schon die Starttitel haben gezeigt, was auf 7.1 Basis möglich ist (HD Audio). Und das hat sich über die Jahre weiterentwickelt
Ja ich hab mir den Chip angeschaut. Und er kann die von der CPU gestreamten Daten in 7.2 umwand. Seit der One S und der one X auch in 9.2 (Atmos).
Aber! Der Sound selbst wird auf der CPU lokalisiert und mit Hilfe der gpu gemappt. Zumindest hab ich das so verstanden. Und ja, deshalb ist das sound Erlebnis auf der xbox one s oder one X auch deutlich besser als auf der PS
Der Unterschied kommende Gen ist, dass der Sound dedizierte gemappt wird.
Interessant. Und wozu sind dann die ganzen DSPs da? Die Abteilungen für Equalization, Dynamic Range Compression, Filter & Volume Processor, DMA, Xbox Media Audio Decoder etc. Und warum war der Ton bei der PS4 so viel schlechter? Bzw warum konnte der Ton auf der Xbox One so viel besser sein?
All die Themen sind sehr wichtig damit der Sound gut klingt! Udn das hat MS ausgelagert auf einem entsprechenden Chip. Die zuordnung wo der Sound herkommt und wie er sich ausbreitet ist aber nicht auf dem Chip.
Daher klingt die PS nicht so prickelnd, da sie alles auf der CPU, bzw. Gpu hat. Und MS quasi das post processing auslagert…
Ok, verstehe ich. Danke! Aber wie ist das dann bei der Next Gen. Die Daten kommen ja weiterhin aus der GPU. Da fällt dann nur die CPU Belastung weg?
Korrekt… Es gibt jetzt quasi dedizierte „sound shader“, die aber aufgrund des Aufbaus einer apu auf der gpu lokalisiert sind. Da die Berechnung sehr ähnlich ist wie bei Raytracing macht es auch Sinn diese dort zu platzieren, dann können sie mit derselben clock laufen.
Ah cool danke