In einem neuen Statement verriet Naoki Hamaguchi, dass die Entwicklung von Final Fantasy VII Rebirth für das Steam Deck einen unerwarteten Nebeneffekt hatte: Die technischen Optimierungen, die ursprünglich für Valves Handheld vorgenommen wurden, ermöglichten es dem Team, die Switch‑2‑Version deutlich effizienter zu gestalten.
Auf PS5 und PC liegt Rebirth bei etwa 150 GB. Durch gezielte Daten‑Optimierung, Asset‑Kompression und Streaming‑Anpassungen konnte Square Enix die Switch‑2‑Fassung jedoch auf 102 GB reduzieren – ein enormer Unterschied für ein Spiel dieser Größe.
Hamaguchi formulierte es so: „Wir nutzen die Erkenntnisse aus der Optimierung für das Steam Deck, um auch die Switch 2-Version zu verbessern, einschließlich der Reduzierung der Gesamtdatengröße.“
Für viele von euch ist das ein spannender Einblick in moderne Multiplattform‑Entwicklung. Die Switch 2 profitiert hier direkt von Optimierungsprozessen, die eigentlich für ein völlig anderes Gerät gedacht waren – und zeigt, wie stark sich technische Learnings zwischen Plattformen übertragen lassen.
= Partner- & Affiliate-Links: Mögliche aufgeführte Angebote sind in der Regel mit sogenannten Affiliate-Links versehen. Mit einem Kauf über einen dieser Links unterstützt ihr Xboxdynasty. Ohne Auswirkung auf den Preis erhalten wir vom Anbieter eine kleine Provision und können diese Website kostenlos für euch anbieten.























Videos kleiner codieren weil der Bildschirm eh klein ist dürfte kein Hexenwerk sein.
Ich glaube trotzdem dass es der Segen schwächerer Systeme ist die Entwickler zum umdenken zu zwingen, sonst läuft es wie auf dem PC.
Wenn der Wille da ist, gibt es auch einen Weg 😉.
Super, vielleicht hast das dann Auswirkungen auf den Xbox Release🙂
Super. 👍🏻
Da sieht man was gute Programmierer alles Leisten können.
Finde ich super 👍🏻
Schon mal ne super Optimierung, aber trotzdem Recht groß für den verhältnismäßig kleinen Switch Speicher.
Ursprünglich ist FF7 Rebirth 150GB groß!??
Ein SP JRPG!? WTF 😑
Ja genau deswegen. Jrpg waren immer schon mit die größten Spiele, schon zu ps1 Zeiten brauchte man für sie 2 bis 4 Disks.
Viele Synchronisationen, Stundenlange 4k Cinematics und eine extrem große Welt gefüllt mit unendlich vielen verschiedenen Objekten und Animationen. Das ist kein 5qm Shooter der die hälfte der Daten vom Server bekommt 😅
150 GB für eine Singleplayer Erfahrung und heutzutage gibt es Kaum noch Gigabyte Schwere CGI Cutscenes da in Echtzeit gerendert! Das ist eine ZUMUTUNG und wie man sieht kann anständiges Komprimieren und Programmieren immer noch für massig verkleinerung sorgen!
Ja, wenn das so ist und du genau weißt, wie man die Sache angeht, bin ich schon gespannt auf dein 200 MB Grafik-Epos.
Ich freue mich schon, aber bitte auch voll vertont, stundenlange Videoszenen, hochauflösende Texturen (mit denen man übrigens den Großteil auf der Series S und Switch 2 gespart hat 😉 kannst ja mal ein hochauflösendes Texturen-Pack für ein x-beliebiges Spiel laden, dann weißt du Bescheid) feinsten Animationen und mindestens 40 Stunden Spielzeit. Ich bin gespannt, was du da liefern wirst.
Als wenn Du wirklich was Substantielles über Games Entwicklung wüsstest… Ich habe Programmierer in der Familie, die bei den heutigen 100+GB Größen von Games nur mit demm Kopf schütteln!
Aber bitte konsumiere nur weiter was die AAA Industrie dir an „unkomprimiertem digitalen Fraß“ vorwirft..
Nicht mein Problem xD
Dann können dir die Programmierer in der Familie sicherlich auch das erklären:
Hochauflösende Texturen & Materialdaten (PBR, Normalmaps, Roughness etc.). In modernen UE4/UE5-Pipelines sind das schnell zig GB, weil viele Assets in mehreren Auflösungen/Varianten vorliegen.
Audio in vielen Sprachen (VA + Zwischensequenzen + Kampf-Barks). Mehrere Sprachpakete können überraschend groß sein, vor allem wenn unkomprimierter/hochwertig komprimierter Ton genutzt wird.
Cinematics und deren Audio/Untertitel: Selbst wenn es “nur” einige FMVs sind, liegen sie oft in hoher Bitrate und ggf. in mehreren Versionen (unterschiedliche Framerates/Sprach-Audio).
Duplicate/Pak-Overhead & Streaming-Optimierungen: Spiele packen Daten so, dass Streaming und Ladezeiten stabil sind. Das erzeugt Redundanz (Assets liegen mehrfach/als verschiedene Mip-Setups, Chunking, etc.).
Precomputed Lighting / Reflection Captures / Lightmaps (gerade in Remake gibt’s viel gebautes Lighting) – das sind ebenfalls große Texturpakete.
Plattform-/Patch-Struktur: Manche Stores/Builds behalten alte Datenblöcke oder liefern große “Chunk”-Pakete, die nicht 1:1 der sichtbaren Content-Menge entsprechen.
Ich weiß ja nicht woher deine Expertise kommt aber in unseren Gesprächen Daheim wird zu den Größenangaben von Audio Dateien kaum was gesagt, da dies laut deren und meines Wissens ein nicht besonders gravierender Grund für die modernen Absurd hohen GB in der Games Entwicklung sind.
Es geht vor allem um ineffizientes komprimieren bzw. Heutzutage inkompetentes Upscalen großer 4K Texturen, da dies einfach als „Buzz Word“ auf dem Blatt Papier Modern und Toll aussieht aber auf dem Bildschirm vom Ergebnis für das Menschliche Auge quasi NICHT wahrnehmbar ist wenn lower Res. Textures anständiges upscaling erfahren.
Bei FPS ist der Fall schon schwieriger eine aktzeptable Lösung zu finden da sowohl 40 FPS Modi sowie Frame Pacing Solutions eher suboptimale Ergebnisse bringen.
Zudem ist RT und andere in Echtzeit berechnete Effekte überbewertet und VIEL zu ressourcen Aufwending im Vergleich zu herkömmlichen „Baked Solutions“
Die Industrie hat sich unserer Meinung nach „verrant“
4k Cinematics auf 2-4 CDs gequetscht? Nicht schlecht 😁
Lesen und verstehen, die 4k Cinematics beziehen sich auf die heutigen jrpgs. Sind ja auch nicht alle
Krass! Dass das die Switch auf die Reihe bekommt! Beeindruckend! Muss das unbedingt mal live sehen!
Das ist nicht schlecht, über 100GB sind tzdm viel 😂.