Das vergangene Jahrzehnt brachte enorme Änderungen im Gameplay bei PC-Spielen und es gab in jedem Bereich der PC-Hardware dramatische Entwicklungen.
Um uns einen guten Ü berblick über anstehende Entwicklungen zu verschaffen, haben wir Hardware- und Technologie-Experten bei Intel gefragt, wie sie sich die Evolution des PC-Gamings in den nächsten Jahren vorstellen.
Zu Anfang sprachen wir mit Bryn Pilney, einem der PC-Gaming-Spezialisten bei Intel.
Ist 2020 das Jahr, in dem VR sich endlich im Mainstream etabliert?
In Sachen VR hängt das wirklich davon ab, was Sie als „Mainstream“ definieren. In den letzten Jahren gab es viele positive Entwicklungen im VR-Bereich. Beispielsweise kostengünstigere PC-basierte VR-Optionen wie Windows* Mixed Reality und Inside-Out-Tracking, das keine externen Kameras benötigt.
Wir sehen auch, wie sich das Software-Ökosystem entwickelt. Als hochwertige Head-Mounted Displays wie Vive and Oculus zunächst herauskamen, war einer der häufigsten Kritikpunkte, dass es wenige AAA-Titel dafür gab. Aber es dauert eine Weile, bis man speziell für diese neue Hardware passende Erfahrungen schaffen kann. Nachdem sich Entwickler nun einige Jahre lang mit der Schaffung von Software für neuere Headsets vertraut machen konnten, sehen wir allmählich ehrgeizige VR-Titel wie Half-Life*: Alyx, der dieses Jahr erscheinen wird.
Auf der Grundlage von Steam-Verkäufen haben wir bereits gesehen, dass ein solider AAA-Titel das Potenzial hat, den Umsatz von Headsets zu steigern. Ich glaube, das wird ein enormer Motivationsfaktor werden, der Leute in die VR lockt. Hoffentlich ist das nur der erste von vielen Titeln.
Warum passiert das alles jetzt, wo doch diese Headsets schon seit einigen Jahren auf dem Markt sind?
Einer der wichtigsten Faktoren ist, dass Headsets mit soliden Features, die vollwertige Erfahrungen wie das integrierte Tracking unterstützen, nun preisgünstiger sind.
Außerdem sehen wir auch Wachstum im oberen Marktbereich. Für Kunden, die ein Premium-Erlebnis wollen, eliminieren die neuen Headsets einige der Schwachstellen der Modelle der ersten Generation, wie den sogenannten Fliegengittereffekt, indem sie unterschiedliche Display-Technologien sowie höhere Auflösungen und Bildfrequenzen verwenden.
Egal, ob die Leute das nun wahrgenommen haben, hat es in diesem Segment eine Menge positiver Entwicklungen gegeben. Andererseits wird es mehr als einen Softwaretitel erfordern, um VR wirklich zu etablieren.
Welche PC-Hardwaretrends finden Sie in den nächsten Jahren am faszinierendsten?
Es ist schwer zu sagen, was der nächste Trend sein wird, aber es ist ermutigend, dass sich relativ konzentrierte Gemeinschaften bilden und dann anwachsen. Das zeigt, wie leidenschaftlich die PC-Community insgesamt ist.
Die Mechanische-Tastatur-Community ist ein tolles Beispiel, da sie als eine relativ kleine Gruppe von Enthusiasten begann, nun aber von vielen PC-Gamern akzeptiert wird. Die Zahl der Gamer, die früher nie an ihre Tastatur gedacht hatten, aber nun bestimmte Modelle bevorzugen, zeigt, dass Leute nicht nur bezügliches ihres Computers spezifische Vorstellungen haben, sondern auch wie sie damit interagieren.
Während Tastaturen ein offensichtliches Beispiel darstellen, rücken auch Mäuse-Enthusiasten immer mehr ins Blickfeld. Es gibt Communitys für praktisch jedes Peripheriegerät, von Mauspads zu Audiogeräten. Länger etablierte Communitys haben sogar Untergruppen, wie Monitorfans, die total von Ultrawide-Bildschirmen begeistert sind.
Natürlich kann ich da die PC-Hardware-Fans nicht ignorieren. Ein ausgezeichnetes Beispiel von hardwarebasierten Communitys, die weiterhin wachsen wäre die SFF (Small Form Factor) Gehäuse-Community. Es gibt häufige Beispiele von Leuten, die ihre eigenen Computergehäuse bauen. Manchmal ist das nur für die private Nutzung, aber es gibt auch zahlreiche Personen, die das sogar vermarkten.
Auf welche Spiele freuen Sie sich 2020 am meisten?
Ich spiele immer noch World of Warcraft Classic*, führe eine Raid-Gruppe an und bereite mich auf Blackwing Lair* in Phase 3 vor, weshalb ich erwarte, dass 2020 ein tolles WoW-Jahr für mich sein wird.
Ich habe auch kürzlich einen Valve Index* gekauft und spiele Half-Life* wieder durch, um mich auf Half-Life*: Alyx vorzubereiten.
Im Allgemeinen hoffe ich, dass 2020 ein tolles Jahr für VR wird. Gaming kann eine großartige soziale Aktivität darstellen, aber einige der tollsten VR-Erlebnisse sollte man am besten allein genießen. Da mehr Leute nun HMDs besitzen und Programme wie Valves Hammer* um VR-spezifische Werkzeuge und Komponenten erweitert wurden, hoffe ich, dass wir viele Multiplayer-Szenarien sehen, die Leute dazu ermutigen, das Headset aufzusetzen.
Dann fragten wir Roland Wooster, Principal Engineer und Display Technologist bei Intel, was er für die Zukunft der Display-Technologien voraussagt.
Über welche neuen Anzeigetechnologien sind Sie am meisten begeistert?
Das wäre wohl High Dynamic Range (HDR). Es gibt keine andere neue Anzeigetechnologie, die einen derart offensichtlichen Vorteil bietet. Im Gegensatz zu einer gesteigerten Auflösung, deren Nutzen etwas davon abhängt, wie gut Sie sehen, wie groß der Bildschirm ist und aus welcher Entfernung Sie ihn betrachten, bietet HDT deutliche Vorteile aus jeder Entfernung und bei jeder Auflösung, und hängt dabei nicht davon ab, wie gut ihre Augen sind.
Andererseits ist das auch nicht garantiert, da zahlreiche Variablen die Qualität von HDR und das Ausmaß des Vorteils beeinflussen.
Es ist einfach, einen HDR-Aufkleber an einem Gerät anzubringen, aber das allein macht es noch nicht zu einem besseren Produkt. Ein Aufkleber mit „HDR“ oder „HDR10“ beweist gar nichts und hat keine zahlenmäßige Grundlage. Genauer gesagt bieten einige HDR-Geräte das absolute Minimum an Funktionen, um sich noch als HDR10 bezeichnen zu können. Am untersten Ende der Skala zählt es schon als HDR10, wenn das Gerät HDR10-Eingangssignale verarbeiten und etwas auf dem Bildschirm darstellen kann.
Manche Displays tun das einfach mit den Standard Dynamic Range (SDR) Panels vom letzten Jahr, aber sie werden als HDR verkauft, weil sie das HDR10-Eingangssignal interpretieren können. Allerdings wird das Bild auf dem Monitor sich kaum von einem traditionellen SDR-Display unterscheiden. Und wenn das nicht richtig umgesetzt wird, könnte es sogar schlechter aussehen.
Die Herausforderung, die von VESA angenommen wurde, bestand darin, eine robuste, offene und öffentliche Norm und ein Logo-Programm mit numerischer Basis bezüglich der HDR-Displayleistung zu entwickeln, den sogenannten DisplayHDR-Standard. Die Spezifikationen, Testroutinen, automatisierten Test-Tools und Testvorlagen sind kostenlos auf www.DisplayHDR.org verfügbar und wurden im September 2019 auf Version 1.1 aktualisiert, die strengere Leistungstests umfasst.
Momentan hat VESA sieben separate Leistungsniveaus für HDR. Am hohen Ende konzentrieren sich diese auf die Spitzenluminanz des Displays und diese Zahl wird im Logo angezeigt, z. B. 400, 500, 600, 1000, 1400, und es gibt zwei parallele Gruppen von Spezifikationen für Emissive-Pixel-Displays, die auf dem 400 und 500-Niveau perfekte Schwarztöne erreichen können. Abgesehen davon, dass einfach die Spitzenluminanz gemessen wird, umfassen die VESA-Spezifikationen Anforderungen an das Dimmen, den Farbraum und eine Reihe anderer wichtiger Eigenschaften, die ein hochwertiges HDR-Display definieren.
Das DisplayHDR-Programm wurde vor zwei Jahren gegründet. Mindestens 18 führende Display-Hersteller verwenden den Standard, und über 125 Produkte wurden zertifiziert. Wenn man auf der Suche nach einem HDR-Display ist, sollte man sicherstellen, dass es nach VESA DisplayHDR zertifiziert ist.
Aus welchen Gründen ist HDR besser als SDR?
Einer der wirklich wichtigen Unterschiede zwischen HDR und SDR, über die erhöhte Luminanz hinaus, ist die Fähigkeit des lokalen Dimmens. Dadurch können Segmente des Bildschirms sehr hell sein, während andere Segmente sehr dunkel sind, was das Kontrastniveau erhöht und die Bilder lebensechter wirken lässt.
Von den VESA DisplayHDR-Standards erfordert nur der 400er-Level weder lokales Dimmen noch einen breiten Farbraum. Alle auf der True-Black-Ebene und den klassischen Stufen bei 500 und höher erfordern lokales Dimmen und die Unterstützung für einen breiten Farbraum. Die 400-Ebene ist definitiv besser als SDR, aber der Unterschied zu einem guten SDR-Display ist vielleicht nicht eindeutig erkennbar. Beim Kauf eines HDR-Displays würde ich das 500er Niveau oder höher empfehlen. Je mehr man sich leisten kann, desto besser ist es.
Es gibt auch die irrige Ansicht, dass die höheren Niveaus, wie 1000 oder 1400, „zu hell“ sind, was ein Missverständnis der Grundlagen von HDR-Displays darstellt. Wenn man ein 1000 cd/m2 Display hat, bedeutet das nicht, dass man eine E-Mail bei 1000 cd/m2 eintippt, da das die Augen sofort zu sehr belasten würde.
Selbst auf einem 1000 cd/m2-Display, wird die Luminanz von „Papierweiß“ in SDR-Anwendungen wie Outlook, Webbrowsern, Word, Excel und den meisten anderen Anwendungen vom Endbenutzer je nach der Umgebungsbeleuchtung auf ein angenehmes Niveau festgelegt. Ich persönlich habe mein SDR-Papierweiß-Niveau auf etwa 130 cd/m² eingestellt, das finde ich für meine Umgebungsbeleuchtung optimal.
Es sind nur HDR-Anwendungen, die Zugriff auf Luminanz über dem Niveau von SDR-Papierweiß haben. Das bedeutet, dass nur Spiele, Filme und Inhaltserstellungs-Anwendungen, die HDR unterstützen Zugriff auf den Luminanzbereich von 130-1000 cm/m2 auf meinem Monitor haben. Diese Anwendungen erhöhen nicht unbedingt die durchschnittliche Luminanz der Szene über die eines herkömmlichen SDR-Monitors hinaus. Es sind nur die Glanzpunkte, die den erhöhten Luminanzbereich nutzen.
Ich habe 1000 cd/m2 HDR-Displays daheim und arbeite seit etwa 2 Jahren oft über 10 Stunden täglich daran, ohne dass meine Augen überanstrengt würden. Ich kann mir gar nicht vorstellen, wieder SDR-Displays zu verwenden!
Glauben Sie, dass in den nächsten Jahren HDMI und DisplayPort weiterhin die am weitesten verbreiteten Anschlüsse bei PC-Displays sein werden?
Es ist interessant, dass wir immer noch diese beiden digitalen Schnittstellen mit hoher Bandbreite im Ökosystem haben. Ich glaube, dass alle sich wünschen, dass das auf nur eine konsolidiert würde. Es gibt jedoch zwei verschiedene Lager, und keines will nachgeben, daher werden wir diese beiden Anschlüsse wohl noch lange haben.
HDMI ist der Defacto-Standard für alles, das mit Fernsehern zu tun hat. Üblicherweise haben die Fernsehgeräte nur HDMI-Eingänge. Auf Fernseher orientierte Geräte wie Blu-ray-Spieler, Kabelboxen, Streaming-Boxen und sogar Spielekonsolen haben typischerweise nur HDMI-Ausgänge. Selbst Videokameras für den Konsumentenbereich (falls sie überhaupt einen Ausgang besitzen) verwenden normalerweise HDMI.
DisplayPort ist der Defacto-Standard für alles, das mit dem PC-Ökosystem zu tun hat. DisplayPort war im letzten Jahrzehnt meistens bandbreitenmäßig im Vorsprung.
Um einen Kontext für die Entwicklung dieser Display-Technologien zu bieten, sollte man sich die technische Geschichte der beiden Standards ansehen.
DisplayPort 1.2 unterstützte 4K/60 bevor HDMI 2.0 im PC-Ökosystem verfügbar wurde, daher verwendeten 4K-PC-Monitore und 4K-PCs üblicherweise DisplayPort. Als wir dann für HDR auf 4K/60/10-Bit übergingen (im Vergleich zu 8-Bit-SDR) unterstützte DisplayPort 1.2 diese Bandbreite bereits, im Gegensatz zu HDMI 2.0.
All diese HDR-Monitore basierten auf DP, da HDMI 2.0 für 4K/60/HDR einen Kompromiss darstellte. Dann setzte sich DP mit DP 1.3 noch weiter ab und unterstützte eine 5K-Auflösung, oder 4K mit hoher Bildrate. Dafür konnte HDMI 2.0 keine Lösung anbieten.
Dann entwickelte sich DP noch weiter als DP 1.4 eine bessere Kompressionsmethode bot als die von HDMI 2.0a verwendete Lösung. Um 4K/60/10-Bit zu unterstützen, verwendete-HDMI 2.0a 4:2:2 or 4:2:0 Farbunterabstastung. Das ist vielleicht für Video akzeptabel, aber für Text absolut schrecklich und daher eine sehr schlechte Lösung für die PC-Nutzung. Außerdem erreicht es nur ein Kompressionsverhältnis von 3:2 oder 2:1. Inzwischen bietet DisplayPort 1.4 eine andere Kompressionslösung namens VDSC die eine extrem gute 3:1-Kompression bietet, und ich habe sogar beeindruckende 6:1-Kompression gesehen. Die Verwendung von DP 1.4 mit DSC bietet eine massive Menge an komprimierter Bandbreite, die eine hohe Bildrate, hohe Bittiefe, 4K-HDR und sogar 8K/60 unterstützt.
HDMI führte dann Version 2.1 mit einem riesigen Sprung bei der Bandbreite ein und vermutlich einer dramatisch verbesserten Kompressionsmethode (ich persönlich habe keine Kompressionstests für HDMI 2.1 gesehen, also kann ich darüber nicht kommentieren). Auch wenn das in einigen Geräten auf dem Markt ist, ist die Abdeckung momentan auf 8K-TVs beschränkt. Kürzlich hat DisplayPort Version 2.0 herausgebracht, mit einem noch größeren Sprung in der Bandbreite und sehr beeindruckender Kompression.
Am oberen Ende gibt es so viel Bandbreite, dass dies weit über heutige Display-Technik hinausgeht und daher sehr zukunftssicher ist.
Aber um auf die ursprüngliche Frage zurückzugehen, gibt es beim PC einen dramatischen Trend zu Display-Schnittstellen auf der Basis von USB-C. USB4 umfasst sogar DisplayPort, daher wird das meiner Ansicht nach der Standardanschluss und die standardmäßige Anzeige-Schnittstelle auf allen PCs werden, und ich vermute, dass die PC-Branche sehr schnell dazu übergehen wird. Ich nehme auch an, dass PC-zu-HDMI zunehmend durch USB-C-zu-HDMI 2.1 Dongles und weniger von GPU-Herstellern, Mainboard-Herstellen und OEM-Laptops unterstützt werden wird.