Hab’ ich schon erwähnt, dass wir beim Christoph nächste Woche wieder die Sau rauslassen (geschlachtet wird aber erst Mitte Januar)? Mehrfach? Sehr gut! Muss schließlich sicherstellen, dass ihr nicht vor lauter Weihnachtsstress vergesst hier vorbeizuschauen. Zumal ihr wieder ein bisschen Zeit mitbringen müsst, um den derzeit drittlängsten Eintrag in der Geschichte der Seite zu lesen (knapp 8.900 Wörter!). Zur Erinnerung: Am Montag gibt es Teil 1 der Bagdadsoftware No-One-Cares-Awards 2014 mit den Nominierten in den 14 Kategorien. Am Mittwochabend folgt dann um 20 Uhr der traditionelle Weihnachtsgruß und vier Stunden später erfahrt ihr auch schon die 15 Gewinner der Bagadadsoftware NOCAs. Bereitet euch also schon einmal vor!

Das Vergnügen nach der Arbeit

Kingdom Hearts HD 2.5 Remix (Herstellerbild)

Kingdom Hearts HD 2.5 Remix (Herstellerbild)

Ich hab’ hingegen meine Arbeit schon so weit erledigt und beschäftige aktuell hauptsächlich die PlayStation 3. Die kam dieses Jahr im Vergleich zum PC und zur Xbox 360 definitiv etwas kurz und ringt nach meiner Aufmerksamkeit. Da kam es ganz passend, dass als so ziemlich der letzte relevante Release in diesem Jahr Anfang Dezember Kingdom Hearts HD II.5 ReMIX veröffentlicht wurde. Die dicke Collector’s Edition mit dem genialen Plüsch-Heartless habe ich zwar leider nicht mehr bekommen aber gut. Mangels umfangreicher Vorbestellliste verpasse ich nun halt hin und wieder ein paar Sachen.

Und wie es sich gehört, habe ich noch keine Sekunde davon gespielt. Stattdessen dreht wieder die Kingdom Hearts HD I.5 ReMIX-Bluray seine Runden im Laufwerk, da ich noch nicht alle drei enthaltenen Titel (Kingdom Hearts: Final Mix und Kingdom Hearts Re:Chain of Memories sowie Kingdom Hearts: 385/2 Days als Film) durch habe. Aber ich nähere mich dem Ende.

ARGH!

Neben Kingdom Hearts HD I.5 ReMIX arbeite ich aber auch ein weniger weiter an den “Klassikern”, um wieder Futter für einen Late to the PS3-Part-Spieleeintrag zu bekommen (und natürlich die Historie erlebt zu haben). Dabei musste ich mal wieder ganz klar feststellen, dass der Sixaxis-Controller Sonys größter Fehler bei der PlayStation 3 war. Also nicht nur, weil der Controller an sich wohl ziemlich Müll war, weshalb er ein Jahr später durch den DualShock 3 ersetzt wurde, sondern wegen diesem VERDAMMTEN Motion-Control-Scheißdreck. Der Hauptgrund aus meiner Sicht, warum viele Launchtitel beziehungsweise Spiele der ersten Generation auf der PlayStation 3 so extremer Mist sind, war der Zwang für die Entwickler unter allen Umständen diese scheiß Sixaxis-Steuerung einbauen zu müssen.

LAIR (Herstellerbild)

LAIR (Herstellerbild)

Bestes Beispiel dafür ist logischerweise LAIR. Ihr wisst schon, das Spiel von Factor 5, dass der geistige Nachfolger zu den Star Wars Rogue Squadron werden sollte und auch das Potential dazu hatte. Statt in einer fernen Galaxie einen X-Wing zu fliegen, ward ihr im Mittelalter auf einem Drachen unterwegs. Theoretisch die zweitgenialste Spielidee auf Erden (die erste ist eine anständige Umsetzung von Pacific Rim) und 2007 mit einer wahnsinnig geilen Grafik und einem fantastischen Soundtrack ausgestattet. Leider ist es selbst nach den Patches, die versucht haben eine “normale” Steuerung einzubauen, vollkommen unspielbar dank des völlig unbrauchbaren Herumfuchtelns mit dem Controller.

ARGH!, die Zweite

Nun wollte ich mich mit Heavenly Sword beschäftigen bevor ich großartig in die God of War-Reihe einsteige. Quasi so als kleiner Aperitif und Ausgleich zum muskelstrotzenden Kratos mit der (leider mal wieder leicht bekleideten) jungen Nariko und ihrem langen, wogenden roten Haar (aus heutiger Sicht natürlich Grafisch ein Witz im Vergleich zu dem, was Tomb Raider beispielsweise bietet) ein wenig (wohl so 7-9 Stunden) auf den Putz hauen. Wurde auch im Gegensatz zu LAIR damals halbwegs gut bewertet (75-85%). Neben der Grafik wurde vor allem der Soundtrack von Nitin Sawhney und das Kampfsystem gelobt.

Fing auch alles soweit okay an, bis es dann plötzlich hieß: “Der Feind bringt Katapulte in Stellung. Bemann die Kanone und decke unseren Rückzug!” Damit startete die erste “richtige” Sequenz (es gab vorher schon eine, aber da war Sixaxis optional), in der ihr gezwungen werdet ein Projektil mit dem Controller ins Ziel zu manövrieren. Ich bin mal so frech zu behaupten, dass das keiner im ersten Anlauf geschafft hat obwohl ihr mehrere Minuten Zeit für die 12 notwendigen Treffer habt. Ich habe es immerhin schon im zweiten Anlauf geschafft aber natürlich ohne auch nur ansatzweise das Combo-Meter nach oben zu bringen (schaltet zusätzliche Sachen frei).

Lass mal gut sein!

Heavenly Sword (Herstellerbild)

Heavenly Sword (Herstellerbild)

Es war extrem frustrierend die Kanonenkugeln zu steuern. Es ist schon an sich ein Problem nachzuvollziehen, wie sich meine Bewegungen mit dem Controller auswirken. Wenn dann aber wie hier auch noch die Reaktion verzögert erfolgt (soll vermutlich einen realistischeren Flug simulieren), bin ich komplett am Ende und würde am liebsten das Gamepad in die Ecke feuern. Und ich bezweifle stark, dass das die letzte Sequenz dieser Art war. Zumal ihr selbst in den Kämpfen hin und wieder den Controller anheben müsst, um eine Konterattacke zu starten. Werde ich aber höchstwahrscheinlich niemals tun. Mehr dazu aber dann im dazugehörigen Eintrag sobald ich es dann mal durch habe.

ES braucht auf jeden Fall keinen zu wundern, dass ich bis heute (!) noch nicht mit einer Wii gespielt habe (vielleicht beim nächsten Preisnachlass der WiiU dann) und Kinect sowie PlayStation Move nur von gamescom-Terminen kenne. Bleibt mir bloß weg mit diesem Teufelszeug solange es nicht anständig und hundertprozentig funktioniert! Ansätze, wie man es richtig machen könnte, gibt es aber glücklicherweise schon. Die Razer Hydra ist beispielsweise eing großes Stück weiter und geht eindeutig in die richtige Richtung. Die könnte zusammen mit der Oculus Rift (und natürlich entsprechender Spieleunterstützung) mächtig einschlagen. Aber ein Day-One-Kauf wird auch die nicht für mich. Aber schauen wir mal, was 2015 beziehungsweise vermutlich eher 2016 so in der Richtung bringen wird.

Bis Montag!

Nach den ersten beiden Teilen meines kleinen Hardwareausblicks, die sich auf die Themen Prozessoren und Chipsätze konzentrierten, habt ihr nun wie angekündigt den letzten und mit Abstand interessantesten Teil vor euch auf dem Bildschirm. Und Bildschirm ist da ein ganz tolles Stichwort, denn es soll heute um das große Thema des Visuellen gehen.

Bevor wir in die Thematik einsteigen jedoch aus aktuellem Anlass noch die Information, dass Intel zwischenzeitlich angekündigt hat, die neuen 100er-Chipsatzgeneration für Skylake mit bedeutend mehr und zudem signifikant schneller angebundenen PCIe-lanes auszustatten. Damit wird einer meiner elementaren Kritikpunkte an den letztjährigen Generationen ausgemerzt und die Kombination Intel Skylake + 100er Chipsatz bedeutend attraktiver. Insbesondere für SSDs, die in Zukunft – zumindest in Systemen von Enthusiasten – allesamt von den S-ATA-Ports in die PCIe-Slots wechseln dürften, ist das eine herausragende Nachricht. Meine Empfehlung für aufrüstwillige Desktopnutzer kann jetzt also endgültig nur noch lauten: Broadwell auslassen und auf Skylake warten. Alles andere wäre absurd.

Aber nun zum eigentlichen Thema: Grafik und Bildwiedergabe. Wer mich kennt, weiß, dass das ein Gebiet ist, das mich besonders reizt. Aber was hier bis Ende 2015 auf uns zukommt, sollte jeden halbwegs Technikinteressierten und allem voran natürlich Gamer interessieren. Eine vielversprechende GPU-Generation, hochwertige, mit neuen Funktionen ausgestattete und erschwingliche 4K-Bildschirme, DirectX 12 (im Zuge von Windows 9) und natürlich Oculus Rift. Hier ist für jeden was dabei. Und jede einzelne dieser neuen Entwicklungen bringt spürbare, teils revolutionäre Fortschritte. Holt man sich das Gesamtpaket, so wird man natürlich umso mehr fasziniert sein. Aber eines nach dem anderen.

Neue GPU-Generation

GeForce GTX 750 Ti (Herstellerbild)

GeForce GTX 750 Ti (Herstellerbild)

Normalerweise ist es relativ langweilig, über neue Grafikkarten zu berichten. Die grobe Formel “20%-30% mehr Leistung bei idealerweise etwas weniger Verbrauch” gilt als etabliert. Was nVidia mit seiner neuen Maxwell-Architektur abliefert, hat es jedoch verdient, besonders hervorgehoben zu werden. Bislang gibt es nur zwei Desktopkarten dieser Generation: die GTX750 und GTX750Ti. Aber die haben es durchaus in sich. Während das Leistungsniveau der Bezeichnung entsprechend wenig überraschend im unteren Mittelklassebereich liegt, ist die Energieeffizienz auf Referenzniveau. Eine vergleichbar leistungsstarke Karte der Vorgängergeneration (z.B. die GTX650Ti Boost) zieht zwischen 40 und 50 Watt mehr aus der Steckdose. Anders gerechnet kann man ebenso sagen, dass eine GTX750Ti 40% mehr Leistung bietet als eine andere Grafikkarte mit ähnlichem Stromverbrauch. Entsprechend niedrig sind auch Temperaturentwicklung und Geräuschniveau (es gibt sogar komplett lüfterlose Karten). Zudem werden – je nach Hersteller – auch keine zusätzlichen Stromkabel benötigt. Und das ist – abseits aller Zahlenspielereien – einfach nur beeindruckend. Wer sich mit 30fps oder mittleren Grafikeinstellungen begnügt, bekommt für knapp 130 Euro eine Grafikkarte, die sehr sparsam, sehr leise und relativ kühl ist. Stark. Erste Oberklassekarten mit der neuen Architektur sind für das vierte Quartal 2014 angekündigt. Erste Gerüchte besagen, dass eine mögliche GTX880 etwa 20-30% schneller als eine GTX780Ti sein soll. Soviel also zur neuen Architektur.

Das wirklich interessante ist jedoch, dass alle diese Karten noch in 28nm gefertigt sind. Mit dem für Anfang/Mitte 2015 erwarteten Sprung auf 20nm (oder gar 16nm) sollte sich die Energieeffizienz nochmals spürbar verbessern. Ebenso werden im nächsten Jahr neue Schnittstellen in die Grafikkarten einziehen: HDMI 2.0 (wichtig für 4K @ 60Hz an Wiedergabegeräten ohne Display Port – also vornehmlich Fernsehern) und Display Port 1.2a bzw. 1.3 (wichtig für die Adaptive Sync Technologie, die dafür sorgt, dass sich die Bildfrequenz des Monitors an die fps-Rate anpasst und dadurch Zeilenverschiebungen eliminiert werden). Zudem, und das ist eine weitere, sehr erfreuliche Nachricht, wird ersten Gerüchten zufolge auch bereits DirectX12 vollumfänglich unterstützt.

Wir halten also fest:

  • Neue, spürbar verbesserte Architektur
  • Neuer Fertigungsprozess in 20nm/16nm
  • Neue Schnittstellen (HDMI 2.0, DP 1.2a)
  • Unterstützung von DX12

Neue Bildschirme

Redet man über die Leistungsfähigkeit und technische Ausstattung von Computern, denkt man zumeist an die Innereien des Gehäuses und nur selten an jenes Gerät, das einem die Leistung des Rechners auch optisch präsentiert. Das ist insofern verständlich, als das sich im Bereich Bildschirme seit Jahren nicht mehr viel getan hat. Andererseits entscheidet sich hier maßgeblich, ob die von der GPU berechnete Grafikpracht auch unverfälscht dem Nutzer präsentiert wird. Erfreulicherweise kommen einige sehr interessante Weiter- und Neuentwicklungen auf uns zu.

nVidia G-Sync Chip (Herstellerkonzept)

nVidia G-Sync Chip (Herstellerkonzept)

Die offensichtlichste Neuerung hat bereits Einzug auf den Markt gehalten: Ultra High Definition (UHD). Gemeint ist damit die Auflösung von 3840*2160 und damit die vierfache Pixelanzahl wie bei dem heute gängigen FHD-Pendant. Damit geht natürlich eine sichtbare Verbesserung der Bildschärfe einher. Zwar kann man sich durchaus streiten, ob man diese Auflösung bei den vergleichsweise kleinen Bildschirmen von PC-Nutzern benötigt, aber die Unterschiede sind doch bemerkenswert. Während man bei Smartphones und Tablets mittlerweile schon bei irrwitzigen Pixeldichten von ca. 550ppi angelangt ist, erreicht man selbst auf einem 28″-UHD-Monitor lediglich 157ppi. Die Verbesserung ist also tatsächlich noch sichtbar und durchaus sinnvoll, während man dies bei den heutigen Smartphones definitiv nicht mehr behaupten kann. Aber zurück zum Thema: Spiele profitieren von einer höheren Plastizität, die Arbeitsumgebung von mehr Bildfläche. Aktuell gibt es aber zu beiden Punkten starke Einschränkungen: Für Spiele in UHD und maximalen Details fehlt noch die nötige Grafikleistung, Desktoparbeiten leiden – auch unter Windows 8.1 – noch unter unzuverlässigen, oft fehlerhaften Skalierungen. Aber da wir ja in das Jahr 2015 blicken gilt hier eindeutig: UHD wird kommen und uns Gamern und Technik interessierten jede Menge Vergnügen bereiten.

Die für mich aber noch verlockendere Entwicklung sind Technologien, die die Aktualisierungsrate (refresh rate) von Monitoren an die von der GPU berechneten Bilder pro Sekunde (fps) anpasst. Seitens nVidia nennt sich das G-Sync, AMDs Pendant ist als Freesync betitelt. Die Ansätze unterscheiden sich leicht: Freesync ist herstellerunabhängig und zudem im offenen DisplayPort-Standard verankert (damit lizenzfrei), während G-Sync nur mit nVidia-Grafikkarten funktioniert und Monitore über einen entsprechenden Chip verfügen müssen. Wobei nach aktuellem Informationsstand aber auch für Freesync nicht jeder Monitor geeignet ist. Das Ergebnis ist aber dasselbe: Da sich Hz-Zahl von Monitor und Bildrate der Grafikkarte gleichen, entsteht kein hässliches und teilweise echt störendes Tearing (Zeilenverschiebungen bzw. Bildüberlagerungen) mehr. Bislang konnte man dieses Phänomen lediglich mit aktivierter vertikaler Synchronisation (VSync) bekämpfen. Hierdurch wurde eine Beschränkung der Bildrate auf (meistens) 60fps und damit exakt auf die Herzfrequenz gängiger Monitore erreicht. Allerdings muss man für diese Verbesserung in Regel einen höheren Input-Lag in Kauf nehmen. Jeder von euch sollte das schwammige und träge Gefühl von Mausbewegungen bei aktivierter vertikaler Synchronisation kennen. Für schnelle Spiele ist das also kein probates Mittel. Zudem funktioniert das ganze natürlich nur dann effektiv, wenn es die Grafikkarte auch überhaupt schafft, mindestens 60fps zu rendern – bei FullHD, maximalen Details und aktivierter Kantenglättung ist das bei den am häufigsten verbauten Mittelklassegrafikkarten keine Selbstverständlichkeit.

Asus ROG SWIFT PG278Q(Herstellerbild)

Asus ROG SWIFT PG278Q (Herstellerbild)

Der Vorteil der neuen Techniken liegt also auf der Hand: eine saubere, fehlerfreie Bildwiedergabe sowohl unterhalb als auch oberhalb von 60fps. Ein erster Monitor mit nVidias G-Sync ist seit Anfang August auch schon erhältlich, weitere angekündigt: Der Asus PG278Q ist ein 27″ Zoll Monitor mit einer Auflösung von 2560×1440, 1ms Reaktionszeit (grau zu grau) 144Hz-Panel und eben mit verbautem G-Sync-Modul. Dazu noch vielfach ergonomisch verstellbar und mit extrem schmalem Gehäuse. Allerdings: Es ist nur ein TN-Panel verbaut und der Preis liegt mit 800,00 € exorbitant hoch. Aber auch hier gilt: wir schauen ja auf das Jahr 2015 und bis dahin wird es das ganz sicherlich (hoffentlich) auch für 4K-Monitore und zu erschwinglicheren Preisen geben. Auf den perfekten Monitor (IPS, 4K, 1ms, 144Hz, G-Sync) wird man aber wohl vergeblich warten.

Kleiner Wehmutstropfen zum Schluss: Wer, trotz des horrenden Preises, tatsächlich von einem 3-Monitor-Setup mit oben genannten Asus-Monitoren träumt, muss bangen: G-Sync erfordert zwingend die Verwendung eines Display Ports. Da es aktuell keine nVidia-Grafikkarte mit drei (oder auch nur zwei) DPs gibt, muss auf spezielle “G-Sync-Editionen” kommender Grafikkarten gehofft werden. Oder man bastelt sich natürlich ein Triple-SLI-System – für weitere 1000-1500 Euro :smile:.

Wir fassen also auch hier zusammen:

  • Auflösungen oberhalb von FHD werden Standard (2560×1440/3840×2160)
  • 120Hz bzw. 144Hz werden erschwinglich
  • G-Sync/FreeSync etabliert sich langsam
  • Kurzum: schärfere, flüssigere und fehlerfreie Bildwiedergabe

DirectX 12

Im Zuge von Windows 9, welches neuesten Gerüchten zufolge bereits Anfang 2015 erscheinen soll, wird auch eine neue Version von DirectX auf unseren Rechnern Einzug halten. Während man damit in der Vergangenheit fast ausschließlich neue grafische Funktionen verband, zeichnet sich Version 12 durch zwei besondere Verbesserungen aus: dem Bekämpfen des Overheads und besseren (=gleichmäßigeren) Auslastung mehrerer Prozessorkerne. Analog zu AMDs Mantle-Technologie – und vielleicht auch überhaupt erst durch deren Markteinführung bedingt – widmet sich nun also auch Microsoft (sicherlich auch auf Druck von nVidia) ähnlichen Optimierungen. Die Ziele sind die gleichen: bessere Performance, also gesteigerte Bildraten insbesondere bei schwächeren Prozessoren. Tests von AMDs Mantle sind durchaus beeindruckend und unterstreichen deutlich, dass es heutzutage oftmals die Software ist, die man verbessern sollte, statt ständig nach neuer, leistungsfähigerer Hardware zu rufen. Egal ob Mantle oder DX12 – Gamer werden Grund zur Freude haben. Teils spürbare Verbesserungen zum Nulltarif nimmt man doch gerne mit. Da unabhängig davon auch Windows 9 einige sinnvolle Änderungen verspricht (und durch die ungerade Ziffer sowieso wieder gut wird), ist es nur logisch, bei dem geplanten Rechner in 2015 auch softwareseitig aufzurüsten. Nicht zuletzt durch DX12 ist das auch bedeutend zukunftssicherer.

Oculus Rift

Oculus Rift DK2 (Herstellerbild)

Oculus Rift DK2 (Herstellerbild)

An dieser Stelle war ursprünglich ein umfangreicher Bericht über die wohl spannendste Entwicklung in 2015 geplant: das erstmalige Aufkommen marktreifer und hochwertiger VR-Technologie. Stattdessen erwarten euch jetzt nur einige, inhaltsleeren Zeilen. Der Grund ist einfach: Es wurde eigentlich schon alles zu dem Thema gesagt. VR und insbesondere die OR sind mittlerweile allgegenwärtig. Ich könnte hier nichts schreiben, was nicht eh schon bekannt wäre. Und da ich eine solche Brille auch noch nie selbst auf dem Kopf hatte, kann ich auch nicht von persönlichen Eindrücken berichten.

Daher nur ganz kurz: VR wird Ende 2015 “das nächste große Ding”. Da sind sich fast alle einig. Auch wenn auffällt, dass sich in der Berichterstattung langsam kritische Stimmen häufen. Auch beim aktuellen zweiten Development Kit, das über ein FHD Panel verfügt, sind die Pixel noch deutlich sichtbar. Ein Umstand, der viele Nutzer aus der Illusion herausreißt. Zudem wird der eingeschränkte Erfassungswinkel der externen Kamera bemängelt. Und nach wie vor hapert es an Software, die die Funktionen vollumfänglich und vor allem fehlerfrei nutzt. Natürlich: Es ist nach wie vor ein Entwicklerkit, zudem vergeht bis Ende 2015 noch viel Zeit. Man sollte die Erwartungen ob des enormen anfänglichen Hypes aber dennoch nicht zu hoch setzen. Zumindest die erste erwerbbare Version dürfte noch nicht “perfekt” sein. Zu dem hier skizzierten “Nerd-Rechner” in 2015 gehört VR aber zweifelsohne dazu.

Zusammenfassung

Der Kaufbefehl ergeht somit wie folgt:

Prozessor: Intel Skylake…
Mainboard: …mit 100er-Chipsatz
Grafikkarte: nVidia Maxwell in 20nm/16nm
Monitore: mindestens 1x2560x1440 mit 144Hz und G-Sync
Software: Windows 9 (wegen DX12)
Zubehör: Oculus Rift

Und wer es richtig ernst meint, kauft sich ausschließlich PCIe-SSDs, die auf NVMe setzen. Dazu schreib ich zwar auf absehbare Zeit keinen Artikel, aber das wird ebenfalls eine dieser vielen “beeindruckenden Weiterentwicklungen in 2015” werden.

Nun verabschiede ich mich mit dem gut gemeinten Rat: Spart alle schon einmal ordentlich Geld bis Ende 2015, denn das oben genannte System dürfte mindestens 3000 Euro kosten :smile: .

Nachdem sich Teil 1 meines kleinen Hardwareüber- und Ausblicks auf Prozessoren konzentriert hat, folgt nun Teil 2, der sich den mit Prozessoren stark zusammenhängenden Chipsätzen widmet.

Teil 2: Chipsätze

Bei den Chipsätzen geht die allgemeine Entwicklung leider noch langsamer voran als bei den CPUs – was schon eine “erstaunliche Leistung” ist. Denn während man bei den CPUs noch argumentieren kann, dass momentan in Alltagsszenarien kein Bedarf für mehr Rechenkraft vorhanden ist und die Umstellung auf 14nm schlichtweg Zeit braucht, gibt es bei den Chipsätzen durchaus neue Technologien, die man eigentlich in den Chipsatz hätte integrieren können. Aber hier treten sowohl Intel als auch AMD auf die Bremse. Nun bin ich natürlich kein Ingenieur. Möglicherweise gibt es einfach nur große technische Hürden bei der Integration weiterer Funktionen zu überwinden. Dennoch finde ich es sehr traurig, dass man seit Jahren einen erheblichen Mangel an PCIe-Lanes hat und technische Weiterentwicklungen erst sehr spät berücksichtigt werden.

Funktionsweise eines PCIe mit 2xLink

Funktionsweise eines PCIe mit zweifach Link

Ersterer Punkt führt beispielsweise dazu, dass man aktuell sowohl mit den 8er-Chipsätzen für Haswell als auch den 9er-Chipsätzen für Broadwell “nativ” maximal sechs S-ATAIII-Anschlüsse zur Verfügung hat. Möchte man mehr, ist man auf externe Zusatzchips angewiesen. Zudem ärgern sich SLI/Crossfire-Freunde seit Jahren darüber, dass man das GPU-Gespann nur im 2×8-Modus nutzen kann statt im optimalen 2×16-Modus. Zu guter letzt leiden aber auch neue Funktionen wie S-ATA-Express (wird entgegen der ursprünglichen Ankündigung sowieso nicht nativ unterstützt) oder der neue M.2-Standard für SSDs unter diesem Flaschenhals, da man sie aufgrund mangelnder Links einerseits nicht parallel nutzen kann beziehungsweise sie andererseits selbige abzwacken wodurch sie dann an anderer Stelle fehlen. Zudem: Bei der von Intel vorgesehenen Aufteilung der vorhandenen Lanes wird der M.2-Slot nur mit halbierter Bandbreite benutzt.

Natürlich: Das ist Meckern auf hohem Niveau. Den allermeisten reichen sechs S-ATAIII-Ports (oder auch sechs USB3.0-Ports), auch ist die Anzahl von SLI/Crossfire-Nutzern überschaubar (zudem leidet die Leistung nicht erheblich unter dem 2×8-Modus). Und dennoch nervt dieser Stillstand. Zumal diese Knappheit auch praktische Nachteile im Komfort hat. So müsst ihr beim Zusammenbau eines neuen PCs akribisch darauf achten, welche Anschlüsse ihr nutzt. Denn wie gesagt: Nicht alle bieten volle Leistung (S-ATA, USB), andere wiederum schließen sich gegenseitig aus. Eine weitere konkrete Folge ist die selbst für Profis nur schwer zu durchschauende Vielzahl verschiedener Mainboardvarianten auf dem Markt. Hier sollte man ganz genau hinschauen, bevor man eine Kaufentscheidung trifft.

USB 3.1 Kabel (Prototypfoto)

USB 3.1 Typ A (Herstellerfoto)

Ein Beispiel für das Ignorieren bereits bestehender Technologien ist aktuell, dass man – obwohl der Standard bereits angekündigt und daher bekannt ist – selbst bei den Mitte 2015 erscheinenden 100er-Chipsätzen für Intels Skylake nach aktuellem Informationsstand nicht auf USB 3.1 setzen wird. Das ist sehr ärgerlich, bringt dieser Standard neben mehr Geschwindigkeit doch vor allem auch die “geniale” Neuerung, dass beim Anschließen des Kabels nicht mehr auf die richtige Ausrichtung geachtet werden muss. Wer kennt das nicht: erster Versuch, das USB-Kabel anzuschließen -> verdammt, falsch herum -> zweiter Versuch mit umgedrehtem Kabel -> verdammt, immer noch falsch herum -> dritter Versuch -> ah, jetzt geht’s :smile: . Zudem bin ich gespannt, ob Intel ab der 100er-Serie HDMI2.0 unterstützen wird. Ich bin da ja eher pessimistisch. An der Problematik mit den PCIe-Lanes wird sich wohl ebenfalls nichts ändern.

Bereits gesichert – und damit Hauptargument für das Warten auf die Skylake-Prozessoren anstelle eines Kaufs der parallel erhältlichen Broadwell-Vertreter: DDR4 wird nativ unterstützt und ein neuer Sockel (mit 1151 Pins) verwendet. Zudem ist bekannt, dass bei der 100er-Serie neue (unter anderem deutlich schnellere) Thunderbolt-, W-Lan- und LAN-Chips verwendet werden. Insbesondere Thunderbolt solltet ihr dabei im Blick behalten, da vorgesehen ist, diesen “zum Start der Skylake-Plattform als Lösung für alles […] zu vermarkten. Über ein einziges Kabel können zwei 4k-Bildschirme versorgt und gleichzeitig Daten übertragen sowie externe Geräte geladen werden”. Ob und wie das letztlich in der Praxis aussieht, ist natürlich ein anderes Thema. Generell muss zum Thema Skylake bzw. der 100er-Chipsatzserie erwähnt werden, dass es noch mindestens ein Jahr bis zur Veröffentlichung hin ist. Es ist also durchaus möglich, dass die eine oder andere Neuerung noch angekündigt wird.

Zusammenfassung

Das Thema Chipsätze ist sehr komplex. Ich habe hier bewusst nur eine sehr oberflächliche und sicherlich unvollständige Darstellung geboten. Gerade bezüglich der PCIe-Lanes und deren Verwendung und Aufteilung kann man seitenweise sehr interessante Artikel im Netz finden. Meine persönliche, stark verkürzte Meinung ist aber ganz klar, dass man hier den technologischen Möglichkeiten stark hinterherhinkt. Mein Traum eines “kompletten” Mainboards ohne Zusatzchips wird auch 2015 weiterhin nicht erfüllt.

Samsung DDR4 Module (Herstellerbild)

Samsung DDR4 Module (Herstellerbild)

Und dennoch: Mit DDR4, dem neuen “zukunftssicheren” Sockel LGA 1151, dem deutlich schnelleren Thunderbolt, den neuen (W)LAN-Chips und ggf. weiteren Neuerungen sind die 100er-Chipsätze auf alle Fälle interessanter und empfehlenswerter als die zuletzt vorgestellten 8er- und 9er-Reihen. Auch hier gilt also: Wer mit dem Gedanken spielt, sich einen neuen Rechner zu kaufen, wäre gut beraten noch etwas abzuwarten.

Dies gilt im Übrigen auch für die AMD-Anhänger unter uns. Der Grund weshalb ich AMD in diesem Artikel komplett außen vor gelassen habe ist der, dass AMD – meiner bescheidenen Meinung nach – aktuell im direkten Vergleich mit Intel einfach zu unattraktiv für Desktop-Nutzer ist. Es gibt jedoch ein paar sanfte, wenn auch sehr vage Signale, dass AMD ab 2015/2016 im Desktopsegment wieder angreifen möchte. Es wäre wünschenswert. Nicht nur für AMD-Freunde. Sich zum jetzigen Zeitpunkt aber ein neues System auf AMD-Basis zu kaufen kann ich definitiv nicht empfehlen.

Während Prozessoren und Chipsätze in der Summe also auch in 2015 weiterhin dem bisherigen Motto der “kleinen Trippelschritte” folgen, versprechen die Neuerungen im visuellen Bereich revolutionär zu werden. Mehr dazu folgt im spannenden Finale dieser Artikelreihe in den kommenden Monaten.

Es ist mal wieder so weit: der Webmaster schreit nach einem Gastbeitrag und nachdem sich die erste Panik gelegt hat und die peinlichen Versuche, sich mit schlechten Ausreden davonzuschleichen, gescheitert sind, macht man es halt doch: Ich entscheide mich gegen das Schauen diverser WM-Spiele und beginne zu schreiben. Und zwar über das einzige Thema, dass ich mir halbwegs ohne große Recherche aus dem Ärmel schütteln kann: Hardware. Jawohl, mal wieder Hardware. Nach wie vor ist es so, dass zwar mein Interesse an Spielen (bzw. dem Spielen der selbigen) sehr stark schwankt, meine Leidenschaft für die Technik aber nach wie vor uneingeschränkt ist. Obwohl ich also eigentlich keinen Bedarf habe, durchstöbere ich täglich mehrfach das Internet nach Neuigkeiten über Hardware. Paradox.

Dieses Bild benötigt keine Beschriftung

Dieses Bild benötigt keine Beschriftung

Und apropos “kein Bedarf”: Bringen wir eine der Hauptaussagen des Artikels gleich mal hinter uns. In nahezu jeder Hinsicht ist es – mal wieder beziehungsweise immer noch – ein schlechter Zeitpunkt sich neue Hardware zu kaufen. Einerseits eben, weil sich nichts an der Situation geändert hat, dass Mittelklasse PCs für fast alle aktuellen Spiele in FHD und hohen Details ausreichen. Andererseits, weil der Hardwaremarkt stagniert und sich bestenfalls in Trippelschritten vorwärts bewegt. Wir PC-Spieler, besonders die technisch anspruchsvollen, werden unverändert gefoltert. Stillstand wohin man schaut. Seit Jahren die immer gleichen, innovationslosen, technisch unspektakulären Spiele. Und entsprechend auch seit Jahren der gleichbleibende, mittelmäßige Anspruch an die Hardware. In gewisser Weise ist das natürlich ein schöner Umstand: man kann ohne neue Kosten seit Jahren in aller Ruhe weiterzocken. Kombiniert mit den regelmäßigen Verkaufsaktionen auf den einschlägigen Vertriebsplattformen ist das Hobby “PC-Gaming” seit langer Zeit nahezu kostenlos. Zumindest für die geduldigen Naturen unter uns. Und dennoch sind zumindest bei mir der Trieb und das Bedürfnis vorhanden, endlich den nächsten Schritt zu gehen. Endlich wieder einen Aha-Moment zu erleben. Etwas Neues, noch nie dagewesenes, etwas Spektakuläres. Etwas, dass mich auch mit meinen nunmehr 30 Lenzen stolz und laut sagen lässt: “Jawohl, ich bin begeisterter PC-Spieler!” Wie gerne ich das hinausschreien würde. Aber die Industrie macht es mir seit einer Ewigkeit sehr schwer.

Immerhin, und damit rette ich nun den Artikel gerade noch so vor einem kompletten depressiv-pessimistischen Einschlag, gibt es einige Anzeichen, dass sich das ab 2015 ändern wird. In nahezu allen elementaren Aspekten stehen uns spürbare Veränderungen bevor. Teil 1 meiner kleinen Serie widmet sich zuerst den Prozessoren.

Teil 1: Prozessoren

Intel Roadmap 2H13/1H14

Intel Desktop Prozessoren Roadmap 2H13/1H14

Was passiert, wenn ein Unternehmen den Markt dominiert, lässt sich seit einiger Zeit prima anhand von Intel beobachten. Seit Sandy Bridge im Januar 2011, also vor über drei Jahren, auf den Markt kam, hat sich nicht mehr viel Bemerkenswertes getan. Natürlich: Sandy Bridge war eine herausragende Prozessorarchitektur und hat in vielerlei Hinsicht die Messlatte ein ganzes Stück nach oben gesetzt. Ein i5-2500K beispielsweise ist auch heute noch ohne Abstriche ausreichend für nahezu alle denkbaren (Gamer-)Szenarien. Ivy Bridge (2012), Haswell (2013) und der aktuelle Haswell Refresh (2014) haben – sehr verkürzt und vereinfacht formuliert – keine tiefgehenden Veränderungen und vor allem keine wirklich spürbaren Leistungssteigerungen mehr gebracht. Ein Intel i5-4690 (Haswell Refresh) ist in realistischen Spieleumgebungen (FHD, max. Details) zum Beispiel nur 8% schneller als sein über drei Jahre alter Vorläufer i5-2500K (Sandy Bridge). Bei Anwendungsbenchmarks, die die CPU mehr fordern sind es immerhin 22% (alles basierend auf Testresultaten von Computerbase.de). Hätte sich wenigstens die Energieeffizienz deutlich verbessert, könnte man darüber hinwegsehen. Aber weder bei der Leistungsaufnahme noch bei den Temperaturen konnten Fortschritte erzielt werden. Im Gegenteil: Je nach Szenario verbraucht ein Haswell Refresh etwas mehr Strom (immerhin auch bei etwas mehr Leistung) und wird deutlich wärmer. Dass über die vielen Jahre natürlich das ein oder andere Feature hinzugekommen ist, soll an dieser Stelle ignoriert werden. Was für den Otto-Normal-Nutzer am Ende des Tages wichtig ist, ist die Leistung in den Standardanwendungen. Und hier hat sich leider viel zu wenig getan in den letzten dreieinhalb Jahren.

Für die nächsten 12 Monate kündigte Intel nun gleich zwei neue Prozessorgenerationen an: Broadwell (Q4/2014-Q2/2015) und Skylake (ab Q2/2015). Über die Gründe, weshalb Intel diesen verwunderlichen Schritt geht und quasi parallel einen Tick und einen Tock auf dem Markt führt, kann aktuell nur spekuliert werden. Das in meinen Augen plausibelste Argument ist das, dass Intel vor allem im Mobile-Bereich unter enormen Zeit- und Erfolgsdruck steht und daher Broadwell so schnell wie möglich veröffentlichen muss. Daher starten auch die mobilen Vertreter zuerst. Und noch in 2014. Und in der Tat, Broadwell könnte etwas Revolutionäres gelingen: Lüfter- bzw. wenigstens lautlose Mittelklasse-Notebooks (erste Geräte sind bereits angekündigt). Bei etwas Ingenieurskunst und hochwertigem Kühlkonzept womöglich sogar in der Oberklasse. Möglich wird dies natürlich vor allem durch den Sprung von 22nm auf 14nm. Entsprechend dürften auch die im Q2/2015 folgenden Desktopvertreter endlich wieder etwas stromsparender und kühler werden als selbige aus der Haswell-Generation. Ob sich hingegen bei der Leistungsfähigkeit (abseits der obligatorischen ca. 10% Zugewinn) etwas tut, darf bezweifelt werden. Schließlich ändert sich nicht die Architektur, sondern nur der Fertigungsprozess.

Für Desktopnutzer – und diese stehen in meiner Betrachtung im Mittelpunkt – wäre ein Umstieg auf Broadwell also nur bedingt empfehlenswert. Zu klein ist in meinen Augen der Unterschied zu den Vorgängern. Notebooknutzer oder jene, die es werden wollen (dazu gehöre ich), können sich aber auf eine spürbare Verbesserung einstellen. Diejenigen, die sich einen performanten Tischrechner zum Zocken und anspruchsvollen Arbeiten basteln wollen, wären – basierend auf der aktuellen Informationslage – aber durchaus besser damit beraten auf Intels Skylake zu warten. Dies liegt weniger an der zu erwartenden Leistung (die man sowieso zum jetzigen Zeitpunkt nicht einschätzen kann), sondern vielmehr an den neuen Chipsätzen der 100er-Reihe. Diese bringen zwar vermutlich keine Revolution und behalten weiterhin einige Ärgernisse der aktuellen und vergangenen Chipsätze, führen aber wenigsten ein paar kleinere, neue Technologien ein, die man im Sinne einer maximal möglichen Zukunftssicherheit durchaus mitnehmen sollte. Was es genau damit auf sich hat, erfahrt ihr in Teil 2 meiner heiteren Artikelserie am kommenden Donnerstag.

Meine Steambibliothek

Ein Teil meiner Steambibliothek

Data Mining ist schon was Geniales (und die Geschäftsmodelle unter anderem von Facebook und Google) und übt auch auf mich definitiv eine gewisse Faszination aus. Vor allem in Zeiten des Internets, wo alle möglichen mit einander verknüpfbaren Daten nur wenige Klicks entfernt sind und nur darauf warten von jemanden in den richtigen Zusammenhang gebracht zu werden – wenngleich nicht immer zu gutem Zweck. Besonders interessant sind dabei natürlich die Datenbanken, die ansonsten offiziell keine Informationen ausspucken. Wer in den letzten Tagen die gängigsten Magazine und Blogs aus dem Tech- und Entertainment-Sektor gelesen hat, weiß sicherlich schon auf was ich anspiele: Den Artikel von ars technica in dem sie sich Steam vorgenommen haben.

Anmerkung: Ich gebe jetzt hier nicht den ganzen Artikel wieder und kopiere schon gar nicht wie viele Magazine einfach die Tabellen. Ihr sollt ihn schon selbst lesen und der Seite eure Klicks geben :smile: . Stattdessen folgen einfach ein paar Beobachtungen/Kommentare.

Und zwar hat das Magazin sich hingesetzt und aus den 172 Millionen Userprofilen mehrmals jeweils drei Tage lang circa 250.000 zufällige herausgezogen und die darin enthaltenden Informationen analysiert. Natürlich waren da einige dabei, die auf “Privat” sitzen und entsprechend keine Informationen boten (das Magazin spricht von 6 Prozent). Gleichzeitig gab es den ein oder anderen Denkfehler (auf die sie aber mittlerweile zumindest teilweise hinweisen) wie beispielsweise die Tatsache, dass die Spielzeit erst seit März 2009 erfasst wird und selbst dann diese Spielzeit nicht unbedingt korrekt erfasst wurde. In den Kommentaren erwähnt beispielsweise ein User, dass er Einzelspielertitel meist im Offline-Modus zockt und dort scheint die Spielzeit überhaupt nicht gezählt zu werden.

Einschub

Etwas, das ich übrigens nicht ganz verstehe. Achievements werden ja auch übertragen sobald man mal wieder Online geht. Also findet auf jeden Fall ein Tracking von Seiten Steam statt. Ich glaube nämlich nicht, dass die Spiele jeweils ein eigenes System haben und quasi bei jedem Onlinegang von sich aus die Erfolge melden. Das würde meiner Meinung nach nur Unmengen an unnötigem Traffic erzeugen, denn theoretisch müsste dann JEDES installierte Spiel in eurer Liste beim Onlinegang überprüfen ob ein Informationsupdate bei ihm ansteht. Ich gehe stattdessen davon aus, dass auch hier eine Sammlung stattfindet beziehungsweise Steam ein Flag setzt von wegen “Hey, aktualisier das sobald Internetverbindung besteht” und es dann gesammelt macht.

Falls ihr jetzt als Gegenbeispiel das Thema “Updates” anbringen wollt: Bei Updates läuft es meines Wissens so, dass der Steam-Client zentralen Server anfragt “Hey, sind für diese IDs Updates da? Wenn ja, schick sie mir”. Deswegen müsst ihr oft erst den Klienten neu starten, bevor ihr ein gerade veröffentlichtes Update angeboten bekommt. Das gilt vermutlich ebenso für die Freischaltung von noch nicht veröffentlichten Titeln. Auch hier braucht es meistens erst einen Neustart, bevor Steam weiß, dass ihr es spielen dürft obwohl im Shop bereits “Play now” steht (der Button tut dann nichts).

Einschub Ende

Unter der Tatsache, dass die Spielzeit erst seit März 2009 erfasst wird, leiden logischerweise vor allem die Valve-Titel. Ich hatte ja zum 10jährigen Geburtstag bereits erwähnt, dass Drittanbieter erst ab 2007 so langsam ihren Weg auf die Plattform fanden. Somit sind die ganzen Auswertungen auf die Spielzeit am Ende des Tages nicht ganz so aussagekräftig, wie es anfangs den Anschein hatte, was natürlich schade ist. Andererseits kann man diese Diskrepanz vielleicht auch schlicht vernachlässigen angesichts der Tatsache, dass Steam sich auch erst in den letzten Jahren zu dieser immensen Größe entwickelt hat und somit die Werte von vor 2009 vermutlich gar nicht so stark ins Gewicht fallen würden trotz natürlich der starken Verkaufszahlen von Half-Life 2 oder dem Erfolg von Counter-Strike & Co.

Die Ergebnisse

DOTA 2 (Herstellerbild)

DOTA 2 (Herstellerbild)

Was spuckt der Artikel also für Informationen aus? Nun, die Tabelle über die meist verbreitesten Spiele überrascht mich kein bisschen. So viele Beta-Keys wie für DOTA 2 rausgeschmissen wurden verbunden mit der Tatsache, dass es kostenlos ist und dem äußerst populären MOBA-Genre angehört. Da wäre ein anderes Ergebnis verblüffender gewesen. Das gilt auch für Team Fortress 2, das zuerst dank der Orange Box eine massive Verbreitung fand und dann dank seines Free-2-Play-Wechsels eine immense Popularität gewann. Aber auch die anderen Top20 sind wie erwartet. Steam wurde für Valve-Spiele geschaffen, viele davon wurden in der Zwischenzeit kostenlos rausgeworfen, waren äußerst erfolgreiche Mods oder waren schlicht Teil eines Bundles. Glaube nämlich nicht, dass sonst Deathmatch Classic oder Richochet in der Liste vorhanden wären. Civilization V und The Elder Scrolls V: Skyrim spiegelt hingegen schlicht die Verkaufszahlen und damit die Popularität dieser altehrwürdigen Serien wieder. Deswegen gilt auch hier: Überraschender wäre es gewesen, wenn plötzlich etwas ganz anderes hier aufgetaucht wäre.

Auch die Information, dass ca. 36,9% von den 781 Millionen in den Accounts registrierten Spielen nie gespielt wurden ist keine wirkliche Neuigkeit. Die 17%, die unter eine Stunde investiert haben, sind da schon interessanter. Da hätte ich mir eine genauere Aufschlüsselung gewünscht und vor allem eine Auswertung auf die extremen Rohrkrepierer. Also ob es da einen Trend zu sehen gäbe beispielsweise Indie vs. AAA-Titel oder Shooter vs. Puzzlespiel. Das wäre sicherlich auch für die Spielentwickler selbst äußerst interessant, würde es doch zum einen zeigen, welche Genre am ehesten fesseln und zum anderen eine kleine Antwort auf die Frage liefern, ob Indie-Spiele wirklich die Gralsbringer sind oder eben doch nur 5 Minuten fasziniert reingeschaut wird, sie aber dann gleich wieder in die Ecke geworfen werden. Vielleicht kommt da ja noch was. Die Daten haben sie ja auf jeden Fall.

Zumal sie im letzten großen Abschnitt ja schon in die Richtung gegangen sind und die großen Titeln in Relation zum Rest gesetzt haben. Sprich zur Erkenntnis gelangt sind, dass die Top-Titel nicht nur sowohl in Sachen Verkaufszahlen alles andere klar dominieren, sondern auch in Sachen Spielzeit die Top 6 insgesamt fast genau so viel gezockt werden wie alle anderen gemessenen Spiele zusammengenommen. Das führt mal wieder vor Augen, wie auch ars technica selbst schreibt, dass Hype-Blockbuster aus bekannten Serien am Ende des Tages doch irgendwie alles sind und der Rest im großen Ganzen keine Rolle spielt. Ausnahmen wie Minecraft bestätigen die Regel. Von daher können wir noch so sehr über die jährlichen Aufgüsse, die vermeintliche Ideenlosigkeit und die Risikoangst der Branche bejammern: Was der Bauer nicht kennt, frisst er höchstens, wenn es vorher eine kritische Masse an Menschen außergewöhnlich fand. Mein (vergleichsweise extrem kurzer) Artikel von 2006 ist also immer noch aktuell.

Wir lesen uns in der Osternacht wieder!

« Vorherige Seite - Nächste Seite »