Servus zusammen und herzlich Willkommen zum zweiten Teil meiner Artikelreihe zu meinem neuen Rechner. Dieses Mal geht es um die Themen Prozessor, Mainboard, Arbeitsspeicher und Prozessor-Kühler. Auf geht’s!

Prozessor: AMD Ryzen 7 3700X (325€)

AMD Ryzen 7 (Herstellerbild)

Wenn mich mein Gedächtnis nicht trügt – und ich habe nebenbei erwähnt echt lange nachgedacht – handelt es sich hierbei doch tatsächlich um meinen ersten AMD Prozessor! Soweit ich mich recht erinnere, besaß ich nämlich bislang: Intel i486DX2, Intel Pentium III 500, Intel Core 2 Duo E6600 und eben zuletzt den Intel i5-2500K. Aber selbst, wenn ich doch schon einen AMD mein Eigen habe nennen dürfen: der nun (abermals?) vollzogene Wechsel von Intel zu AMD fiel mir dann doch sehr leicht. Und das will was heißen, denn noch bis vor Kurzem war ich sozusagen Intel-Fanboy, was ob der Qualität der bislang benutzten Intel Produkte – allen voran dem i5-2500K – auch kein Wunder ist.

Aber mein Glaube geriet zuletzt dann doch gehörig ins Wanken. Und damit spiele ich nicht nur auf die – in Sachen Performance beeindruckende – Aufholjagd gegenüber Intel an, die AMD mit ihren Ryzen-Prozessoren hingelegt hat. Die bloße Arbeits- und Spieleleistung waren tatsächlich nur zweitrangig für meine Entscheidung das Lager zu wechseln. Ausschlaggebend war letztlich das Thema Sicherheit. Ich möchte die ganze Diskussion um „Meltdown“, „Spectre“ und die weiteren Sicherheitslücken hier gar nicht im Detail aufdröseln. Aber was – stand heute – wohl sicher zu sein scheint: AMD hat mit erheblich weniger Sicherheitslücken zu kämpfen als Intel. Und dabei ist es mir egal, wie wahrscheinlich oder unwahrscheinlich es ist, dass ein 0815-Privatanwender wie ich Opfer durch einen Angriff werden kann. Ich möchte diese Lücken einfach nicht haben – beziehungsweise: so wenig wie möglich davon – denn ganz frei von Problemen ist ja wie gesagt auch AMD nicht.

Die Power

Aber nun natürlich auch noch ein paar Sätze zur Leistung: Mein Credo ist in der Regel, erst dann CPU und GPU auszutauschen, wenn sie in praktischen Szenarien mindestens doppelt so viel Leistung bringen, wie die aktuell verbauten Pendants. Bereits die Rohdaten stimmten mich dahingehend optimistisch: 8 Kerne statt 4, 16 Threads statt 4, 4.4 Ghz Boost statt 3,7 Ghz. Dazu die Fertigung in 7nmFinFET statt in 32nm. Von den vielen Verbesserungen in der Architektur, die es seit 2011 gegeben hat mal ganz zu schweigen. Ob es letztlich gereicht hat, werdet ihr aber erst im nächsten Teil erfahren. Ich muss ja die Spannung noch etwas aufrechterhalten :smile: .

Durch das oben erwähnte Sicherheitsthema war es mir dann letztlich auch egal, dass Intel in Spielen nach wie vor – jedoch nur noch relativ knapp – die Nase vorn hat. Zumal AMD wiederrum bei (Mehrkern-)Anwendungen punkten kann und zumindest im Volllastbetrieb auch energieeffizienter ist. Ganz zu schweigen davon, dass ich für den vergleichbaren Intel i9-9900K (der ebenfalls 8 Kerne und 16 Threads bietet) etwa 180 Euro mehr auf die Ladentheke hätte legen müssen.

Angenehmes Detail: Durch gleich zwei AMD-Aktionen bekam ich neben Borderlands 3 auch noch einen dreimonatigen Xbox-Game-Pass für den Kauf des Ryzen 3700X geschenkt. Dadurch verstärkte sich der eh schon „preiswerte“ Eindruck des Ryzen 3700X im Vergleich zum Intel i9-9900K noch weiter. Und tatsächlich nutze ich den Game Pass auch schon fleißig: Gears of War 4 und Metro Exodus sind schon durchgezockt und Forza Horizon 4 steht ebenfalls kurz vor der Vollendung. Gears 5 ist zudem bereits heruntergeladen und schon in Lauerstellung. Hat sich also schon gelohnt :smile: .

Und dann gab es aber auch noch einen weiteren Grund, der mich in das AMD-Lager gezogen hat. Und damit kommen wir zur nächsten Komponente, dem Mainboard.

Kurzfassung der essentiellen Vor- und Nachteile
+ hervorragende Anwendungsleistung
+ sehr gute Spieleleistung
+ sehr gute Effizienz unter Last
+ konkurrenzloses Preis- Leistungsverhältnis
0 Intel bei Stromverbrauch im Leerlauf und Teillast etwas besser (wohl primär chipsatzbedingt)
0 Intel bei Spieleleistung im Durchschnitt nach wie vor etwas besser

Mainboard: Gigabyte X570 Aorus Master (370€)

Gigabyte X570 Aorus Master (Herstellerbild)

„370 Euro für ein Mainboard?!“ wird sich jetzt womöglich der ein oder andere denken. Und in der Tat, man muss nicht zwingend so viel Geld ausgeben. Zumindest, wenn es einem um die bloße Leistung des Rechners geht, denn hier unterscheiden sich erfahrungsgemäß die Einsteigermodelle nur im Rahmen der Messungenauigkeit von den Oberklasse- und Luxusmodellen. Die Unterschiede sind allen voran in Sachen Ausstattung und Übertaktungspotential zu suchen. Da mich letzteres nicht (mehr) interessiert, war es also die Ausstattung, die für mich ausschlaggebend war.

Mir war insbesondere wichtig, dass das künftige Mainboard neben reichlich USB 3.2 Gen 2-Anschlüssen auch über möglichst viele m.2-Steckplätze verfügt – natürlich mit zukunftssicherer PCIe 4.0 x4-Anbindung womit auch zwingend der nagelneue X570-Chipsatz erworben werden musste. Letzteres war wie bereits angedeutet dann eben auch noch ein weiteres Argument in das AMD-Lager zu wechseln, da Intel zum jetzigen Zeitpunkt noch kein PCIe 4.0 anbietet.

Darüber hinaus war integriertes WLAN ebenso Pflicht. Gerade dieses Kriterium ließ die Anzahl möglicher Kandidaten im ATX-Formfaktor auf weniger als ein Dutzend schrumpfen. Dadurch, dass ich letztlich auch nur Asus und Gigabyte ernsthaft in Betracht gezogen habe (ein sehr subjektives Kriterium), blieb – ich kürze etwas ab – am Ende des Tages die Wahl zwischen dem Asus ROG Crosshair VIII Hero Wi-Fi und dem Gigabyte X570 Aorus Master.

Der Vergleich

Das Asus bot mit 8xUSB3.2 Gen 2 und 4xUSB3.2 Gen 1 die moderneren externen Anschlüsse (Gigabyte: 4xUSB 3.2 Gen 2, 2x USB 3.2 Gen 1, 4x USB 2.0), das Gigabyte wiederum verfügte über drei m.2-Anschlüsse (alle über PCIe 4.0 x4 angebunden), das Asus hingegen nur über derer zwei. Weitere Unterschiede, vor allem im Bereich Stromversorgung (Mosfets), Kühlkörper und LED-Bling-Bling interessierten mich nicht wirklich, da ich nicht oder nur minimal übertakten werde und wir uns hier bereits in der absoluten Oberklasse bewegen und die Unterschiede abermals nur absoluten Enthusiasten auffallen würden.

Da eine grobe Recherche ergeben hatte, dass es für die klassischen Eingabegeräte wie Maus, Tastatur und Gamepad gar nicht schlecht ist, wenn man diese weiterhin an USB2.0-Anschlüssen anbringt (USB3.0 kann wohl zu Kompatibilitätsproblemen führen) und Asus wohl in letzter Zeit bei seinen Temperatursensoren etwas mogelt, damit diese niedrigere Werte ausgeben als tatsächlich anliegen, fiel – auch wegen dem dritten m.2-Slot – letztlich die Wahl auf das Gigabyte.

Für Asus hätte noch gesprochen, dass deren BIOS wohl in der Regel ausgereifter und optisch auch ansprechender ist. Da ich aber wie gesagt nicht zu dem Enthusiastenkreis gehöre, der auch das allerkleinste Detail einstellen muss, war das für mich nicht entscheidend. Zwar hatte ich tatsächlich anfangs Probleme mit dem Gigabyte BIOS (die Maus wurde nicht erkannt), ein entsprechendes BIOS-Update brachte aber Abhilfe. Darüber hinaus kann ich bislang überhaupt nicht meckern. Das BIOS ist ausreichend hübsch, bietet alle Einstellungen, die ich brauche und hat eine, für meine Zwecke, sehr gute Lüftersteuerung.

Ein Negativpunkt?

Bleibt noch ein letztes Wort zum Thema „Chipsatzkühler“ zu sagen. Dieser stand ja heftig in der Diskussion, da befürchtet wurde, dass er sehr laut sein würde. In dieser Hinsicht kann ich durchaus Entwarnung geben. Seit den jüngsten BIOS-Versionen lässt sich ein Balanced- und Silent-Modus auswählen. Und spätestens im letzteren ist der Kühler dann nicht mehr aus meinem Gehäuse herauszuhören. Wenn der Lüfter aber aufdreht – was er jedoch bislang nur standardmäßig einmal beim Hochfahren des Rechners macht – dann wird er elendig laut. Mehr Details zu Temperaturen und Lautstärke dann im dritten Teil.

Kurzfassung der essentiellen Vor- und Nachteile
+ herausragende Ausstattung und Anschlussvielfalt
+ sehr gute Kühlung und Stromversorgung
+ sehr schöne Optik, zweifache LED-Beleuchtung
0 BIOS stabil und umfangreich, aber sicher nicht Klassenbester
0 Chipsatzkühler nötig und in „Performance-Modus“ auch sehr laut

Arbeitsspeicher: G.Skill Trident Z Neo, 2x8GB, DDR4-3600, CL 16-16-16-36 (170€)

G.Skill Trident Z Neo (Herstellerbild)

Wohl keine Komponente eines Rechners schafft es, mich so nervös zu machen, wie der Arbeitsspeicher. Warum? Nun, da wäre zum einen mein persönliches Trauma, dass ich mir beim vorletzten Computer eingehandelt habe: in einem unaufmerksamen Moment habe ich – mit entsprechendem Druck – versucht, den damaligen RAM verkehrt herum in den Mainboard-Slot hineinzudrücken. Die Folge: nicht nur der Speicherriegel, auch das Mainboard waren hinüber. Natürlich war das damit kein Garantiefall womit mir letztlich Mehrkosten von ca. 500 Euro entstanden. Aber ok, selbst dran schuld. (Anm. d. Red.: Gewisse, namentlich nicht näher benannte Webmaster haben das auch schon geschafft)

Zum anderen ist da die Sache mit der Kompatibilität. Natürlich: es gibt die entsprechenden QVLs (qualified vendor lists). Nur stehen dort häufig nicht alle unterstützten Produkte drauf. Insbesondere kommt es vor, dass nagelneue RAM-Module nicht geführt werden. So auch dieses Mal: streng genommen wird von meinem Arbeitsspeicher lediglich das 32-GB-Kit geführt (und dann auch noch mit fehlerhaften Daten). Nun ist es zwar sehr wahrscheinlich, dass auch das kleinere Kit funktioniert, wenn auch das große Kit unterstützt wird. Aber garantiert wird es eben nicht.

Und dann ist da noch die Sache mit den schwankenden Preisen: bislang hatte ich immer ein Händchen dafür, just dann einen neuen Rechner kaufen zu müssen, wenn die Preise für Arbeitsspeicher sich auf einem Allzeithoch befanden.

Aber ok, ich bin erfreut, berichten zu können, dass dieses Mal der RAM richtig eingebaut wurde, vom Mainboard anstandslos erkannt wurde und die Preise ausnahmsweise auch eher im Keller waren. Alles also sehr gut. Bleibt zu erklären, weshalb ich mich ausgerechnet für diese Riegel entschieden habe.

Das Rationale

Fangen wir damit an, dass ich 16GB für einen Standard-Gamer wie mich aktuell und wohl auch noch in den nächsten Jahren für absolut ausreichend halte. Ich habe vor dem Kauf einige Tests gemacht und mir die RAM-Auslastung meiner vorherigen 8GB angeschaut. Ergebnis: ich habe nicht einmal diese 8GB ausgereizt. Und wie erwähnt unterstützt mein Mainboard auch die 32-GB-Bestückung mit meinem Arbeitsspeicher. Ich hätte also die Möglichkeit hier noch unproblematisch nachzurüsten.

Für 3600Mhz habe ich mich deswegen entschieden, weil das bei den Ryzen3000-Prozessoren bzw. dem X570-Chipsatz der „Sweet-Spot“ zu sein scheint. Ich zitiere hier mal Computerbase:

„In aller Kürze: Bis zu einem Takt von DDR4-3600 arbeiten die internen Teiler mit 1:1:1 (MEMCLK = UCLK = FCLK). Darüber hinaus verweilt das IF bei 1.800 MHz und das UCLK wird gegenüber dem MEMCLK halbiert, was eine „Straflatenz“ nach sich zieht.“

Darüber hinaus kommt es – wenn man wirklich das letzte Quäntchen Leistung haben will – eher auf die Timings und auch Sub-Timings an. Und das ist eben auch der Grund, weshalb ich mich für die, dann doch recht teuren CL16-16-16-36-Riegel entschieden habe. Die Variante mit CL16-19-19-39 hätte ganze 50 Euro weniger gekostet. Wobei ich hinzufügen muss, dass diese günstigere Variante nicht über die, in der Community hochgelobten und stets empfohlenen „Samsung B-Dies“ verfügt, denen man eine besonders hohe Wertigkeit und auch Übertaktbarkeit nachsagt.

Ach und meine Riegel verfügen über eine LED-Beleuchtung. Und wo ich beim Gehäuse noch die Meinung vertrete, dass dieses nicht blinken und leuchten soll, muss ich gestehen, dass ich von der RAM-Beleuchtung echt angetan bin. Liegt auch daran, dass die G.Skill Trident Z Neo’s über eine der besten Beleuchtungen verfügen. Ist wirklich sehr hübsch anzuschauen und in der Tat den Aufpreis wert (wenn man, wie ich, eine Glastür im Gehäuse hat).

Kurzfassung der essentiellen Vor- und Nachteile
+ mit 3600Mhz im „Sweet-Spot“ für die Ryzen-CPU
+ Samsung B-Dies, also sehr hohe Wertigkeit und Übertaktbarkeit
+ grandiose LED-Beleuchtung, programmierbar
0 16GB aktuell und mittelfristig noch ausreichend, langfristig aber wohl Aufrüstung auf 32GB nötig
– hoher Aufpreis für LED-Beleuchtung, die Samsung B-Dies und die niedrigen Sub-Timings

Prozessorkühler: Scythe Fuma 2 (50€)

Scythe Fuma 2 (Herstellerbild)

Es ist ja durchaus löblich, dass AMD ab Werk seine Prozessoren mit Kühler ausliefert. Und der „Wraith Prism“ scheint auch echt nicht schlecht zu sein. Aber im Vergleich mit den Produkten von Drittherstellern ziehen diese Standardvarianten eben häufig doch deutlich den Kürzeren. Ich habe anfangs durchaus darüber nachgedacht, dem „Wraith Prism“ wenigstens mal eine Chance zu geben. Immerhin übertakte ich ja wie gesagt nicht. Aber der Gedanke an den nötigen Zeitaufwand, einen Prozessorkühler wieder zu demontieren und den neuen zu montieren, hat mich dann doch dazu bewogen, es gleich mit einem besseren Kühler anzugehen. Meine Wahl fiel dabei – wie schon zuletzt – auf die Firma Scythe und deren Modell Fuma 2.

Die Begründung kann ich kurzhalten: der Kühler erreicht zwar nicht die absoluten Spitzenwerte der – allerdings auch immens schweren und riesigen – Referenzkühler (z.B. Noctua NH-D15), kommt diesen aber verdammt nahe. Er ist dabei aber wie bereits erwähnt kleiner, leichter, günstiger und verfügt – was mir besonders wichtig war – über ein sehr einfaches Montagesystem. Wie die genauen Temperaturwerte aussehen und wie laut oder leise sich die Lüfter verhalten, erfahrt ihr im nächsten Artikel. Ich kann jedoch schon einmal spoilern, dass ich bislang sehr zufrieden bin.

Kurzfassung der essentiellen Vor- und Nachteile
+ einfaches Montagesystem
+ sehr gute Leistung bei Kühlung und Lautstärke
+ dennoch nicht so riesig wie die absoluten Referenzkühler
+ mit 50 Euro „preiswert“
0 es geht noch kühler, noch leiser – aber dann eben auch schwerer und größer

Und damit wären wir für heute am Ende. Im nächsten und letzten Teil geht es dann noch um die Themen Grafikkarte, Datenspeicher, Soundkarte sowie Benchmarks und erste Eindrücke des Systems.
Bis dahin!

Na dann mal herzlich Willkommen zum ersten Teil meiner kleinen Artikelreihe!

Kurz zur Struktur der nachfolgenden Ausführungen: das alles dient nicht dazu mein Schreibbedürfnis zu stillen – welches ich im Gegensatz zum Webmaster nämlich gar nicht besitze. Stattdessen möchte ich euch eine kleine Kaufempfehlung liefern. Deshalb werde ich zu jeder Komponente einerseits meine rein subjektiven Kaufgründe darlegen aber andererseits auch abschließend die größten Vor- und ggf. auch Nachteile des jeweils verbauten Stücks Hardware zusammenfassen. Los geht’s.

Gehäuse: Fractal Design Define S2 Tempered Glass Blackout (120 Euro)

Fractal Design Define S2 Tempered Glass Blackout (Herstellerbild)

Das Gehäuse erachte ich traditionell als eine der wichtigsten Komponenten an einem Computer. Während für viele das Gehäuse einfach nur der Kasten ist, in welchem sich die vermeintlich wichtigeren und aufregenderen Bauteile befinden, wird in meinen Augen mit der Gehäusewahl im schlimmsten Fall bereits die Weiche dafür gestellt, ob man mit dem späteren finalen System (und beim Zusammenbau desselbigen) Probleme haben wird, oder eben nicht.

Aber beginnen möchte ich erstmal mit der Frage nach der Optik. Ich persönlich habe es gerne schlicht und elegant und glücklicherweise gibt es auf dem Markt mittlerweile auch mehrere hochwertige Gehäuse, die diesen optischen Anspruch erfüllen. Bis vor einigen Jahren schien mir dies, zumindest meinem subjektiven Eindruck nach, noch ganz anders zu sein. Die Gehäusehersteller überboten sich regelrecht mit absurden, in meinen Augen unfassbar hässlichen Gehäuseformen. Gerne kombiniert auch mit Mesh-Einsätzen und möglichst viel LED-Bling-Bling. Aber ok, Geschmack ist ja bekanntlich relativ.

Ich habe mich letztlich für das Fractal Design Define S2 Tempered Glass Blackout entschieden. Es bietet eine einfache, rechteckige Form, eine schöne, geschlossene Aluminiumfront und eine edle, abgedunkelte Glastür. Es macht sich somit sehr gut im Wohnzimmer und wirkt nicht – wie so viele andere Gehäuse – wie ein abgefahrener, billig blinkender Plastik-Fremdkörper.

Luftig leise

Darüber hinaus lege ich bei Gehäusen sehr viel Wert auf Platz und ein gutes Kabelmanagement. Beides bietet das S2. Insbesondere im Vergleich zu seinem ungleich berühmteren Bruder, dem Define R5. Denn im Gegensatz zu letzterem bietet das S2 keine Laufwerkskäfige mehr hinter der Frontblende. Es fehlt also die Möglichkeit, optische Laufwerke zu montieren. Ein Preis, den ich jedoch gerne bereit bin zu zahlen. Denn einerseits nutze ich seit Jahren eh keine optischen Medien und 3.5″ Festplatten mehr (wobei man letztere weiterhin hinter dem Mainboard-Blech verbauen kann), andererseits schätze ich die „cleane“ Optik und den Freiraum beim Einbau der Hardware. Ganz abgesehen davon, dass die angesaugte Luft der beiden vorderen Gehäuselüfter letztlich auch besser zu den verbauten Komponenten gelangen kann.

Stichwort Lüfter: die insgesamt drei verbauten Lüfter sind allesamt schön leise und frei von Nebengeräuschen. Sicherlich von Vorteil ist auch die rückseitig verbaute Dämmmatte. Inwiefern sich die Glastür negativ auf den Geräuschpegel auswirkt (im Vergleich zu einer gedämmten Aluminiumtür) kann ich natürlich nicht einschätzen. Auch ist die Oberseite des Gehäuses nicht ganz geschlossen, weil hier grundsätzlich die Möglichkeit besteht, Radiatoren oder weitere Lüfter zu installieren. Generell bietet das Gehäuse noch eine Vielzahl weiterer Funktionen, die ich aber allesamt nicht benötige, da ich auf ein möglichst einfaches, luftgekühltes System setze. Ebenfalls von mir ungenutzt bleibt die werkseitig verbaute Lüftersteuerung des Gehäuses. Eigentlich eine sehr feine Sache, die aber aufgrund meiner a) überschaubaren Anzahl von verbauten Lüftern und b) der ausreichend guten Mainboard-Lüftersteuerung in meinem persönlichen Fall unnötig ist.

Noch mehr Luxus

Bleibt letztlich nur noch zu erwähnen, dass ich nun endlich auch Front USB3 bzw. USB3.1 habe. Um ganz genau zu sein und der dämlichen, neuesten Typbezeichnung folgend habe ich an Frontanschlüssen nun 2x USB 3.2 Gen 1 und 1x USB3.2 Gen 2 Typ C. Alles klar?! :smile:

Das war tatsächlich auch der entscheidende Grund dafür, weshalb ich mein „altes“ Corsair-Big-Tower Gehäuse nicht weiterverwendet habe. Ich war es einfach leid, jedes Mal hinter den Rechner krabbeln zu müssen, wenn ich mal meine externe USB3.0-Festplatte anschließend wollte.

Denn einen Vorteil hatte das riesige Corsair-Gehäuse dann doch im Vergleich zum Fractal-Pendat: aufgrund der schieren Größe und der immensen Freiräume nicht nur rechts, sondern auch ober- und unterhalb des Mainboards, war die Verkabelung desselbigen noch ein ganzes Stück einfacher. Beim Fractal musste ich mich gerade mit dem oben platzierten CPU-Stromanschluss sowie den unten platzierten Anschlüssen echt ziemlich verbiegen, bis die Kabel fest im Sockel saßen. Aber ok, das ist nun wirklich jammern auf sehr hohem Niveau.

Nach nun drei Wochen Erfahrung kann ich das Fractal Design Define S2 nur ausdrücklich weiterempfehlen, sofern man auf schlichte, aber edle Gehäuse steht und keine optischen Laufwerke mehr benötigt. Es ist hervorragend verarbeitet, bietet reichlich Platz (auch für die rückseitig verlegbaren Kabel) und ist sehr leise. Unnötig zu erwähnen, dass auch diverse Testberichte das ganz ähnlich sehen.

Kurzfassung der essentiellen Vor- und Nachteile
+ Edel
+ Glasfenster
+ Front-USB3.2 Gen 2
+ leise Gehäuselüfter
+ Lüftersteuerung ab Werk
0 etwas fummelige Verkabelung durch wenig Platz ober- und unterhalb des Mainboards

Netzteil: be quiet! Straight Power 11 650W (100 Euro)

be quiet! Straight Power 11 650W (Herstellerbild)

Kommen wir nun zu einem der am wenigsten attraktiven Themen an einem Rechner: dem Netzteil. Wenn man die nötige Leidenschaft und das entsprechende technische Know-How mitbringt, könnte man sicherlich an dieser Stelle seitenweise über solche Dinge wie Schutzschaltungen, Spannungen (und den dazugehörigen Schwankungen) und Effizienz in verschiedenen Lastbereichen philosophieren. Nur: mir fehlen eben dieses Interesse und Wissen. Für mich wichtig: neben einer grundsätzlich guten Qualität (hier verlasse ich mich blind auf Testberichte), einer ordentlichen Effizienz (hier verlasse ich mich blind auf das „Effizienz-Siegel“) muss die Watt-Zahl passen und es muss vollmodular sein.

Bezüglich der Qualität ist es erfreulich, zu berichten, dass man ab der Oberklasse eigentlich nichts grundlegend verkehrt machen kann, sofern man sich an einen der bekannten Hersteller hält. Ob nun, wie in meinem Fall bequiet! oder Produkte von z.B. Seasonic: die Unterschiede sind meinem Wissensstand nach marginal und interessieren wohl nur die oben angesprochenen Enthusiasten, die dann auch sicher über weitaus komplexere Systeme verfügen.

Zu viel Power?

Da das von mir auserwählte Netzteil sowohl über die gewünschte volle Modularität als auch über ein sehr ordentliches „80 Plus Gold-Siegel“ verfügt, bleibt letztlich nur die Frage nach der Watt-Zahl. Und hier habe ich mich zwar bewusst, aber vermutlich unnötiger Weise für das 650 Watt-Modell entschieden.

„Vermutlich unnötig“ deswegen, weil in meiner aktuellen Konfiguration – die euch ja an dieser Stelle noch nicht bekannt ist – definitiv auch das kleinere 550 Watt Pendant gereicht hätte. Dass ich mich dennoch für die „stärkere“ Variante entschieden habe, lag letztlich daran, dass ich einen Puffer für mögliche zukünftige Komponenten haben wollte, wohl wissend, dass der Trend ja eher hin zu besserer Energieeffizienz geht. Dennoch: wer weiß, welche Grafikkarten-Monster uns in Zukunft erwarten, wenn die nächste Konsolengeneration erschienen ist und sich 4K (oder höher) endgültig durchgesetzt haben. Von solchen Nischenthemen wie VR mal ganz abgesehen.

Modular aber unflexibel

Einen letzten Punkt möchte ich aber doch noch ansprechen. Denn hier hätte ich mich tatsächlich etwas besser informieren können. Habe ich im Abschnitt zum Gehäuse noch über die etwas fummelige Installation der Stromkabel ausgelassen, habe ich zwischenzeitlich erfahren, dass dieser Stress mit anderen Kabeln ggf. vermeidbar gewesen wäre. Es gibt nämlich mitnichten nur die recht starren, in Gänze ummantelten Standard-Kabel, wie sie eben auch von bequiet! verwendet werden, sondern auch deutlich flexiblere Ausführungen, die sich durch eine Einzelummantelung auszeichnen. Sicherlich haben auch diese Kabel wiederum spezifische Nachteile, die in entsprechenden Foren vermutlich leidenschaftlich diskutiert werden. Aber die Aussicht auf einen angenehmeren und komfortableren Zusammenbau lässt mich zumindest neugierig werden. Eine erste, grobe Recherche hat aber wie zu erwarten gesalzene Preise ergeben. So kostet ein Kabelset von Corsair bereits 90 Euro – ohne das eigentliche Netzteil. Wie auch immer: hier werde ich mich – sofern es überhaupt soweit kommt – beim nächsten Rechner etwas besser informieren.

Kurzfassung der essentiellen Vor- und Nachteile:
+ volle Modularität (= keine unnötigen Kabel im Gehäuse)
+ 80 Plus-Gold-Siegel (= sehr gute Effizienz von bis zu 93%)
+ durch zahlreiche Testberichte bestätigte, sehr gute Qualität
0 mit 650W für meine aktuellen und ggf. auch zukünftigen Komponenten überdimensioniert
– sehr starre Kabel, die beim Einbau zu einigen Verrenkungen zwingen

 

Und das war es auch schon mit dem ersten Teil. Im nächsten wird es dann vermutlich etwas spannender, wenn wir zu den Themen Prozessor, Mainboard und Arbeitsspeicher kommen. Bis dahin können gerne über die Kommentarfunktion Fragen an mich gerichtet werden.

29. Januar 2011.

Hachja. Ist es denn tatsächlich schon wieder so lange her? Bin ich tatsächlich schon so alt geworden? Gefühlt sind erst einige Wochen, vielleicht Monate vergangen. Aber nunja, die Zeit vergeht. Und sie vergeht – natürlich – gefühlt immer schneller. Es war also der damalige 29.01.11, an welchem ich den ersten Teil (RAM und Maus!) meines damaligen Rechners orderte, gefolgt von weiteren Bestellungen in den Wochen darauf (immer auf den preisgünstigsten Moment wartend!).

Irgendwann, ich meine gegen Ende März 2011, war er dann zusammengebaut: der damalige Monster-PC. Primär bestehend aus einem Intel Core i5 2500K, einer 64GB-SSD von Crucial (Sensation!) und … nunja… ich kann mich tatsächlich nicht mehr an die Grafikkarte erinnern! Aber ein Blick in das Artikel-Archiv von beimchristoph.de hilft: einer EVGA 560GTX FPB. Der Blick ins Archiv verrät im Übrigen auch, dass der Rechner entgegen meiner Erinnerung aufgrund von Lieferschwierigkeiten einzelner Komponenten erst Ende April 2011 zusammengebaut war. Aber naja, Details.

Immer noch gut!

Palit 980GTX Ti (Herstellerbild)

Auf jeden Fall steht er hier immer noch, der Rechner. „Hier“ ist zwar nicht mehr das „hier“ von damals – er steht jetzt nicht nur rechts statt links neben mir, sondern auch in einem Ort 150km entfernt vom damaligen Ort. Aber er steht noch. Und er tut eigentlich immer noch, was er soll. Ok, das „was er soll“ besteht leider aktuell hauptsächlich nur noch aus „im Internet surfen“ und „Musik abspielen“. Aber wenn ich doch mal ein Spiel einlege, ist die Leistung praktisch immer sehr zufriedenstellend. Ok, ich darf auch nicht verheimlichen, dass ich o.g. EVGA-560GTX irgendwann mal durch eine Palit 980GTX Ti ersetzt habe. Aber dass insbesondere der 2500K nach achteinhalb Jahren (!) immer noch schnurrt wie ein Kätzchen und praktisch alles meistert, was ich benötige, ist schon eine Erwähnung wert. Da hat es sich damals tatsächlich um ein absolutes Ausnahmeprodukt gehandelt. Gleichzeitig ist es aber natürlich auch ein trauriger Beleg dafür, dass insbesondere die Spieleentwicklung seit vielen Jahren stagniert.

Verheimlichen möchte ich aber nicht, dass es auch Verluste gegeben hat in diesen achteinhalb Jahren: einer der beiden 4GB-Speicherriegel und die Creative-Soundkarte sind mir abgeraucht. Wobei ich mir bis heute nicht ganz sicher bin, ob es nicht doch an Ausfallerscheinungen des Mainboards lag. Während ich jedoch seither auf die Soundkarte gänzlich verzichtet habe und bis zuletzt einfach auf den Onboard-Sound meines Mainboards gewechselt bin, war ich nach dem RAM-Verlust letztlich „nur“ ein halbes Jahr mit 4GB unterwegs. Dieses Experiment, mit einem einzigen 4GB-Riegel durch den Alltag zu kommen, hat sich dann doch als zu nervig herausgestellt, so dass ich einen zweiten, gebrauchten 4GB-Riegel nachbestellt habe. Zu oft geriet mein PC ins Stocken, zu oft starteten einige Spiele überhaupt nicht mehr.

Der Nachkauf bzw. die Inbetriebnahme des zweiten Riegels hat – natürlich – nicht im ersten Anlauf funktioniert. Wenn ich mich recht erinnere, hat es drei oder gar vier Bestellungen gebraucht, bis ich einen Riegel gefunden hatte, der mit meinem Mainboard und zu dem anderen originalen RAM-Riegel kompatibel war. Neu war es sowieso unmöglich, den identischen Riegel zu bestellen, zumal dieser ja ursprünglich auch Teil eines 2x4GB-Kits war. Aber auch der Plan, über Ebay gebrauchte, (zumindest) oberflächlich identische Riegel nachzukaufen scheiterte mehrmals. Gleicher Hersteller, gleicher Takt, gleiche Timings. All das war kein Garant für Kompatibilität. Naja, am Ende hat es dann funktioniert.

Kleiner Abschweifer

Creative X-Fi Extreme Music (Herstellerbild)

Ich möchte bei dieser Gelegenheit auch noch einen Satz zum Thema „Onboard-Sound vs. Native Soundkarte“ verlieren, da die Foren diesbezüglich ja vollgestopft mit leidenschaftlichen Diskussionen sind. In meinen Ohren war jedenfalls ein deutlicher (!) Unterschied zu erkennen. Und ich möchte behaupten, dass das jedem, der nicht ganz taub ist, ebenfalls aufgefallen wäre. Ganz egal ob Klarheit, Volumen, Details oder auch nur Lautstärke: die Creative-Soundkarte war in jeglicher Hinsicht deutlich der Realtek-onboard-Variante überlegen. Ich höre täglich mehrere Stunden Musik über meinen PC und freue mich daher jetzt schon wieder wahnsinnig darauf, dass im nächsten PC – Vorsicht Spoiler! – wieder eine native Soundkarte verbaut sein wird. Solange man die Daten nicht digital abgreift, erachte ich daher eine native Soundkarte weiterhin als unverzichtbar.

Ok, aber nun zurück zum eigentlichen Thema. Im Endeffekt habe ich also während dieser achteinhalb Jahre lediglich eine neue GPU und einen Ersatz-RAM-Riegel nachgekauft. Der Rest läuft und läuft und läuft.

Die Rückkehr

Und dennoch lest ihr hier diese Zeilen, die nichts anderes bezwecken, als die Vorstellung meines nächsten Rechners einzuleiten. Geplant sind aktuell drei Artikel. Der erste dreht sich um das Gehäuse und das Netzteil. Der zweite Artikel handelt von Mainboard, Prozessor, Kühler und Arbeitsspeicher. Und der letzte behandelt schließlich die Themen Grafikkarte, Soundkarte und Datenspeicher – garniert mit einigen kurzen Leistungsvergleichen sowie einer Schilderung meiner ersten Erfahrungen, z.B. zu den Themen Lautstärke und Temperaturen. Und hoffentlich werde ich nichts zu Abstürzen, Defekten oder Instabilitäten zu berichten haben. Aber wer weiß…

Es ist also wieder so weit. Vielleicht zum letzten Mal: der Azzkickr packt doch nochmal den Schraubenzieher aus, greift zum Entladen an den Heizkörper und bastelt sich einen neuen, viel zu teuren und für seine mittlerweile sehr überschaubaren Ansprüche viel zu leistungsfähigen PC. Aber die Leidenschaft schlägt die Vernunft.

Seid also dabei. Demnächst an dieser Stelle. :smile:

Azzkickr

gamescom 2014

Mortal Kombat X (Herstellerbild)

Mortal Kombat X (Herstellerbild)

Das war sie also, die neuerliche Auflage der gamescom. Und ich muss sagen, dass ich positiv überrascht worden bin. Vielleicht lag es an einer niedrigen Erwartungshaltung und der festen Überzeugung nur bereits Bekanntes sehen zu werden, aber im Nachgang muss ich für mich persönlich feststellen, dass die gamescom meine Lust am Zocken wieder entfacht hat. Und das liegt allem voran an einem Umstand: Der PC ist zurück!

Zugegeben, ich habe mir nicht die Mühe gemacht zu verifizieren ob mein subjektiver Eindruck auch tatsächlich zutrifft. Aber in meinen Augen ist es schon auffällig wie überschaubar einerseits die Anzahl der konsolenexklusiven Titel ist (allen voran die wirklich exklusiven und nicht nur zeitlich beschränkten) und dass die PC Umsetzungen andererseits fast immer gleichwertig sind. Dass Titel wie Mortal Kombat X, Ryse: Son of Rome und Metal Gear Solid 5: The Phantom Pain überhaupt auf dem PC erscheinen und weitere Spiele wie beispielsweise NBA 2K15 und FIFA 15 (vergleichsweise schnell) auch auf dem Heimcomputer den Sprung auf die „NextGen“ spendiert bekommen, ist doch sehr erfreulich. Und überhaupt: Spiele werden endlich schön! Auch abseits sündhaft teurer AAA-Produktionen ist mittlerweile fast durchgängig ein recht hohes Grafikniveau erreicht. Bleibt zu hoffen, dass damit aber noch nicht das Ende der Fahnenstange erreicht ist und aus den aktuellen Konsolen noch mehr herauszuholen ist.

Rückkehr der alten Garde

Emergency 5 (Herstellerbild oder -konzept)

Emergency 5 (Herstellerbild oder -konzept)

Die von mir subjektiv gefühlte Renaissance des PCs ist aber in der Hauptsache auf einen anderen Grund zurückzuführen: Die Rückkehr der klassischen PC-Genres Strategie und Wirtschaftssimulation. Might & Magic: Heroes VII, Die Siedler: Königreiche von Anteria, Rollercoaster Tycoon World, Emergency 5, Die Gilde 3, Cities: Skylines, Act of Aggression, Dungeons 2 und SpellForce 3. Meine Herren, da könnte einem doch glatt eine Freudenträne entweichen. Das vermutlich keines der Spiele meine – zugegeben sehr hohen – Erwartungen erfüllen wird und zudem einige Titel unnötig verändert und… ähm… „modernisiert“ wurden (Die Siedler!!!) wollen wir an dieser Stelle mal außen vor lassen. Ich möchte schließlich endlich mal einen Artikel ohne depressiven Unterton verfassen :smile:. Aber im Ernst: Zumindest die Dichte und Quantität ist schon beeindruckend. Und da hab ich noch garnicht das Paradox-Schwergewicht Hearts of Iron 4 sowie diverse Simulatoren (Landwirtschafts Simulator 15, Train Simulator 15 etc.) erwähnt.

Natürlich gab es abseits dieser Spiele auch noch andere Höhepunkte für mich. Ich möchte hier bewusst nicht die erwartbaren Kassenschlager wie z.B. The Witcher 3: Wild Hunt, Dragon Age: Inquisition, The Division oder Forza Horizon 2 näher erläutern (wenngleich ich mich wie verrückt auf jedes einzelne dieser Spiele freue). Nein, es sollen einige eher kleine Perlen sein auf die ich euch aufmerksam machen möchte.

Geheimtipps

Until Dawn (Herstellerbild)

Until Dawn (Herstellerbild)

Den Anfang macht Until Dawn. Ein sehr filmisch inszeniertes Horrorspiel, das ganz klar spielerische Elemente von Heavy Rain mit bekannten amerikanischen Teen-Horrorfilmen (z.B. Cabin in the Woods) kombiniert. Das Spiel wird vermutlich nur solide Kost werden – ich schätze auf Wertungen im 70er Bereich – aber ich liebe interaktive Filme und auch das Setting sagt mir sehr zu. Es ist leider PlayStation-exklusiv, aber dafür hab ich ja noch meine PS3.

Als zweite Perle möchte ich Life is Strange nennen. Das Spiel orientiert sich offenkundig an der The Walking Dead-Serie und kombiniert daher Adventureelemente mit guten Dialogen und folgenreichen Entscheidungen. Ort der Handlung ist eine fiktive Kleinstadt, in der sich ein komplexer Krimi entwickeln soll. Hört sich äußerst interessant an und sollte auch bei euch auf dem Schirm bleiben.

Zu guter Letzt sei noch Lords of the Fallen genannt. Was ich bislang davon gesehen habe gefällt mir außerordentlich gut. Es scheint nicht ganz so frustig zu sein wie die Dark Souls-Spiele, ist zudem zugänglicher und sieht hervorragend aus. Das es aus deutschen Landen kommt ist dann noch das I-Tüpfelchen für mich. Und ja: Mir gefällt das Spiel auch besser als das vielfach mit Vorschusslorbeeren übergossene Bloodborne.

Ihr seht: Da kommt auch abseits der üblichen Verdächtigen einiges auf uns zu. Was meint ihr: Erleben wir tatsächlich gerade die Rückkehr des PCs? Oder ist die hohe Dichte von Neuankündigungen reiner Zufall? Meint ihr, die Spiele werden auch ihrem Namen gerecht oder „verkasualisiert“? Und überhaupt: Was waren eure Höhepunkte? Ab damit in die Kommentare!

Nach den ersten beiden Teilen meines kleinen Hardwareausblicks, die sich auf die Themen Prozessoren und Chipsätze konzentrierten, habt ihr nun wie angekündigt den letzten und mit Abstand interessantesten Teil vor euch auf dem Bildschirm. Und Bildschirm ist da ein ganz tolles Stichwort, denn es soll heute um das große Thema des Visuellen gehen.

Bevor wir in die Thematik einsteigen jedoch aus aktuellem Anlass noch die Information, dass Intel zwischenzeitlich angekündigt hat, die neuen 100er-Chipsatzgeneration für Skylake mit bedeutend mehr und zudem signifikant schneller angebundenen PCIe-lanes auszustatten. Damit wird einer meiner elementaren Kritikpunkte an den letztjährigen Generationen ausgemerzt und die Kombination Intel Skylake + 100er Chipsatz bedeutend attraktiver. Insbesondere für SSDs, die in Zukunft – zumindest in Systemen von Enthusiasten – allesamt von den S-ATA-Ports in die PCIe-Slots wechseln dürften, ist das eine herausragende Nachricht. Meine Empfehlung für aufrüstwillige Desktopnutzer kann jetzt also endgültig nur noch lauten: Broadwell auslassen und auf Skylake warten. Alles andere wäre absurd.

Aber nun zum eigentlichen Thema: Grafik und Bildwiedergabe. Wer mich kennt, weiß, dass das ein Gebiet ist, das mich besonders reizt. Aber was hier bis Ende 2015 auf uns zukommt, sollte jeden halbwegs Technikinteressierten und allem voran natürlich Gamer interessieren. Eine vielversprechende GPU-Generation, hochwertige, mit neuen Funktionen ausgestattete und erschwingliche 4K-Bildschirme, DirectX 12 (im Zuge von Windows 9) und natürlich Oculus Rift. Hier ist für jeden was dabei. Und jede einzelne dieser neuen Entwicklungen bringt spürbare, teils revolutionäre Fortschritte. Holt man sich das Gesamtpaket, so wird man natürlich umso mehr fasziniert sein. Aber eines nach dem anderen.

Neue GPU-Generation

GeForce GTX 750 Ti (Herstellerbild)

GeForce GTX 750 Ti (Herstellerbild)

Normalerweise ist es relativ langweilig, über neue Grafikkarten zu berichten. Die grobe Formel „20%-30% mehr Leistung bei idealerweise etwas weniger Verbrauch“ gilt als etabliert. Was nVidia mit seiner neuen Maxwell-Architektur abliefert, hat es jedoch verdient, besonders hervorgehoben zu werden. Bislang gibt es nur zwei Desktopkarten dieser Generation: die GTX750 und GTX750Ti. Aber die haben es durchaus in sich. Während das Leistungsniveau der Bezeichnung entsprechend wenig überraschend im unteren Mittelklassebereich liegt, ist die Energieeffizienz auf Referenzniveau. Eine vergleichbar leistungsstarke Karte der Vorgängergeneration (z.B. die GTX650Ti Boost) zieht zwischen 40 und 50 Watt mehr aus der Steckdose. Anders gerechnet kann man ebenso sagen, dass eine GTX750Ti 40% mehr Leistung bietet als eine andere Grafikkarte mit ähnlichem Stromverbrauch. Entsprechend niedrig sind auch Temperaturentwicklung und Geräuschniveau (es gibt sogar komplett lüfterlose Karten). Zudem werden – je nach Hersteller – auch keine zusätzlichen Stromkabel benötigt. Und das ist – abseits aller Zahlenspielereien – einfach nur beeindruckend. Wer sich mit 30fps oder mittleren Grafikeinstellungen begnügt, bekommt für knapp 130 Euro eine Grafikkarte, die sehr sparsam, sehr leise und relativ kühl ist. Stark. Erste Oberklassekarten mit der neuen Architektur sind für das vierte Quartal 2014 angekündigt. Erste Gerüchte besagen, dass eine mögliche GTX880 etwa 20-30% schneller als eine GTX780Ti sein soll. Soviel also zur neuen Architektur.

Das wirklich interessante ist jedoch, dass alle diese Karten noch in 28nm gefertigt sind. Mit dem für Anfang/Mitte 2015 erwarteten Sprung auf 20nm (oder gar 16nm) sollte sich die Energieeffizienz nochmals spürbar verbessern. Ebenso werden im nächsten Jahr neue Schnittstellen in die Grafikkarten einziehen: HDMI 2.0 (wichtig für 4K @ 60Hz an Wiedergabegeräten ohne Display Port – also vornehmlich Fernsehern) und Display Port 1.2a bzw. 1.3 (wichtig für die Adaptive Sync Technologie, die dafür sorgt, dass sich die Bildfrequenz des Monitors an die fps-Rate anpasst und dadurch Zeilenverschiebungen eliminiert werden). Zudem, und das ist eine weitere, sehr erfreuliche Nachricht, wird ersten Gerüchten zufolge auch bereits DirectX12 vollumfänglich unterstützt.

Wir halten also fest:

  • Neue, spürbar verbesserte Architektur
  • Neuer Fertigungsprozess in 20nm/16nm
  • Neue Schnittstellen (HDMI 2.0, DP 1.2a)
  • Unterstützung von DX12

Neue Bildschirme

Redet man über die Leistungsfähigkeit und technische Ausstattung von Computern, denkt man zumeist an die Innereien des Gehäuses und nur selten an jenes Gerät, das einem die Leistung des Rechners auch optisch präsentiert. Das ist insofern verständlich, als das sich im Bereich Bildschirme seit Jahren nicht mehr viel getan hat. Andererseits entscheidet sich hier maßgeblich, ob die von der GPU berechnete Grafikpracht auch unverfälscht dem Nutzer präsentiert wird. Erfreulicherweise kommen einige sehr interessante Weiter- und Neuentwicklungen auf uns zu.

nVidia G-Sync Chip (Herstellerkonzept)

nVidia G-Sync Chip (Herstellerkonzept)

Die offensichtlichste Neuerung hat bereits Einzug auf den Markt gehalten: Ultra High Definition (UHD). Gemeint ist damit die Auflösung von 3840*2160 und damit die vierfache Pixelanzahl wie bei dem heute gängigen FHD-Pendant. Damit geht natürlich eine sichtbare Verbesserung der Bildschärfe einher. Zwar kann man sich durchaus streiten, ob man diese Auflösung bei den vergleichsweise kleinen Bildschirmen von PC-Nutzern benötigt, aber die Unterschiede sind doch bemerkenswert. Während man bei Smartphones und Tablets mittlerweile schon bei irrwitzigen Pixeldichten von ca. 550ppi angelangt ist, erreicht man selbst auf einem 28″-UHD-Monitor lediglich 157ppi. Die Verbesserung ist also tatsächlich noch sichtbar und durchaus sinnvoll, während man dies bei den heutigen Smartphones definitiv nicht mehr behaupten kann. Aber zurück zum Thema: Spiele profitieren von einer höheren Plastizität, die Arbeitsumgebung von mehr Bildfläche. Aktuell gibt es aber zu beiden Punkten starke Einschränkungen: Für Spiele in UHD und maximalen Details fehlt noch die nötige Grafikleistung, Desktoparbeiten leiden – auch unter Windows 8.1 – noch unter unzuverlässigen, oft fehlerhaften Skalierungen. Aber da wir ja in das Jahr 2015 blicken gilt hier eindeutig: UHD wird kommen und uns Gamern und Technik interessierten jede Menge Vergnügen bereiten.

Die für mich aber noch verlockendere Entwicklung sind Technologien, die die Aktualisierungsrate (refresh rate) von Monitoren an die von der GPU berechneten Bilder pro Sekunde (fps) anpasst. Seitens nVidia nennt sich das G-Sync, AMDs Pendant ist als Freesync betitelt. Die Ansätze unterscheiden sich leicht: Freesync ist herstellerunabhängig und zudem im offenen DisplayPort-Standard verankert (damit lizenzfrei), während G-Sync nur mit nVidia-Grafikkarten funktioniert und Monitore über einen entsprechenden Chip verfügen müssen. Wobei nach aktuellem Informationsstand aber auch für Freesync nicht jeder Monitor geeignet ist. Das Ergebnis ist aber dasselbe: Da sich Hz-Zahl von Monitor und Bildrate der Grafikkarte gleichen, entsteht kein hässliches und teilweise echt störendes Tearing (Zeilenverschiebungen bzw. Bildüberlagerungen) mehr. Bislang konnte man dieses Phänomen lediglich mit aktivierter vertikaler Synchronisation (VSync) bekämpfen. Hierdurch wurde eine Beschränkung der Bildrate auf (meistens) 60fps und damit exakt auf die Herzfrequenz gängiger Monitore erreicht. Allerdings muss man für diese Verbesserung in Regel einen höheren Input-Lag in Kauf nehmen. Jeder von euch sollte das schwammige und träge Gefühl von Mausbewegungen bei aktivierter vertikaler Synchronisation kennen. Für schnelle Spiele ist das also kein probates Mittel. Zudem funktioniert das ganze natürlich nur dann effektiv, wenn es die Grafikkarte auch überhaupt schafft, mindestens 60fps zu rendern – bei FullHD, maximalen Details und aktivierter Kantenglättung ist das bei den am häufigsten verbauten Mittelklassegrafikkarten keine Selbstverständlichkeit.

Asus ROG SWIFT PG278Q(Herstellerbild)

Asus ROG SWIFT PG278Q (Herstellerbild)

Der Vorteil der neuen Techniken liegt also auf der Hand: eine saubere, fehlerfreie Bildwiedergabe sowohl unterhalb als auch oberhalb von 60fps. Ein erster Monitor mit nVidias G-Sync ist seit Anfang August auch schon erhältlich, weitere angekündigt: Der Asus PG278Q ist ein 27″ Zoll Monitor mit einer Auflösung von 2560×1440, 1ms Reaktionszeit (grau zu grau) 144Hz-Panel und eben mit verbautem G-Sync-Modul. Dazu noch vielfach ergonomisch verstellbar und mit extrem schmalem Gehäuse. Allerdings: Es ist nur ein TN-Panel verbaut und der Preis liegt mit 800,00 € exorbitant hoch. Aber auch hier gilt: wir schauen ja auf das Jahr 2015 und bis dahin wird es das ganz sicherlich (hoffentlich) auch für 4K-Monitore und zu erschwinglicheren Preisen geben. Auf den perfekten Monitor (IPS, 4K, 1ms, 144Hz, G-Sync) wird man aber wohl vergeblich warten.

Kleiner Wehmutstropfen zum Schluss: Wer, trotz des horrenden Preises, tatsächlich von einem 3-Monitor-Setup mit oben genannten Asus-Monitoren träumt, muss bangen: G-Sync erfordert zwingend die Verwendung eines Display Ports. Da es aktuell keine nVidia-Grafikkarte mit drei (oder auch nur zwei) DPs gibt, muss auf spezielle „G-Sync-Editionen“ kommender Grafikkarten gehofft werden. Oder man bastelt sich natürlich ein Triple-SLI-System – für weitere 1000-1500 Euro :smile:.

Wir fassen also auch hier zusammen:

  • Auflösungen oberhalb von FHD werden Standard (2560×1440/3840×2160)
  • 120Hz bzw. 144Hz werden erschwinglich
  • G-Sync/FreeSync etabliert sich langsam
  • Kurzum: schärfere, flüssigere und fehlerfreie Bildwiedergabe

DirectX 12

Im Zuge von Windows 9, welches neuesten Gerüchten zufolge bereits Anfang 2015 erscheinen soll, wird auch eine neue Version von DirectX auf unseren Rechnern Einzug halten. Während man damit in der Vergangenheit fast ausschließlich neue grafische Funktionen verband, zeichnet sich Version 12 durch zwei besondere Verbesserungen aus: dem Bekämpfen des Overheads und besseren (=gleichmäßigeren) Auslastung mehrerer Prozessorkerne. Analog zu AMDs Mantle-Technologie – und vielleicht auch überhaupt erst durch deren Markteinführung bedingt – widmet sich nun also auch Microsoft (sicherlich auch auf Druck von nVidia) ähnlichen Optimierungen. Die Ziele sind die gleichen: bessere Performance, also gesteigerte Bildraten insbesondere bei schwächeren Prozessoren. Tests von AMDs Mantle sind durchaus beeindruckend und unterstreichen deutlich, dass es heutzutage oftmals die Software ist, die man verbessern sollte, statt ständig nach neuer, leistungsfähigerer Hardware zu rufen. Egal ob Mantle oder DX12 – Gamer werden Grund zur Freude haben. Teils spürbare Verbesserungen zum Nulltarif nimmt man doch gerne mit. Da unabhängig davon auch Windows 9 einige sinnvolle Änderungen verspricht (und durch die ungerade Ziffer sowieso wieder gut wird), ist es nur logisch, bei dem geplanten Rechner in 2015 auch softwareseitig aufzurüsten. Nicht zuletzt durch DX12 ist das auch bedeutend zukunftssicherer.

Oculus Rift

Oculus Rift DK2 (Herstellerbild)

Oculus Rift DK2 (Herstellerbild)

An dieser Stelle war ursprünglich ein umfangreicher Bericht über die wohl spannendste Entwicklung in 2015 geplant: das erstmalige Aufkommen marktreifer und hochwertiger VR-Technologie. Stattdessen erwarten euch jetzt nur einige, inhaltsleeren Zeilen. Der Grund ist einfach: Es wurde eigentlich schon alles zu dem Thema gesagt. VR und insbesondere die OR sind mittlerweile allgegenwärtig. Ich könnte hier nichts schreiben, was nicht eh schon bekannt wäre. Und da ich eine solche Brille auch noch nie selbst auf dem Kopf hatte, kann ich auch nicht von persönlichen Eindrücken berichten.

Daher nur ganz kurz: VR wird Ende 2015 „das nächste große Ding“. Da sind sich fast alle einig. Auch wenn auffällt, dass sich in der Berichterstattung langsam kritische Stimmen häufen. Auch beim aktuellen zweiten Development Kit, das über ein FHD Panel verfügt, sind die Pixel noch deutlich sichtbar. Ein Umstand, der viele Nutzer aus der Illusion herausreißt. Zudem wird der eingeschränkte Erfassungswinkel der externen Kamera bemängelt. Und nach wie vor hapert es an Software, die die Funktionen vollumfänglich und vor allem fehlerfrei nutzt. Natürlich: Es ist nach wie vor ein Entwicklerkit, zudem vergeht bis Ende 2015 noch viel Zeit. Man sollte die Erwartungen ob des enormen anfänglichen Hypes aber dennoch nicht zu hoch setzen. Zumindest die erste erwerbbare Version dürfte noch nicht „perfekt“ sein. Zu dem hier skizzierten „Nerd-Rechner“ in 2015 gehört VR aber zweifelsohne dazu.

Zusammenfassung

Der Kaufbefehl ergeht somit wie folgt:

Prozessor: Intel Skylake…
Mainboard: …mit 100er-Chipsatz
Grafikkarte: nVidia Maxwell in 20nm/16nm
Monitore: mindestens 1x2560x1440 mit 144Hz und G-Sync
Software: Windows 9 (wegen DX12)
Zubehör: Oculus Rift

Und wer es richtig ernst meint, kauft sich ausschließlich PCIe-SSDs, die auf NVMe setzen. Dazu schreib ich zwar auf absehbare Zeit keinen Artikel, aber das wird ebenfalls eine dieser vielen „beeindruckenden Weiterentwicklungen in 2015“ werden.

Nun verabschiede ich mich mit dem gut gemeinten Rat: Spart alle schon einmal ordentlich Geld bis Ende 2015, denn das oben genannte System dürfte mindestens 3000 Euro kosten :smile: .

Nächste Seite »