Eine der kaputten Ecken

Mein Subwoofer ist immer noch auf Urlaub in Berlin (seit fünf Wochen). Das liegt zum einen daran, dass Teufel fast drei Wochen von Wareneingang bis zur ersten Begutachtung gebraucht hat. Zum anderen aber erneut an DHL. Ja, sie haben es wieder geschafft den Subwoofer beim Transport äußerlich zu beschädigen. Dabei habe ich ihn aus meiner Sicht dieses Mal so viel ausgepolstert wie möglich. Das Ergebnis der Nachforschungen von DHL, die auch fast zwei Wochen verschlungen haben, war vorhersehbar: Ja, der Karton ist auf dem Weg beschädigt worden. DHL ist aber nicht schuld. Ich bin schuld, weil der Subwoofer aus ihrer Sicht nicht „so verpackt wurde, dass eine
Beschädigung beim Transport ausgeschlossen ist“. Die haben doch einen absoluten Knall. Teufel kann hier logischerweise nichts machen und verweist erneut auf ihre Anleitung wie der Subwoofer zu verpacken wäre. Vielleicht sollten sie ein Geschäftsmodell daraus machen und diese Verpackungen verkaufen, die sie da als Voraussetzung verlangen. Ich hab‘ so eine auf jeden Fall nicht griffbereit. Merke: Manchmal macht es doch Sinn den leeren Originalkarton im Speicher/Keller zu lagern.

Naja, es ist wie es ist. Beim letzten Mal hatte es schon ein paar Ecken erwischt, jetzt halt noch ein paar mehr. Das nächste Mal dürften keine Ecken mehr übrig sein, welche DHL beschädigen kann. Die Funktion des Subwoofers ist dadurch zum Glück nicht beeinträchtig und jetzt hängt er in der Reparaturwarteschlange fest. Kaputt sind sowohl die Vorstufen- als auch die Endstufenplatine. Materialkosten: 6 Euro (netto); Arbeitszeit 2,5 Stunden; Kostenvoranschlag: 139 Euro (brutto). Ja, mehr als erwartet (der Transistortausch waren nur 80 Euro) aber wie erwähnt ist ein neues 5.1-System ebenfalls nicht gerade billig und angeblich die Qualität nicht so gut wie die des Concept E Magnum. Also habe ich den Kostenvoranschlag unterschrieben und warte nun auf die Rückkehr des kleinen silbernen Kastens. Und da mir mein altes Corsair-Headset dann doch aufgrund der häufigen Nutzung extrem auf den Sack gegangen ist, habe ich es am 22.08.2019 nach etwas Recherche durch etwas Neues ersetzt.

Der Nachfolger

Das Teufel CAGE

Meine Wahl fiel am Ende auf das Teufel CAGE. Das erste Gaming-Headset, das von den Berlinern entwickelt wurde. Und da die Jungs grundsätzlich Ahnung von Sound haben sowie das Headset heruntergesetzt und gerade die Rabattaktion zum Jubiläum war, habe ich für 127,49 Euro zugeschlagen. Zum Verfassungszeitpunkt kostet es zwar auch nur 129,99 Euro aber so ist es halt mit PC-Hardware: Es gibt einfach keinen richtigen Kaufzeitpunkt.

Im Karton enthalten ist logischerweise das Headset, ein Mikrofon, ein 3m (!) langes USB-Kabel und ein 1,3m langes Kabel mit 3,5mm Klingensteckern. Ja, das Headset hat eine integrierte 7.1-Soundkarte (was mir wichtig war, weil ich nicht dauernd unter den Tisch kriechen wollte), kann aber auch direkt an die integrierte Soundkarte von PC oder Konsole angeschlossen werden. Sehr cool. Noch cooler ist, dass ihr es in einem Parallelbetrieb mit einem Smartphone laufen lassen könnt. Sprich ihr steckt das Headset über das USB-Kabel an euer Entertainmentgerät und steckt gleichzeitig die Klinge in euer Handy. So könnt ihr „gamen“ und seid trotzdem telefonisch erreichbar oder nutzt das Smartphone als MP3-Player. Das Mikrofon ist hingegen abnehmbar und kann sowohl rechts als auch links angesteckt werden. Braucht einem also nicht ständig vor dem Gesicht rumzuhängen, wenn man es nicht benötigt. Kann dafür aber nicht hochgeklappt werden. Entweder dran oder nicht dran ist die Devise und absolut okay für mich.

Look and Feel

Ich bin freilich nicht der absolute Gaming-Headset-Experte. Aber im Vergleich zum Corsair Vengeance 1500 v2, ist das Teufel CAGE wesentlich kompakter gestaltet und wirkt…ich würde es industriell nennen. Es ist grundsätzlich hochwertig verarbeitet und fühlt sich angenehm an Kopf und Ohren an. Die Polster der Ohrmuscheln lassen sich aber nicht abnehmen und auswechseln. Die im Betrieb rot leuchtenden „T“ an den Seiten dominieren ganz klar das Gesamtbild (und sind leider nicht abschaltbar). Die Ohrmuscheln sind an Scharnieren befestigt, die es erlauben diese komplett in die Kopfhalterung einzuklappen. Dadurch reduziert sich nicht nur der Platzverbrauch bei der Lagerung, sondern macht zudem das Headset für wesentlich mehr Kopftypen angenehm tragbar. Für Lysanda sind die Hörer zwar viel zu groß aber der Tragekomfort ist definitiv um Welten besser als beim Corsair. Der Druck des Kopfbands ist auch bei längeren Sessions zwar spürbar aber nicht unangenehm (das Headset wiegt 320g). Und die Ohrmuscheln machen ebenfalls zwar etwas die Ohren warm, es lässt sich jedoch absolut aushalten und somit absolut kein Vergleich zum Corsair.

Aufgrund der Möglichkeit das Headset mit zwei verschiedenen Kabeln anzuschließen, sind die Bedienelemente logischerweise am Headset selbst und nicht am Kabel befestigt. Alle Knöpfe haben eine vorbildliche Haptik und man kann sie tatsächlich nicht verwechseln. Der Stummschalter am Mikrofon wird z.B. reingedrückt, während der Knopf zum Auswählen der Verbindung (USB oder Klinke) ist hingegen zum Schieben und Einrasten. Daneben gibt es noch einen (Gummi-)Knopf zum Annehmen von Anrufen und eine Lautstärkerolle (sehr rau und mit angenehm viel Widerstand). Je nach Modus können die Knöpfe andere Funktionen haben (z.B. zweimal den Headset-Knopf drücken, um die Musik zu starten), frei konfigurierbar sind sie aber leider nicht.

Die Software

Sogar die Abtastrate lässt sich verändern.

Grundsätzlich funktioniert das Teufel CAGE einfach, wenn ihr es ansteckt. Aber wie immer könnt ihr damit nicht das volle Potential entfalten. Dafür braucht ihr die offizielle Software und ich muss erneut sagen: Da liegen nicht nur Welten, sondern ganze Universen zwischen dem Angebot von Teufel und dem von Corsair. Konnte ich bei Corsair gerade noch ein bisschen mit dem Equalizer rummachen und zwischen simulierten 5.1- und 7.1-Sound wechseln, bietet Teufel eine Fülle von Optionen. Darunter Details wie für jedes Ohr unterschiedliche Lautstärken und Zusatzfunktionen wie der simulierte Surroundsound oder den dynamischen Bass an die eigenen Wünsche anzupassen – und zwar sowohl für die Ausgabe als auch die Aufnahme. Gut, es gibt Funktionen, die sind so nutzlos wie ein Kropf. Zum Beispiel die „Xear Magic Voice“, welches eure Stimme auf Wunsch verändert. Aber gut: Irgendeiner wird sich freuen.

Richtig genial finde ich, da mein Computer bekanntlich rechts unter dem Tisch steht, dass sich die Stereokanäle vertauschen lassen. Somit muss das Kabel nicht über meinen Schoss laufen. Die Funktion hängt mit dem Mikrofon zusammen, da alle Buttons und Anschlüsse nur an einer Ohrmuschel vorhanden sind. Das Mikrofon lässt sich somit nur vorne oder hinten an dieser Muschel befestigen. In der Software habt ihr nun die Möglichkeit zu sagen, ob das Mikrofon rechts oder links ist und entsprechend tauscht er dann die Kanäle von links nach rechts und umgekehrt. Und nein: Dazu müsst ihr nicht zwingend das Mikrofon gesteckt haben. Das ist einfach nur ein Button in der Software.

Fazit

Jetzt aber genug vom Drumherum. Ja, es ist angenehm zu tragen. Ja, es hat viele sinnvolle (und ein paar für mich nutzlose) Features. Aber das Wichtigste ist natürlich der Klang. Blöd nur, dass ich absolut kein Audiophile bin. So kann ich mit Angaben wie „40-mm-Mylar-Töner“ und „Nennimpedanz 32 Ohm“ absolut nichts anfangen. Fakt ist: Die integrierte Soundkarte ist 7.1-fähig und ich kann mich absolut nicht beschweren. Im ersten Moment hörten sich z.B. die Waffen in The Division zwar im Vergleich zum Corsair-Headset etwas anders an. Aber das ist jetzt erst einmal nichts Schlechtes. Die Punkte aus diversen Tests, dass der Bass etwas schwach auf der Brust wäre und der Sound „linear“ klingen würde kann ich aufgrund meiner mangelnden Erfahrung weder bestätigen noch belegen. Der Sound bei meinem Standardtest, Iron Maidens „Ghost Of The Navigator“ (vom Album Brave New World), war wie erwartet und in den bisher gezockten Titeln habe ich keine signifikanten Unterschiede (sowohl positiv als auch negativ) bemerkt. Das heißt entweder, dass ich stocktaub bin oder Teufel grundsätzlich zumindest für Laien wie mich etwas Anständiges abgeliefert hat.

Insofern ist mein abschließendes Fazit: Anders als beim Corsair habe ich den Kauf des Teufel CAGE absolut nicht bereut. Es handelt sich hier um ein hochwertig verarbeitetes Headset mit einem angenehmen Tragekomfort, einem großen Funktionsumfang (den ich nur im Ansatz nutze) und einen für meine Ohren guten Klang. Mir fällt nach zwei Wochen intensiver Nutzung auch sonst weiter nichts Negatives ein. Ich dachte zwar, ich hätte einen Punkt aber der hatte sich nach etwas Recherche erledigt (war ein Fall von PEBCAK). Von mir gibt es somit eine klare Kaufempfehlung.

Sicarius

Subbi und Heddi

Der dritte Monitor

Das älteste, noch in Betrieb befindliche Stück PC-Hardware an meinem Rechner dürfte mein Iiyama ProLite H540S-B sein, den ich 2004 erstanden habe. Und obwohl er letztes Jahr mal ein paar Wochen Auszeit brauchte, um sich von einer Überlast zu erholen, tut er weiterhin seine sehr guten Dienste als dritter Monitor. Gibt also keinen Grund für mich ihn auszutauschen. Anders sieht es mit meinem zweiältesten Stück Hardware aus, das lt. Rechnung am 24.11.2005 in meinem Haushalt ankam: Das Teufel Concept E Magnum 5.1. Der Subwoofer hat in der Vergangenheit zwar bereits zweimal Probleme gemacht (jeweils 2013 und 2014 nach meinen Umzügen) aber sich jetzt doch wieder einige Jahre gefangen. Selbst den letzten Umzug überlebte er ohne Murren. Leider hatte er vor zwei Wochen wieder das Furzen angefangen und ging nur nach einer Ruhephase überhaupt wieder an. Sprich aus meiner Sicht wieder der gleiche Fehler wie vor fünf Jahres. Damals wurde ein Transistor getauscht, was auf 80 Euro Reparaturkosten hinauslief.

Nun hat das Soundsystem für seine damals 200 Euro (inkl. zwei Ständern) definitiv seinen hervorragenden Dienst geleistet und nach 14 Jahren könnte man sicherlich mal wieder was Neues gönnen. Aber zum einen habe ich immer noch Azzkickr im Ohr, der vor Jahren mal meinte, dass das Concept E Magnum immer noch das beste System auf dem Markt ist. Wobei ich davon ausgehe, dass das mittlerweile nicht mehr stimmt? Zum anderen kostet ein anständiges, neues 5.1-System auch gleich wieder 300 Euro oder mehr. Und das investieren nur, weil die Elektronik einen Knacks hat und sonst alles noch einwandfrei in Ordnung ist? Ja, ne. Da gugge ich dann doch lieber, ob ich nochmal mit unter 100 Euro davonkomme und ein paar weitere Jahre einen gelungenen Sound genießen kann. Entsprechend ging es für Subbi mal wieder ab in die Kiste und Richtung Berlin, wo ihn seit Anfang der Woche die Techniker begutachten. Mal schauen was dabei rauskommt.

Der Ersatz

Das Corsair Vengeance 1500 v2

Das heißt aber nicht, dass ich hier jetzt ohne Ton sitze. Nein, schon beim ersten Ausfall meines geliebten Subbis Ende 2013 hatte ich mir ein gescheites Headset gegönnt: Das Corsair Vengeance 1500 v2. Ein Dolby 7.1 USB Gaming Headset, also mit integrierter Soundkarte und simuliertem Raumklang. Aber irgendwie habe ich euch nie wirklich darüber berichtet obwohl es ab dann auch bei der Videoaufnahme zum Einsatz kam. Keine Ahnung warum. Doch spät ist bekanntlich besser als nie. Also: Was taugt das mittlerweile sechs Jahre alte und neu nicht mehr erhältliche Ding in der Praxis?

Die negativen Seiten

Nun, fangen wir mit dem größten Negativpunkt an: Der Treiber und die dazugehörige Software sind absoluter Scheißdreck. Man muss es wirklich so deutlich sagen. Der Grund ist einfach und simpel: Im Standard ist das Headset viel, viel zu laut. Auf mehr als 2% Lautstärke werden euch schon die Ohren ausgeblasen und alle umstehenden können mithören. Ein Problem, das Corsair NIE auch nur verstanden, geschweige denn behoben hat, wenn man so in den alten Foren liest. Die einzige Lösung bietet eine Drittsoftware namens Equalizer APO. Mit ihr habe ich die Ausgabe des Wiedergabegeräts „Corsair Vengeance 1500 Gaming Headset“ um 25dB reduziert. Jetzt kann ich den Lautstärkeregler tatsächlich benutzen und bis auf 30-50% hochgehen, ohne dass ich taub werde. Diese Information wird übrigens vom Programm direkt in die Registry geschrieben. Es läuft also nicht ständig im Hintergrund. Man muss es nur einmal ausführen und solange kein Treiberupdate passiert, bleibt die Einstellung erhalten.

Die weiteren Negativpunkte sind hingegen vermutlich individuell aber ich möchte sie natürlich nicht verschweigen. So fängt es an mit dem (abnehmbaren) Memory-Foam-Ohrpolster. Ja, das ist super weich, wirklich bequem und die Umgebung wird auch gut (allerdings zum Glück nicht komplett) ausgeklammert. Leider werden mir darunter die Ohren sehr schnell, sehr warm. Entsprechend suboptimal für langes Spielen, besonders im Sommer. Zumal ich sowieso schon sehr stark schwitze – womit wir schon beim nächsten Negativpunkt sind: Vermutlich aufgrund meiner Schwitzerei löst sich mittlerweile die Stoffummantelung der Kopfhalterung in ihre Bestandteile auf. Lysanda wundert sich öfters, warum ich schwarze Flecken auf der Stirn habe. Das sind die Reste vom Headset :smile: . Mein größtes Problem ist aber tatsächlich der Tragekomfort. Das Ding liegt extrem schwer auf dem Kopf und tut schon nach vergleichsweise kurzer Zeit tatsächlich weh.

Die positiven Seiten

Es ist jedoch nicht alles schlecht am Corsair Vengeance 1500 v2 (nein, ich weiß nicht was der Unterschied zwischen v1 und v2 ist). Das Kabel ist angenehm lang und im Gegensatz zu scheinbar jedem anderen, finde ich es ganz gut, dass an besagtem Kabel eine gut bedienbare Lautstärkeregelung (und Mikrofonstummschaltung) ist. Ich finde es an der Ohrmuschel tatsächlich ziemlich doof (sowas habe ich auf der Arbeit), da ich da bei der Bedienung logischerweise nichts sehe. Dass sie leuchtet hätte ich zwar nicht gebraucht, aber so kann man immerhin direkt sehen ob das Mikrofon an oder aus ist. Über das Mikrofon kann ich mich auch nicht beschweren, obwohl es gefühlt ziemlich weit vom Mund weg ist. Aber da ich über 30 Videos damit vertont habe und sich über besagten Ton keiner von euch beschwert hat, scheint alles zu passen.

Die Lautstärkeregelung

Und der Klang ist zumindest für meine Ohren über jeden Zweifel erhaben. Der simulierte 5.1- oder 7.1.-Raumklang ist erstklassig und kommt sowohl bei Musik, Filmen als auch Spielen sehr gut rüber. Ich hatte bislang nicht das Gefühl, dass ich irgendetwas verpasst habe nur weil ich das Headset statt meiner Boxen benutzt habe. Natürlich kann man sich fragen, warum ich zu einem Headset mit integrierter Soundkarte gegriffen habe. Schließlich ist in meinem Rechner eine Creative Soundblaster X-Fi Titanium Fatal1ty Professional Series verbaut. Aber die Antwort ist ganz einfach: Faulheit. Ich hatte keinen Bock jedes Mal unter meinen Tisch zu kriechen und die Kabel umzustecken. Also habe ich zur USB-Variante gegriffen.

Beim Christoph meint: Ich würde das Corsair Vengeance 1500 v2 nicht mehr kaufen und es auch niemandem empfehlen (einige Quake Live-Streamer hatten es damals benutzt – so kam ich drauf). Ich verstehe ehrlich gesagt nicht, warum ich es nicht schon 2013 gleich wieder zurückgeschickt habe. Bis auf das Auflösen der Ummantelung waren alle Negativpunkte sofort erkenn- und spürbar und speziell der Tragekomfort ein absolutes NoGo. Und für 90 Euro sollte man dahingehend definitiv etwas Besseres erwarten.

Vermutlich habe ich damit argumentiert, dass es ja hauptsächlich für die Videoaufzeichnung und ein paar Notfälle war. Entsprechend hielt sich die Notwendigkeit es zu benutzen in Grenzen. Dank Lysanda, die nicht ständig das „PENG PENG“ aus dem Computer ertragen möchte, nutze ich es mittlerweile allerdings häufiger. Insofern werde ich es über kurz oder lang definitiv in Rente schicken und mir was Besseres holen. Vielleicht von Sennheiser oder so.

Steam Link Box (Herstellerbild)

In-Home-Streaming ist grundsätzlich nichts Neues für Valve. Das gibt es auf Steam schon seit 2014. Valve hat damals sogar extra eine Hardwarebox namens Steam Link rausgehauen. Der Erfolg hielt sich leider in Grenzen. Passiert.

Zur Erinnerung: Dank In-Home-Streaming könnt ihr einen Rechner quasi als Spieleserver (Filme gehen natürlich auch) missbrauchen und über andere Rechner und Fernseher innerhalb des gleichen Netzwerks zocken. Keine sonderlich komplizierte Sache tatsächlich. Das Spiel wird einfach direkt oder remote auf dem Hostrechner gestartet (nicht vergessen dort die Boxen auszuschalten!) und dann per Desktop Sharing Vollzugriff gewährt, damit ihr die Steuerung übernehmen könnt. Vorteil ist, dass ihr so das Spiel auf dem Client in besseren Einstellungen zocken könnt als es der Client an sich zulassen würde, da es auf besserer Hardware gestartet wurde.

Ja, es macht aus meiner Sicht wenig Sinn zwischen zwei gleichwertigen Rechnern zu streamen außer man möchte die aktuelle Gaming-Session so kurz wie möglich unterbrechen, denn ja: Ein weiterer Vorteil ist, dass ihr fließend weiterzocken könnt. Quasi vom Hauptrechner aufstehen, den Ersatz in die Hand nehmen und weiter geht’s. Nintendo-Switch-Besitzer machen das vermutlich den ganzen Tag so.

Der einzige Knackpunkt bei sowas ist die benötigte Bandbreite und die Latenz. Macht schließlich keinen Spaß z.B. in GRID Autosport das Lenkrad nach rechts einzuschlagen und dann doch gerade aus in die Band zu fahren, weil das Spiel nicht rechtzeitig reagiert hat. Aber im eigenen Netzwerk sollte das normalerweise selbst über WiFi nicht das große Problem sein.

Die App

Die Steam Link App kommt ohne Firlefanz aus.

Vor fast genau einem Jahr brachte Valve dann die Steam Link-App raus. Wie der Name schon andeutet, erfüllt sie die gleiche Funktion wie die physikalische Steam Link Box aber eben nur in Softwareform. Damit ist es nun nicht mehr nur möglich von Rechner zu Rechner zu streamen, sondern eben auch von Rechner zu Smartphone oder jedes andere beliebige Gerät mit entsprechendem Betriebssystem. Ursprünglich geplant für Android, Raspberry Pi und iOS, verweigerte Apple der App jedoch die Freigabe, weil sie angeblich gegen irgendwelche Regeln verstoßen würde. Ich kam also leider nicht in den Genuss davon. Ich weiß: Jetzt lachen sich wieder alle ins Fäustchen von wegen „Selbst schuld, wenn man völlig überteuerte und total restriktive Hardware benutzt!“.

Aber man soll bekanntlich niemals nie sagen: Seit letzter Woche gibt es Steam Link völlig überraschend für iOS. Angeblich ein Hauptgrund für die jetzige Genehmigung und auch gleichzeitig mein erster Kritikpunkt: Der Zugang zum Steam Store ist über Steam Link nicht möglich (allerdings schon seit Juni 2018). Ist für mich unverständlich, dass das eine Auswirkung gehabt haben soll, schließlich gibt es eine offizielle Steam Mobile App über die ich unter anderem (viel zu viele) Spiele kaufen kann. Aber gut: Mit der Begründung kann man natürlich ebenso sagen, dass das Fehlen der Funktion dann doch nicht ganz so schlimm ist. Und dem stimme ich zu.

Die Nutzung

Als jemand, der zeitweise lieber Faul im Bett liegt statt am Rechner zu sitzen während selbiger im angeschalteten Zustand nutzlos im Nebenraum steht, habe ich mir die Steam Link App selbstverständlich sofort geholt.

DOOM (2016) auf einem Smartphone? Geil!

Die Einrichtung geht fix: Nach dem Start macht er einen Bandbreitentest und sucht im Netzwerk einen Rechner mit offener Steam-Applikation. Sobald er ihn findet, müsst ihr dort einen kleinen Bestätigungscode eingeben und das wars. Ein weiterer Klick und auf dem Host wechselt Steam in den Big Picture Mode und die Übertragung beginnt. Ihr könnt natürlich noch einen Controller verbinden, wenn euch Touch Control nicht so liegt und ein paar Einstellungen wie z.B. die Streaming-Qualität vornehmen. Aber alles in allem ist die App sehr schlank und man ist sofort mittendrin.

Der erste Eindruck

Was mir als erstes aufgefallen ist: Die App zwingt den Host nicht in einen exklusiven Modus. Das hat positive wie negative Seiten. Eine tolle Sache ist, dass z.B. auch die Musik aus Winamp (ja, ich benutze immer noch Winamp :smile: ) direkt übertragen wird. Hier schafft er es sogar (anders als bei den Spielen) die Musik dann nicht mehr über die Boxen des Hosts laufen zu lassen, sondern nur noch über den Client.

Gleichzeitig kann jeder weiterhin am Host rumhantieren wie er möchte und euch damit als Client das Leben schwer machen. Kennt der ein oder andere vielleicht noch von LAN-Parties wo lustige Gesellen euch heimlich Fernsteuerungssoftware auf den Rechner gepackt haben und eure Maus bewegten. Ja, wir waren alle mal „wahnsinnig tolle“ Hacker :wink: . Das hat natürlich den Vorteil, dass ihr im Fehlerfall nicht vom Host ausgeschlossen seid. Aber kann in einem Mehrfamilienhaushalt vor allem mit Kindern sicherlich zur ein oder anderen Unterbrechung führen.

Der dritte Punkt ist technisch gesehen im hauseigenen Netzwerk nicht ganz so schlimm, aber ich kann mir durchaus Situationen vorstellen, wo das etwas doof ist: Ihr habt nicht nur Zugriff auf Steam, sondern technisch gesehen auf den vollständigen Rechner. Steam Link ist im Kern halt einfach nur eine Desktop-Sharing-App. Dazu müsst ihr schlicht den Big Picture Mode beenden und schon seid ihr auf dem Desktop. Die mögliche Spionage- und Sabotagefunktion geht sogar so weit, dass wenn ihr mehrere Monitore habt er immer den Monitor in der App darstellt, auf dem sich gerade die Maus befindet.

Die Bedienung

Große Buttons für große Finger

Da alles andere gesperrt ist, bleibt euch nach der Verbindung nichts anderes übrig als in eure Spielebibliothek zu wechseln. Hier habt ihr alle Funktionen, die ihr erwarten würdet sowie ein paar mehr. So könnt ihr natürlich filtern und suchen aber sogar Spiele auf dem Host deinstallieren und installieren, eure Steam-Downloads managen, Konfigurationen vornehmen und so weiter. Nur eben weder neue Spiele noch DLCs kaufen. Mehr gibt es dazu nicht zu sagen. Es ist einfach Steams Big Picture Mode. Er funktioniert und man kommt relativ zügig zum Starten des Wunschspiels. Die Bedienung wurde dazu nicht grundsätzlich verändert.

Steam Link stellt euch sowohl für die Navigation im Big Picture Mode als auch in den Spielen selbst drei Bedienarten zur Verfügung: Gamepad, Maus oder eine Kombination aus beidem. Ihr könnt jederzeit per Knopfdruck zwischen jedem Modus wechseln. Außerdem steht euch auf Knopfdruck immer eine Tastatur zur Verfügung. Ihr müsst also nicht zwingend per Gamepad irgendwelche langen Eingaben tätigen, um z.B. ein Spiel zu suchen. Alle Eingabearten haben ein Standardlayout, welches ihr aber relativ frei konfigurieren könnt.

Sind euch beispielsweise wie mir (dicke Wurstfinger!) die Gamepad-Buttons zu klein, könnt ihr sie einfach größer ziehen. Fehlen euch Buttons (z.B. eine 8. Maustaste – ja, ihr lest richtig), könnt ihr sie einfach auf den Bildschirm ziehen. Er merkt sich diese Einstellung dann auch – allerdings anscheinend nicht pro Spiel, sondern nur grundsätzlich. Das ist insofern ungünstig, da man natürlich je nach Titel mitunter mehr oder weniger Buttons braucht und zumindest auf einem Smartphone ist der verfügbare Platz auf dem Bildschirm jetzt nicht ganz so groß.

Die Gaming-Experience™

Endlossrunner gehen immer.

Aber kommen wir doch endlich mal zum Wesentlichen: Das Spielen. Funktioniert es und ist es praktikabel? Die Antwort ist: Ja, es funktioniert aber ob es praktikabel ist hängt vom gewählten Spiel, euren Bedienungsoptionen sowie eurer verfügbaren Bandbreite ab. Je mehr das Netz belastet wird, desto geringer wird selbstverständlich die Übertragungsqualität und darunter leidet nicht nur die Darstellung, sondern – viel wichtiger – auch die Latenz. Im Schlafzimmer hatte ich jedoch keine Probleme in der Hinsicht. Selbst etwas hektischere Titel wie Audiosurf 2 gingen einwandfrei von der Hand. Und in allen anderen getesteten Titeln hatte ich ebenso wenig das Gefühl, dass meine Eingaben irgendwo im Äther verschwinden wurden.

Andererseits ist es eben nur bedingt sinnvoll DOOM (2016) mit Touch Controls auf einem Minibildschirm zu zocken. Ja, es geht natürlich prinzipiell und es ist grundsätzlich eine saugeile Sache so einen anspruchsvollen Titel auf dem Smartphone zu zocken. Aber zumindest ich will das definitiv nicht längere Zeit tun. Da gibt es bessere Kandidaten wie das bereits erwähnte Audiosurf 2 oder TRON RUN/r. Selbst Crypt of the NecroDancer hat anders als The Binding of Issac: Rebirth ganz gut funktioniert. Bei digitalen Brettspielen wie Talisman: Digital Edition ist hingegen die Einschränkung, dass ihr sehr oft manuell hinein zoomen müsst, um was sehen zu können. Insofern ginge sogar ein Crusader Kings II aber auch hier überschreiten wir aus meiner Sicht die Grenze der Praktikabilität. Mit angeschlossenem Controller kann ich mir hingegen ein Beat ‚em up wie BlazBlue: Calamity Trigger ganz gut vorstellen. Ohne habe ich es jedoch nur grad so das erste Level von Ragnas Kampagne geschafft.

Einen Visual Novel im Bett erleben? Perfekt!

Perfekt ist das In-House-Streaming auf mein iPhone 6 Plus hingegen für Visual Novels muss ich sagen. Ich weiß, ist keine Überraschung wenn man sich den App Store so anschaut aber egal. Man muss keine speziellen Bedienlayouts definieren (normaler Mausmodus reicht), die benötigte Bandbreite ist übersichtlich, der Text ist gut zu lesen, die Bilder kommen weiterhin zur Geltung und ich kriege keinen Krampf in den Fingern vom ständigen Herumgeschiebe auf dem Bildschirm. Das wird vermutlich dann auch erst einmal mein Haupteinsatzfall für Steam Link sein. Hab‘ ja mittlerweile einige (ja, nicht nur jugendfreie) Spiele aus diesem Genre, die ich endlich mal erleben möchte. Juniper’s Knot habe ich beispielsweise am Wochenende beendet (dauert nur 60 Minuten, ist eine absolute Empfehlung und kostenlos!) und mit Dysfunctional Systems: Learning to Manage Chaos angefangen.

Fazit

Aus meiner Sicht hat Valve mit der Steam Link App mal wieder was Anständiges abgeliefert. Ja, der Nutzen ist abhängig davon welches Gerät und welche Art der Bedienung euch zur Verfügung steht und welches Spiel ihr spielen wollt. Aber das ändert nicht daran, dass es echt praktisch ist jetzt auch mit mobileren Geräten als nur Laptops überall und unterwegs (solange das eigene Netzwerk in Reichweite ist) auf seine komplette Steambibliothek zugreifen und zocken zu können. Musste man beispielsweise früher wegen dem Ruf der Natur die Spielesession unterbrechen, kann man direkt das Smartphone anwerfen und auf dem Klo weiterzocken. Was leben wir doch in einer fantastischen Welt.

In diesem Sinne: Bis Montag!

Die Synology DS218J (noch leer).

Die Vorstellung einen eigenen Server Zuhause stehen zu haben fand ich eigentlich schon immer schick. Ganz früher lief Killer’s World sogar mal einige Zeit dank Samba Server auf meinem damaligen Hauptrechner. Aber auch wenn ich über die Jahre immer mal wieder mit dem Kauf eines Network Attached Storage (NAS) geliebäugelt habe: Es gab einfach keinen Grund für mich einen zu besitzen. Die Webseite will ich heutzutage definitiv nicht bei mir hosten, die Anzahl der Endgeräte war äußerst überschaubar und die Notwendigkeit auf meine Daten selbst innerhalb des Netzwerks zuzugreifen war nur selten gegeben. Und wenn ich doch mal was mit jemand anderes austauschen wollte, konnte ich entweder die externe Festplatte einfach mitnehmen oder kurz den BulletProof FTP Server anschmeißen.

Mit zwei Personen im Haushalt sieht die Sache natürlich schon ganz anders aus. Lysanda will beim Basteln ihre heruntergeladenen Gesundsheitsvorträge auf dem Handy anhören/ansehen. Ich würde beim Wäsche aufhängen im Keller auf dem Handy gerne mehr hören als nur meine doch immer noch überschaubaren Bandcamp-Einkäufe. Auf der Couch wäre es ebenso praktisch digital vorliegende Filme, Fotos und Musik direkt über den Fernseher abspielen zu lassen statt immer den Laptop/eine externe Festplatte anschließen zu müssen. Und den Vorteil im Bett (und auf dem Klo) Zugriff auf alles zu haben, brauche ich sicherlich nicht separat zu erwähnen. Natürlich kann man die Daten auf jedes Endgerät ausspielen oder über externe Festplatten anhängen. Aber außer, dass man etwas Datensicherheit gewinnt (sie sind ja dann doppelt und dreifach vorhanden), ist das in Sachen Komfort einfach nur Mist. Ich will jetzt Lied x,y,z hören und genau das habe ich gerade nicht auf dem jeweiligen Endgerät drauf. Alles Gründe, warum wir entsprechend schon seit dem Hauskauf einen NAS auf unserer Einkaufsliste hatten aber wie so oft kam immer etwas Wichtigeres dazwischen. So ein NAS ist schließlich nichts so Essentielles wie Heizöl und kostet trotzdem sein Geld.

Das Zünglein an der Waage war nun mein Rechnerupgrade und die Befürchtung, dass meine alte externe Platte ihr Lebensende schneller als geplant erreichen würde. Bevor ich mir aber eine neue externe Festplatte nur für meine Daten kaufe, machte es mehr Sinn etwas tiefer in die Tasche zu greifen und uns endlich einen NAS anzuschaffen. Nun steht entsprechend neben der AVM FRITZ!Box 7490 ein schicker weißer Kasten.

Das Gerät

Die HDDs sind drin.

Die Wahl fiel auf eine Synology DiskStation 218j. Synology hat im Bereich der NAS einen sehr guten Ruf und ihre Sachen sind angeblich vor allem für Einsteiger hervorragend geeignet. Und warum die DS218j statt der DS218play? Nun, hauptsächlich wegen dem preislichen Unterschied. Ja, die play hat einen 64bit QuadCore-Prozessor mit 1,4Ghz sowie 1GB DDR4-RAM im Vergleich zum 32bit DualCore-Prozessor mit 1,3Ghz und 512MB DDR3-RAM der „j“-Variante. Leitungsmäßig macht das garantiert einen bemerkbaren Unterschied (für die Erzeugung der Vorschauansichten von ~150.000 Bildern hat er z.B. mehrere Tage gebraucht). Aber aktuell sowie in der mittelfristigen Zukunft ist der NAS für uns einfach nur ein Datengrab auf das wir mit diversen Endgeräten zugreifen wollen. Da brauchen wir aus meiner Sicht (und der bisherigen Erfahrung) die zusätzliche Power nicht. Es laufen eh nicht viele Anwendungen drauf und 4K-Video-Transkodierung ist absolut kein Thema für uns.

In den NAS haben wir dann zwei WD Red mit je 4TB verbaut. Auch wieder ein Kompromiss aus Preis und Leistung, da die 6TB fast das Doppelte kostet und wir zum Verfassungszeitpunkt mit 2TB auskommen (genauer gesagt 1,83TB). Und Western Digital Red auch wieder wegen ihrem guten Ruf langlebige Serverfestplatten zu sein. Der Einbau der Festplatten war ein Klacks (Deckel auf, reinschieben, festschrauben, Deckel zu) und die Inbetriebnahme der Hardware quasi innerhalb von wenigen Minuten erledigt. Da das Ding im Schrank steht (keine Angst: ohne Rückwand und nicht bündig mit der Wand – also Luft kann zirkulieren), kann ich die Lautstärke nicht wirklich beurteilen. Aber es gibt vier Lüfterstufen und Standardmäßig läuft der Lüfter im Silent-Modus (die zweitniedrigste). Ich habe ihn eine Stufe höher auf den Kühlmodus gestellt, höre ihn bei normaler Last nur wenn der Raum völlig still ist (weil der Schrank etwas vibriert) und habe im Ergebnis 36-40°C (derzeit sogar nur 28-30°C bei 21°C Außentemperatur und 0% Last), was für eine HDD im grünen Bereich ist. Und bei besagtem Mehr-Tages-Bilder-Indexieren war trotzdem bei 48°C Gehäusetemperatur Schluss. Perfekt!

Betriebsmodus

Beide Platten laufen im Synology Hybrid RAID-Modus, was bei zwei gleich großen Festplatten nach meinem Verständnis nichts anders als RAID 1 (Mirroring) bedeutet. Das war keine bewusste Entscheidung, denn ich habe bei der Ersteinrichtung schlicht nicht aufgepasst. Aber im Ergebnis ist es egal. Ein RAID ist bekanntlich kein echtes Backup (fackelt der NAS ab, ist eh alles vorbei), es geht also nur um Datensicherheit bei Festplattenausfall durch Redundanz und da reicht SHR aus meiner Sicht völlig aus.

Die Oberfläche des DSM6.2

Ich erwarte zwar, dass es vermutlich ein größeres Unterfangen sein wird, wenn ich dann doch mal die Festplatten auswechseln muss. Aber Synology wirbt tatsächlich damit, dass es zumindest bei gleichen oder größeren HDDs im SHR-Modus einfach gehen würde (eine alte raus, eine neue rein -> starten, Daten werden geklont, 2. HDD raus und neue rein -> Daten werden wieder geklont). Aber vollkommen zukunftssicher kann man sowas sicherlich nie aufbauen.

Die Software

Da ein Server nichts anderes ist als ein Computer, braucht auch er ein Betriebssystem, um mit den Festplatten überhaupt was anfangen zu können. Deswegen gibt es so Sachen wie Windows Server 2016. Unser NAS ist da nicht anders und es gäbe sicherlich die Möglichkeit, dass ich mir mein eigenes Unix-Sytsem oder so drauf packe (kann Rondrer vermutlich mehr zu sagen). Aber Synology installiert auf seinen NAS im Standard ein Linux-basiertes OS mit dem sperrigen Namen Disk Station Manager – aktuell in der Version 6.2. Dass es ein Linux ist, merkt man dem Programm wie ich finde aber überhaupt nicht an. Der erste Aufschlag (Aufruf der Weboberfläche mit anschließender Ersteinrichtung des DSM) dauerte rund 10 Minuten und schon konnte ich mit dem Einrichten loslegen.

Die grafische Oberfläche des DSM ist schick und relativ einfach verständlich. Die eine oder andere Funktion versteckt sich zwar hinter einem etwas nichtssagenden Namen oder mehreren Menüs (warum sehe ich z.B. die Gehäusetemperatur nur im Info-Center und auch nur als Mouse-Over statt im Menüpunkt „Hardware & Energie“?). Aber grundsätzlich geht die Handhabung selbst für Windows-n00bs wirklich sehr einfach von der Hand. Zudem hat jeder Nutzer die Möglichkeit sich seine Desktop-Ansicht umfangreich selbst zu gestalten. Und die integrierte Hilfe mit ihren zahlreichen Schritt-für-Schritt-Anleitungen ist eine richtig große Einsteigerunterstützung (bin ja einer).

Das Doing

Das Paket-Zentrum

Soweit so gut. Ein Betriebssystem allein bringt aber nichts. Nutzer, Daten und zahlreiche Programme machen erst das Ding rund. Wobei letzteres nicht so ganz stimmt, wie ich mittlerweile festgestellt habe. Aber fangen wir von vorne an: Im DSM gibt es ein Paket-Zentrum über das ihr zahlreiche Anwendungen von Synology und ausgewählten Drittanbietern direkt installieren könnt. Das ist übersichtlich gestaltet und bietet auch (sehr kurze) Beschreibungen und Screenshots. Manuelle Installationen von nicht dargestellten Paketen sind zusätzlich möglich. Laut Anleitung muss für jede Medienart ein eigenes Programm installiert sein (z.B. die Video Station für Video), um diese dann auf den diversen Endgeräten nutzen zu können (inkl. entsprechenden Apps auf besagtem Endgerät). Auch so Sachen wie PDF Viewer oder Office klangen im ersten Moment sinnvoll, um bestimmte Dateien direkt im Browser auf dem Server zu öffnen und zu bearbeiten. Mittlerweile habe ich gelernt: In unserem Fall alles totaler Blödsinn und nur Ressourcenverschwendung. Entsprechend sind nur noch die File Station (der Windows Explorer von DSM), der Medienserver (zum Streamen von Medieninhalten), Universal Search (Suchfunktion für den NAS) und der Synology-Anwendungsdienst (weil ich noch nicht ganz verstanden habe, was der eigentlich macht) aktiviert. Im DSM selbst wollen wir ja nicht wirklich arbeiten, sondern nur verwalten.

Im VLC (iOS) ist alles da.

Der NAS war stattdessen nach der Ersteinrichtung im LAN für alle Geräte sofort sicht- und vor allem direkt abrufbar. Sprich ich brauch‘ gar kein separates Programm auf dem Samsung Smart-TV. Stattdessen wähl‘ ich den NAS aus der Liste der Quellen aus, navigiere durch meine Ordner und öffne ohne Probleme alle Arten von Mediendateien. Und statt zig Apps auf dem Smartphone habe ich nur DS File (der Synology-File-Browser für iOS, Android und Windows Phone) sowie den VLC Player draufgepackt. Mit dem VLC kann ich mich genauso gut mit dem NAS verbinden und über die Ordnerstruktur die Mediendateien abspielen oder ihn sogar direkt aus DS File ansteuern. DS File erlaubt es außerdem Dateien vom Smartphone direkt auf den NAS zu schieben – vor allem für Fotos natürlich praktisch.

Einfacher Zugriff

Am Desktoprechner und den Laptops heißt es einfach den NAS als Netzlaufwerk verbinden und schon ist die Sache erledigt und ihr könnt ihn wie eine eingebaute HDD nutzen…okay, eine Hürde gab es: Auf dem NAS sind sogenannte „Gemeinsame Ordner“ vorhanden (bzw. ihr könnt sie anlegen). Ich dachte zuerst, dass das einfach die normalen Ordner sind, die ich erzeuge und befülle. Aber nein, die werden von Windows als einzelne Laufwerke angesehen. Und da es mir absolut zu dämlich ist für jeden Überordner ein Netzlaufwerk zu verbinden, hatte Rondrer die passende Idee für mich: Einfach einen einzigen gemeinsamen Ordner anlegen, den als Netzlaufwerk einbinden und darunter erst die eigentliche Ordnerstruktur packen. Perfekt. Und das alles ist natürlich auch im WAN möglich.

Wenn ihr keine eigene Domain habt und euch die IP nicht merken wollt, gibt es bei Synology einen optionalen QuickConnect-Service. Dieser erzeugt auf Basis eures Servernamens eine von überall aufrufbare URL zur Loginseite. Wie sicher das ist, kann ich natürlich nicht beurteilen (zumindest https kann aktiviert werden). Aber ihr müsst selbst im Minimalmodus einige Ports am Router dafür öffnen. Rondrer lässt den NAS deshalb erst gar nicht ins Internet und verbindet sich stattdessen über eine VPN-Verbindung in sein heimisches Netzwerk, um dann darüber auf den NAS zuzugreifen. Sicherer dürfte es nicht gehen, wenn ihr immer noch von draußen drauf zugreifen wollt.

Der Rest

Nach der grundsätzlichen Konfiguration fehlten noch die Daten und die User, schließlich soll nicht jeder einfach mit dem Adminaccount rumrennen. Die Datenübertragung war logischerweise dank Netzlaufwerk keine Besonderheit und nur durch die Schnelligkeit unserer HDDs beschränkt. Mit den 1,83TB dürften wir trotzdem maximal einen Tag beschäftigt gewesen sein – mehr Zeit ging für das Aussortieren und Einsortieren drauf (hatten ja so einige doppelte Daten).

Alles A-Okay!

Das grundsätzliche Einrichten der User war auch soweit kein Akt. Ihr könnt Gruppen mit Berechtigungen definieren und dann einzelne User anlegen und diesen zuordnen. Natürlich geht es genauso jedem User die Ordnerberechtigungen manuell zuzuteilen. Es gab nur zwei Schwierigkeiten: Wenn die Photo Station aktiv ist, nimmt er sich die Berechtigung heraus allein über die Zugänge des Foto-Ordners zu bestimmen (selbst der Admin kann in der Systemsteuerung dann nichts mehr machen). Total dämlich. Aber das Ding habe ich ja dann eh deaktiviert. Das zweite Problem war, dass die Ordnerberechtigungen für Lysanda trotz der Gruppendefinition nicht richtig gesetzt wurden. Sprich sie konnte auf Ordner, die ich frisch angelegt habe nicht zugreifen. Mir fiel nichts anderes ein, als einfach nochmal die Berechtigungen des Hauptordners in die Unterordner und Dateien zu propagieren. Seitdem funktionierts. Komisch aber egal :smile: .

Fazit

Und damit fällt mir nichts mehr ein, was ich euch noch erzählen könnte zu unserem NAS. Zum Verfassungspunkt beträgt seine Laufzeit bereits über 14 Tage und es gab während unserer täglichen Nutzung noch nichts, was wir vermisst hätten oder ein Problem gewesen wäre. Stattdessen schnurrt er in der Kommode leise vor sich hin und stellt uns zu jeder Zeit und auf jedem Gerät alle unsere Dateien ohne gefühlte Geschwindigkeitseinbußen zur freien Nutzung bereit. So soll’s in unserem Fall sein. Natürlich kann das Ding noch viel, viel mehr (es ist schließlich ein vollwertiger Server). Und vielleicht kommen auch bei uns noch weitere Anwendungsfälle hinzu. Aber schon in seiner Funktion als Datengrab sind wir bereits vollkommen zufrieden damit die 470 Euro investiert zu haben. Entsprechend können wir den Synology DS218J  uneingeschränkt für alle empfehlen, die einen einfachen NAS suchen und gleichzeitig mehr wollen als nur eine externe HDD am Router ranzuhängen.

Die neuen Innereien

Fast genau fünf Jahre ist es her, da hatte ich mir kurz vor meinem Umzug nach Eckental noch ein großes Rechnerupgrade gegönnt. Lustigerweise waren es davor auch fünf Jahre seit dem letzten Upgrade. Scheint sich irgendwie als neuer Rhythmus einzuspielen, denn ich habe wieder zugeschlagen! War es der richtige Zeitpunkt („Coffee Lake Refresh kommt doch demnächst, du Depp!„)? Vermutlich nicht aber gibt es beim Kauf von PC-Hardware überhaupt jemals einen richtigen Zeitpunkt? Eben.

Über eine neue Grafikkarte hatte ich ja schon länger nachgedacht aber zum einen waren mir die Preise lange viel zu hoch (scheiß Cryptomining!) und zum anderen war ich mir nicht sicher, ob das wirklich ausreicht oder nicht doch meine CPU ein Stück weit schon ein Flaschenhals ist. Nach langem hin und her überlegen habe ich dann die selbstverständlich einzig richtige Entscheidung getroffen: Einfach noch mehr Geld ausgeben und ein „komplettes“ Upgrade durchführen.

Das Ergebnis

Normalerweise hätte ich mich für die Zusammenstellung ausführlich mit unseren Hardwareexperten Azzkickr und Dod unterhalten. Aber erster erholt sich grad von einer Operation und letzterer ist aktuell mehr in Sachen VR unterwegs (er hat VR-Legion gegründet), entsprechend habe ich mich dagegen entschieden sie zu belästigen. Ich hoffe, ich werde es nicht bereuen :wink: . Stattdessen habe ich mich auf die Expertise der Community von Computerbase verlassen. Dort im Forum gibt es nämlich einen Thread namens „Der Ideale Gaming-PC“ mit preislich sortieren Konfigurationsvorschlägen. Die habe ich als Basis genutzt, um die für mich beste Variante aus Zukunftssicher, preislich vertretbar und guter Leistung zu finden. Das Ergebnis seht ihr in meiner Hardwareübersicht aber hier in Kurz:

Alter Computer Neuer Computer
(2013-2018) (2018)
Prozessor: Intel Core i7-4770 (Haswell) Intel Core i5-8400 (Coffee Lake)
Mainboard: Asus Z87-A (C2) MSI Z370 PC Pro
Speicher: Kingston, 2×4 GB, DDR 3, 1600 Mhz, CL9
Corsair, 2×4 GB, DDR 3, 1600 Mhz, CL9
G.Skill Aegis, 2×8 GB, DDR4, 3000 MHz, CL16
Grafikkarte: Palit GeForce GTX 780 Super JetStream Asus GeForce GTX 1070 Ti Cerberus Advanced
Soundkarte: Creative Soundblaster X-Fi Titanium Fatal1ty Professional Series Creative Soundblaster X-Fi Titanium Fatal1ty Professional Series
SSD: Samsung SSD 840 Evo 250 GB Samsung SSD 840 Evo 250 GB
HDD: WD Desktop Black 4TB WD Desktop Black 4TB
Seagate Barracuda XT SATA III 2TB Seagate Barracuda XT SATA III 2TB
Seagate Barracuda 7200.12 1TB Seagate Barracuda 7200.12 1TB
BluRay: Asus BW-16D1HT Asus BW-16D1HT
Kühler: Scythe Ninja 3 Scythe Mugen 5 Rev.B
Gehäuse: CoolerMaster COSMOS 1000 CoolerMaster COSMOS 1000
Netzteil: CoolerMaster V650 CoolerMaster V650

Macht summa summarum 924 Euro (inkl. Versand und einem Displayport auf DVI-Adapterkabel) an neuer Technik.

Technisch gesehen stimmt die Spalte „Alter Computer“ nicht mit dem überein, was ich tatsächlich anno 2013 zusammengeschraubt hatte. In der Zwischenzeit wurden schon ein paar Teile gewechselt (Netzteil, Laufwerke) und ergänzt (mehr RAM) aber es macht ja keinen Sinn hier etwas aufzulisten, was gar nicht mehr unter meinem Tisch stand. Wenn jemand Interesse an den alten Teilen hat: Gerne auf mich zukommen. Ansonsten landen sie im Laufe der Woche auf eBay.

Die Gedankengänge

Ein Teil der neuen Komponenten

Aber kommen wir zu den Komponenten: Die Wahl fiel auf einen Intel Core i5-8400 statt eines i7-8700 (das aktuelle Maximum) weil er zum einen 120 Euro billiger ist und zum anderen, weil das Leistungsminus lt. den Tests mit um die 10-15% für mich (bin ja nicht mehr Day-1-Spieler) vernachlässigbar erscheint. Andersherum war es beim Mainboard, wo ich die 30-40 Euro mehr in das MSI Z370 PC Pro statt in bspw. ein Asrock-Modell investiert habe, um mehr Anschlüsse sowie Luft für ein zukünftiges CPU- (z.B. einen i7-9700 oder so) oder RAM-Upgrade (geht bis 64 GB) oder vielleicht mal ne M2 zu haben.

In den Arbeitsspeicher ging hingegen nicht viel Gehirnschmalz. Es ist der, den das Computerbase-Forum empfiehlt. Ich hatte zwar kurz überlegt, vielleicht gleich 32 GB reinzupacken aber da sind mir die Preise aktuell zu hoch und gebrauchen kann es vermutlich allerhöchstens Star Citizen. Und für den Kühler habe ich mich hingegen wieder für Scythe entschieden, weil der Ninja 3 sehr gute Dienste geleistet hat und der Mugen 5 nicht nur extrem gute Bewertungen hat, sondern aufgrund seiner versetzten Bauform nicht ganz so dominant ist (und über den RAM hängt).

Bleibt noch die Grafikkarte: Ich hätte wirklich gerne wieder eine Palit in der Super Jetstream-Variante genommen. Hatte trotz der damaligen Startschwierigkeiten gute Erfahrungen damit. Aber selbst auf dem Gebrauchtmarkt bezahlt man derzeit für eine GTX 1070 Super Jetstream schon fast so viel wie ich jetzt für die Asus 1070 Ti bezahlt habe. Die 1070 TI Super Jetstream ist dann nochmal teurer. Und dafür ist der Leistungsunterschied aus meiner Sicht nicht groß genug. Entsprechend fiel die Wahl erneut auf die Computerbase-Empfehlung. Abseits der Kühllösung unterscheiden sich die meisten Grafikkarten ja heutzutage gefühlt eh nicht mehr großartig und die ASUS wirbt gleichzeitig damit, dass sie sehr langlebig wäre.

Die ersten Erfahrungen

Zum Einbau an sich gibt es nichts Besonderes zu berichten. Altes Zeugs raus, neues Zeugs rein (das neue Mainboard ist wieder breiter als das alte) und alles schön verkabelt. Netterweise konnte ich dabei ein Stromkabel rausschmeißen, weil das MSI-Board genug Lüfteranschlüsse hat (alt war einer direkt ans Netzteil angeschlossen). Unschön ist hingegen, dass die Grafikkarte über die SATA-Anschlüsse ragt. Gut, das ist tatsächlich relativ normal und normalerweise kein Problem, aber warum auch immer sind SATA-Port 3 und 4 nicht zur Seite ausgerichtet, sondern nach oben. Das Ergebnis ist, dass SATA-Port 3 quasi gar nicht nutzbar (Stecker passt wegen der Plastikhülle der Grafikkarte nicht mehr rein) und Port 4 hingegen nur mit dem beigelegten und wie immer viel zu kurzen SATA-Kabel mit Eck-Stecker. Zum Glück brauche ich aktuell nur fünf Stück (vier für die Festplatten, einen für das optische Laufwerk). Frag‘ mich, wer da nicht mitgedacht hat, schließlich sind 2-Slot-Grafikkarten mit dickem Kühlsystem nicht unbedingt was total Neues.

Auch wieder rausgefallen sind meine Front-USB-Anschlüsse. Bei meinem alten ASUS-Board konnte ich zumindest zwei der vier anschließen. Theoretisch hat das MSI sogar noch zwei weitere interne USB-Schnittstellen neben den zweien, die ich für meine zusätzlichen hintere Ergänzung nutze. „Leider“ sind die komplett auf USB3 ausgelegt und damit nicht kompatibel (weil mehr Pins). Ist etwas schade, aber das sind halt so die Nachteile, wenn man seit mittlerweile 10 Jahren das gleiche Gehäuse nutzt. Kommt der USB-Hub eben wieder mehr zum Einsatz.

Es lebt und funzt!

Der erste Start gelang dann ohne Probleme (*yay* alle Kabel des Frontpanels beim ersten Versuch richtig eingesetzt!). Im BIOS wurde alles erkannt was da sein sollte und ich konnte XMP aktivieren und damit meinen RAM auf die 3.000 Mhz boosten, die er haben soll (ohne sind es nur 2.100 Mhz). Auch Windows lief ohne Murren an, erkannte die neuen Gerätschaften alle und richtete sie fleißig ein. Anfangs fehlte die externe Festplatte aber ich hatte scheinbar vergessen sie vor dem Hardwarewechsel auszuschalten. Aus- und Wiedereinschalten löste das Problem entsprechend zügig. Dann stimmte zwar der Laufwerksbuchstabe nicht (das optische Laufwerk hatte sich vorgedrängelt), womit Windows erstmal nicht seine bekannten Daten finden konnte (auf der Externen liegen z.B. die Eigenen Dateien). Aber das war logischerweise genauso wenig etwas, was nicht zügig behoben werden konnte.

Die Windows-Aktivierung zickte hingegen anfangs rum. Ihr wisst ja: Wenn ihr bestimmte Hardware austauscht, verlangt Windows eine erneute Aktivierung quasi als Schutz vor Raubkopierern. In der Theorie sollte das mittlerweile ein Klacks sein, denn eure Lizenz ist mit eurem Microsoft-Konto verbunden. Irgendwie behauptete er aber, dass der Server nicht erreichbar wäre und ich es später nochmal versuchen sollte. Das war mir aber zu blöd, also habe ich einfach meinen alten Windows-8-Produktkey (den ich in das kostenlose Windows 10-Upgrade umgewandelt hatte) nochmal eingegeben und Schwups: Aktiviert!

Die Problemzonen

Es wäre natürlich zu einfach, wenn tatsächlich alles so funktionieren würde wie man es sich erhofft. Stattdessen habe ich zum Verfassungszeitpunkt noch folgende Problemstellen:

  • Das Blu-ray-Laufwerk will gar nicht. Im BIOS war es da, habe ich aber in Windows ein Medium eingelegt, lief es kurz an, verschwand dann aber komplett und war beim Neustart auch im BIOS nicht mehr vorhanden. Stecker ziehen und neu stecken, dann wurde es wiedererkannt und das Spielchen begann von vorne. Mittlerweile funktioniert selbst das nicht mehr. Ich habe weder einen Grund noch eine Lösung dafür (es hängt an besagtem SATA-Port 4). Im Internet gibt es Berichte, dass Windows irgendeine Funktion hätte bei Nichtbenutzen das Laufwerk schlafen zu legen. Aber dann wird es zumindest noch angezeigt. Hier ist es einfach komplett weg. Ein Rätsel. Zum Glück habe ich noch ein externe Blu-ray-Laufwerk. Ist also nicht das ganz große Thema, wenn es hart auf hart kommt.

Folgendes Problem habe ich auf meine eigene Art und Weise schon gelöst:

  • Beim Ausschalten des PCs fährt die externe Festplatte nicht wie gewohnt in den Energiesparmodus runter. Scheinbar hat das MSI standardmäßig selbst im ausgeschalteten Zustand noch Strom auf den USB-Anschlüssen oder Windows schickt kein entsprechendes „ich bin aus“-Signal. Eine direkte Einstellung dafür habe ich im BIOS nicht gefunden („Wake on“ ist deaktiviert). Momentan stehe ich auf dem Schlauch. Klar, kann ich sie manuell ausschalten (und tue das auch trotz Energiesparmodus). Aber wenn sie nicht vorher im Energiesparmodus ist, habe ich immer etwas Angst, dass sie doch mal einen Schlag wegkriegt dadurch.
    Lösung: Wir hatten schon länger überlegt einen NAS zu kaufen. Das Vorhaben haben wir nun vorgezogen (mehr dazu vermutlich kommenden Montag). Dadurch ist ein großer Teil der Daten auf der externen Festplatte auf den NAS gewandert und für das, was noch übrig ist, habe ich jetzt eine WD Elements mit 2TB von Lysanda (die Daten, die da vorher drauf waren, sind nun auch auf dem NAS). Vorteil: Sie ist viel kompakter als die Buffalo DriveStation, die ich bis jetzt hatte – und unterstützt sogar USB3.

Und folgendes Problem muss ich leider als gelöst ansehen:

  • Microsoft Office 2016 mag meinen Key nicht mehr. Wie Windows, reagiert auch Office auf eine Hardwareänderung mit der Bitte um Reaktivierung. Theoretisch ist es hier das gleiche Spiel: Im Microsoft-Konto ist die Lizenz hinterlegt und er kann sie wieder laden. Blöd nur, dass meinem Konto keine Lizenz mehr zugeordnet ist? Und beim erneuten Eingeben des Keys bekomme ich ein „Kennsch ned, magsch ned“? Wad?! Ein Chat mit der Microsoft-Support-Hotline offenbart mir, dass es sich um einen ungültigen Key handelt, der mittlerweile gesperrt wurde. Also vermutlich aus einem Volumenlizenzen-Bestand oder so stammt. Na klasse. Da denkt man, man kauft bei einem respektablen Händler und dann sowas. Ich habe natürlich direkt mysoftware angeschrieben, bei denen ich 2015 die Lizenz gekauft hatte aber ein Ersatz wurde mir mit dem Hinweis auf die abgelaufene Gewährleistungsfrist verweigert. Ich würde sagen: Bei diesem Shop solltet ihr nicht kaufen. Das hat man davon, wenn man sich vom billigen Preis blenden lässt.
    Lösung: Neuen Key kaufen, Office 2013 re-installieren oder endlich auf OpenOffice umsteigen.

Die synthetischen Bechnmarks

Jetzt aber genug vom allgemeinen Geblubber. Der Rechner funktioniert im Großen und Ganzen, schnurrt wie eine Katze (oder sitzt Maya schon wieder dahinter?) und ist betriebsbereit. Zeit also, ihn durch den Parkour zu schicken. Zuerst natürlich die ePenis-Sachen: CineBench, 3DMark (Demo) und FurMark. Catzilla funktioniert seit irgendeinem Windows Update nicht mehr (und keinen von den Entwicklern scheints zu kümmern) und kam deshalb nicht zum Einsatz.

 

Die Ergebnisse sind aus meiner Sicht wie erwartet. Anders als 2013 in 3DMark 2011 ist mein 3DMark-Score in Time Spy (die anderen hab‘ ich aber auch mal gemacht) zwar „nur“ besser als 68% aller anderen (damals 89%) aber ich habe ja im Vergleich zu damals eine CPU eine Stufe unter den derzeit besten eingebaut. Und bei FurMark habe ich auch ein Ergebnis auf dem Niveau anderer Leute mit gleicher Grafikkarte. Wenn ihr also nichts anderes sagt, dann mache ich an das Thema einen Haken und sage: Passt alles so und ist im grünen Bereich für mein System.

Die Spielebenchmarks

Das Benchmarkergebnis von GRID Autosport

Eine Stufe über den synthetischen Benchmarks stehen die integrierten Benchmarks in Spielen. Eine praktische (aber sicherlich nicht 100% vollständige) Liste findet man unter anderem hier. Da ich zwar viele der genannten Titel habe aber nicht extra nur wegen dem Benchmark sie installieren wollte, habe ich mal Warhammer 40.000: Dawn of War III durchlaufen lassen, welches mir nun mit 136,18/48,32/80,80fps (max/min/avg) fantastische Ergebnisse auf vollen Details liefert. GRID Autosport lief auch mit dem alten Rechner bereits ganz gut, aber nun grafisch voll aufgedreht (natürlich inkl. 2. Monitor) komme ich trotzdem auf saubere 123,22/65,21/94,99fps. Anspruchsvoller ist da schon Rainbow Six: Siege mit 48,6/30,7/43,1. Hier musste ich deshalb ein Detail runterschrauben und zwar die Ambient Occlusion nur auf SSBO statt auf HBAO+. Letzteres hat im Maximum und Average zwar nur ein paar Frames pro Sekunde gekostet, aber das Minimum ist total eingesackt auf um die 9 FPS. Fürs echte Spielen sollte ich aber vermutlich trotzdem das ein oder andere Detail noch weiter absenken.

Als nächstes war Mittelerde: Schatten über Mordor dran. Damit hatte der alte Rechner schon ein wenig zu kämpfen, sollte aber nun mit 158,77/59,00/88,04 bei noch höheren Grafikeinstellungen definitiv Vergangenheit sein. Ähnlich sah auch Thief aus mit 114,4/71,1/86,0 sowie Sleeping Dogs mit 116,8/47,4/83,1. Ja, das Spiel ist von 2012, hat extrem viele Ecken und Kanten in der Geometrie und saugt trotzdem massiv an der Performance (vor allem beim Fahren). Aber jetzt kann ich es endlich flüssig genießen.

Die eigentliche Praxis

Just Cause 3 (Herstellerbild)

Dass die „Ultra“-Einstellung in Spielen meistens keinen großen grafischen Mehrwert bringt (vor allem im Vergleich zum Leistungsverlust), ist ja nichts Neues. Entsprechend ist es zwar ganz nett, wenn ich die Titel so hochstellen kann und trotzdem meine 60fps kriege (V-Sync & Co. mache ich mittlerweile immer an, wenn es keine Probleme verursacht). Aber es ist absolut kein „Muss“ mehr. Und natürlich gibt es weiterhin Titel, die ich trotz neuer Hardware nicht auf Anschlag drehen kann. Grand Theft Auto V und Wolfenstein: The Old Blood z.B., die zwar nun wesentlich mehr Details erlauben und gleichzeitig flüssiger läufen aber eben immer noch nicht alle Grafikoptionen komplett auf Anschlag. Auch No Man’s Sky ist um Welten besser (solide 60fps statt 20-30fps) doch nur auf gleicher Detailstufe. Da gibt’s übrigens ein absolut empfehlenswertes Video von Digital Foundry zu No Man’s Sky NEXT, in dem die Jungs genau schauen welche Auswirkungen welche Grafikeinstellungen sowohl auf die Optik als auch auf die Leistung haben. Ich zocke derzeit genau auf der Stufe wie im Video.

Ein weiteres Problemkind war bekanntlich Just Cause 3, wo vor allem die physikalischen Effekte meinem alten System das Genick gebrochen hatten. Das gehört nun der Vergangenheit an. Butterweich das Teil und der Titel, den ich tatsächlich bislang am Längsten gespielt habe mit der neuen Hardware unter der Haube (sinnlose Zerstörung geht halt immer). Schade, dass es keinen integrierten Benchmark mehr gibt wie noch in Teil 2. Ich musste allerdings auch hier eine Grafikeinstellung reduzieren. Nicht, weil sie mich großartig Performance kostete. Nein, SMAA_T2X verursachte extremes Ghosting (bei Bewegungen sieht man quasi die Zwischenbilder). Das ist wohl ein bekanntes Problem und die einzige Lösung ist auf FXAA zu reduzieren. Auch zwei Abstürze hatte ich schon aber soweit ich das beurteilen kann, hatte das nichts mit der neuen Hardware zu tun, sondern mit dem Spiel.

Fazit

Was bleibt also zum Abschluss zu sagen? Nun, ich hab‘ noch ein paar kleine Probleme aber nichts, was sich nicht auf irgendeine Art und Weise lösen lassen wird bzw. schon gelöst wurde. Gleichzeitig habe ich aber definitiv wieder „moar pow0r“ unter dem Schreibtisch stehen, die es mir erlaubt meine bislang grenzwertigen Titel, wenn vielleicht auch immer noch nicht in voller Pracht zumindest anständig flüssig zu erleben. Es ist vielleicht nicht der ganz große Sprung (der i7-4770K ist in manchen Benches schneller als der i5-8400) aber wenn der Bedarf besteht, habe ich die Option ohne gleich wieder das Mainboard auszuwechseln zu müssen noch mehr Power reinzustecken. Entsprechend sehe ich das Geld gut investiert und behaupte mal, dass ich damit die nächsten fünf Jahre damit locker überbrückt kriege. Wobei dann vermutlich doch mal ein Gehäuseupgrade notwendig ist…

Und nein, VR ist leider immer noch kein Thema in meinem Haushalt. Bis Montag!

Nächste Seite »