Es gibt gefühlt nichts, wozu nicht schon irgendjemand eine Studie gemacht hat. Okay, das ist gelogen. Es gibt extrem viele Bereiche in denen es keine Studien gibt und stattdessen immer nur geschimpft wird, dass es keine anständigen Studien gibt statt mal welche zu machen (Stichwort “alternative Medizin”). Dafür gibt es tonnenweise Studien zu Themen bei denen ich mich durchaus Frage “Wie hoch muss der akademische Veröffentlichungszwang sein, um sich mit so einem Scheiß zu beschäftigen?!” oder “Das wusste ich vorher schon?!”. Dazu kommt noch, dass viele dieser “Studien” nichts anderes als eine “repräsentative” Umfrage sind. In Anführungszeichen, weil ich es schon immer fragwürdig fand die (ggf. durch tendenzielle Fragestellungen) entstandenen Antworten von vielleicht 5.000 Personen (wenn überhaupt) als gemeingültig für 83 Millionen Menschen zu erklären. Aber ich hab‘ ja auch nicht studiert. Vielleicht bin ich also schlicht zu blöd, um das zu verstehen.
Worauf ich eigentlich hinaus wollte ist, dass letzte Woche eine solche “Studie” des Frankfurter Leibnitz-Instituts für Finanzmarktforschung SAFE die Runde durch die Medien machte. Nein, die tatsächliche Studie ist bislang nicht auf der Webseite des Instituts zu finden. Es schreibt nur wieder jeder voneinander ab. Basierend auf einer Umfrage unter 1.740 Haushalten (von 41 Millionen!) kam raus, dass nur 40% der Bürger den Mehrbetrag durch die Abschaffung des Solidaritätszuschlags auf ihrem Konto ausgeben wollen. Der größte Teil möchte ihn stattdessen zur Seite legen für später. Wow, was für eine bemerkenswerte und bahnbrechende Studie, die da angefertigt wurde – 1 1/2 Monate nachdem die Abschaffung in Kraft getreten ist. Weil unsere IV-Systeme noch nicht soweit waren, haben wir die Änderung (mit Rückzahlung) sogar erst diesen Monat auf dem Gehaltszettel gehabt. Und dann wird gleich wieder fabuliert von wegen wie schlimm das ja ist, dass alle ihr Geld horten statt es auszugeben und welche psychologischen Phänomene angeblich dahinterstecken. Alter Schwede…so viele Picard-Memes gibt’s im Internet gar nicht mit denen ich gerade meinen Twitter-Account zuspammen wollte, würde ich ihn benutzen.
Ziel des heutigen Eintrags war es allerdings nicht mich über Studien aufzuregen. Geplant war es die Soli-Studie nur als kurze, gekonnte Überleitung zum eigentlichen Thema zu verwenden. So von wegen “Alle sparen während wir vorbildliche Patrioten sind und unsere hart verdiente Kohle verprassen”. Das ist offensichtlich nach hinten losgegangen, schließlich ist die erste DINA4-Seite schon wieder fast voll. Machen wir also an dieser Stelle stattdessen einen knallharten Cut. *wusch*
Kein guter Kaufzeitpunkt
Mein Rechner-Upgrade ist mittlerweile “schon” zwei Jahre her. Reicht es immer noch locker aus, um alle meine Spiele zu zocken? Selbstverständlich. FarCry 2 muss ich sogar künstlich auf 60fps limitieren, weil sonst die Spiellogik ausrastet. Aber ich liebäugle ja z.B. weiterhin (zum Unmut von Lysanda und den Katzen) damit mir mal eine VR-Brille anzuschaffen. Leider (oder zum Glück für meinen Geldbeutel) ist die HP Reverb G2 doch nicht das ultimative basisstationslose Hammergerät geworden. Zumindest klingen für mich die Probleme speziell in Bezug auf das Tracking zu schwerwiegend als, dass ich einen Kauf wagen würde.
Andererseits sind die nVidia-Karten sowieso überall ausverkauft (mit einer GeForce GTX 1070 Ti versuche ich VR erst gar nicht) und wie unser Azzkickr korrekt anmerkte, haben die für Normalsterbliche interessanten Modelle zu wenig VRAM, um zukunftsfähig zu sein. Entsprechend warte ich in der Hinsicht weiter ab was ggf. zukünftige Ti-Varianten bringen. Bitte? AMD? Ja, die gibt es und sind in Preis und Leistung mittlerweile wieder ganz vorne dabei. Aber wie ich im damaligen Eintrag erwähnt hatte, sind für mich auch noch andere Faktoren wichtig und da scheint mir AMD zwar auf einem guten Weg zu sein aber noch nicht da, wo ich wieder bereit wäre ihnen mein Geld für eine Grafikkarte zu geben. Bei der CPU sieht es ganz anders aus, da würde ich ganz klar mittlerweile zu AMD greifen. Aber da mein Intel-Mainboard noch Luft nach oben hat (von einem i5-8400 auf einen i9-9900), werde ich die erstmal ausreizen. Ein kompletter Herstellerwechsel kommt entsprechend erst beim nächsten Vollupgrade in Frage – wenn bis dahin Intel nicht wieder aufgeholt hat.
Jetzt habe ich aber schon wieder zwei Absätze darüber philosophiert was ich nicht getan habe. Ich sollte euch vielleicht endlich mal erzählen, was ich denn gekauft habe. Nun ganz einfach: Arbeitsspeicher, SSDs, einen Monitor und einen neuen NAS.
Etwas Zuneigung für den Hauptrechner
Fangen wir mit dem einfachsten an: Bislang hatte ich 16 GB RAM im System, jetzt sind alle vier Slots mit den gleichen 8 GB-Sticks G.Skill Aegis F4-3000C16D-16GISB (CL16-18-18-38, 2933 MHz) bestückt. Vollauslastung des Mainboards quasi – also zumindest was die Belegung angeht. Rein technisch gesehen könnte ich vier 32 GB-Module für krasse 128 GB DDR4 draufpacken. Aber ganz so bescheuert bin ich dann noch nicht . 32 GB braucht der gestandene Gamer zwar ebenfalls noch nicht zwingend aber die Tendenz geht eindeutig dahin. Vor allem, da 16 GB mittlerweile als Standard angesehen werden. Insofern hab‘ ich mir gedacht: Pack‘ das Mainboard voll, dann bin ich schonmal gerüstet (und Windows kann noch mehr sinnlos belegen). Spürbare Auswirkungen hatte es logischerweise noch nicht.
Etwas praktikabler war da schon die nächste Neuanschaffung: Zwei Samsung SSD 970 Evo Plus mit jeweils 2 TB. Azzkickr hatte mich mit seiner SATA-SSD endgültig davon überzeugt, dass ich endlich mal mit der Zeit gehen und upgraden sollte. Macht doch einen massiven Unterschied was die Ladezeiten in Spielen angeht – und das bei SATA! Eine NVMe M.2 ist ja nochmal eine andere Liga. Dazu kam das Thema mit der Lautstärke meines Systems. Schließlich hatte ich bislang noch drei HDDs im Betrieb. Und da die Preise für diese NVMe M.2 SSD seit einiger Zeit unter 300€ gefallen ist, habe ich nun zugeschlagen. Mit im Gepäck: Zwei passive Kühlkörper von Icy Box. Da die M.2-SSDs logischerweise mitten auf dem Mainboard sind (eine zwischen CPU und Grafikkarte, die andere hinter dem PCIe-1x-Slot unter der Soundkarte) wollte ich auf Nummer sicher gehen. Eine Mainboardhaube habe ich nämlich nicht, die von sich aus kühlen würde. Was aber mit 16€ auch nicht die größte Position auf der Rechnung war.
Die SSDs
Die Montage des Kühlers geht grundsätzlich gut von der Hand. Es ist ein beidseitig klebendes Wärmeleitpad mit im Paket. Dieses klebt ihr auf die SSD und setzt dann den Kühler einfach drauf. Für den finalen Halt sind zwei Gummiringe dabei, die ihr vorne und hinten über SSD und Kühler stülpt. Das ist etwas frickelig, weil die Ringe so klein und empfindlich sind aber hält tatsächlich bombenfest. Da war die Montage der SSDs im System schon schwieriger. Das lag aber allein an mir, weil ich eine faule Sau bin. Natürlich hätte ich die Grafikkarte ausbauen und den Rechner auf die Seite legen können. Aber nein, ich versuchte stattdessen mit einem magnetischen Schraubenzieher und meinen dicken Fingern in dem Spalt zwischen CPU-Kühler und Grafikkarte zu hantieren und lasse dabei dutzende Mal die Schraube in die tiefsten Tiefen des Rechners fallen. Am Ende hat es zum Glück ohne Verluste hingehauen. Bei der unter der Soundkarte hatte ich hingegen bedenken, dass der Abstand zu klein ist für SSD und Kühler. Aber der mit 5mm passt tatsächlich grad so drunter (gibt noch einen mit 10mm). Hat sich scheinbar doch jemand Gedanken drüber gemacht .
In Sachen Temperatur liegen die beiden SSDs mit dem passiven Kühler bei 45-50°C. Ohne habe ich es logischerweise nicht getestet. Viel zu viel Aufwand. Ein bisschen wird es aber garantiert bringen. Meine beiden SATA-SSDs im Festplattencage sind hingegen bei 25-35°C. Die haben dort aber nur noch meine Western Digital mit 4 TB als Gesellschaft. Meine zwei Seagate-HDDs habe ich stattdessen auf die neuen SSDs umverlagert, (einmal) genullt und ausgebaut. So cool es auch war acht Laufwerke im Explorer zu sehen: 14 TB Speicherplatz benötige ich absolut nicht. Und selbst die 8 TB, die jetzt noch übrig sind weiß ich nicht, ob ich behalte. Vermutlich fliegt die WD-HDD über kurz oder lang ebenfalls raus. Zu sehr hat mich die pure Leistung der NVMe-Laufwerke überzeugt. 20mal schneller als die WD-HDD und immerhin 6mal schneller als die SATA-SSD was Schreiben/Lesen angeht. So krass. Schon fast traurig, dass ich so lange gebraucht habe, um auf den Zug aufzuspringen. Andererseits gibt es ja jetzt erst so langsam anständig viel Speicherplatz für gutes Geld in dem Bereich.
Zu meinen Erfahrungen gibt es nicht viel zu sagen. Es sind Speichermedien auf die ich Spiele installiere. Sie sind zwar nur PCIe Generation 3 aber zumindest für mich eine massive Leistungssteigerung. Ich möchte sie nicht mehr missen. Lustigerweise ist mein Rechner trotzdem nicht wirklich leiser geworden. Im Gegenteil scheint die WD jetzt wo sie alleine vor sich hin rattert noch mehr Vibrationen zu verursachen. Ein Grund mehr, warum ich darüber nachdenke sie auch noch rauszuwerfen. Aber mal schauen. Ein neues Gehäuse steht schließlich ebenfalls auf meiner Einkaufsliste.
Was für’s Auge
Nicht nur das Innere meines Hauptrechners hat ein Upgrade erhalten. Ich hab‘ mir auch endlich einen neuen Hauptmonitor gegönnt. Das hatte ich ebenfalls schon länger im Auge. Schließlich krebste ich bislang noch mit “mageren” 60Hz rum – bzw. nicht einmal das, denn der Dell-Monitor schafft nur 59Hz und ein paar Zerquetschte. Die Wahl fiel auf den LG UltraGear 27GL850-B, den mir Azzkickr genannt hat (empfohlen wäre etwas weit gegriffen). Ja, mein Iiyama ProLite H540S-B (21.3″) aus dem Jahr 2004 ist damit endlich in Rente gegangen. An seinen Platz ist mein bisheriger Hauptmonitor, ein Dell U2713HM von 2013, gerutscht. Mein Windows-Desktop ist jetzt 7.040 Pixel breit und ihr dürft mir glauben, dass ich mich schon daran gewöhnt habe. Weiß gar nicht wie ich es so lange mit dem 21,3″ und seinen mageren 1600×1200 auf meiner rechten Seite aushalten konnte.
Der LG ist hingegen erneut ein 27″-WQHD-Monitor aber mit nicht ganz so dickem Rand, also etwas kleiner als der Dell. Klingt bei jemanden, der drei Monitore auf dem Schreibtisch hat etwas bekloppt, aber hauptsächlich aus Platzgründen. 30″ oder mehr wäre zu viel gewesen. 4K macht hingegen bei der Größe keinen Sinn meinte Azz und hat wie immer Recht. Stattdessen schafft der LG 1440p mit 144Hz, hat HDR (HDR10) und nVidia G-SYNC- sowie FreeSync-Unterstützung. Das Nano-IPS-Panel hat zudem lt. Hersteller eine Reaktionszeit von 1ms aber diverse Tests haben gezeigt, dass das wohl ziemlicher Blödsinn ist. Außerdem gibt es einen integrierten KVM-Switch, den ich aber tatsächlich nicht verwenden werde. Ganz einfach, weil man ihn scheinbar nicht getrennt umschalten kann. Sprich, wenn ihr die Inputquelle wechselt, wird auch automatisch die Peripherie umgeschaltet. Da ich aber gerne mal nur das Bild des anderen Rechners auf dem Hauptmonitor haben möchte und trotzdem auf dem Hauptrechner rumhantiere, ist das ein wenig doof. Wichtiger war mir in der Hinsicht, dass er über HDMI die vollen 1440p überträgt. Endlich eine höhere Auflösung (1440p statt 1080p) am Arbeitsrechner und damit mehr Platz für Excel-Tabellen zur Verfügung!
Erste Erfahrungen
Grundsätzlich funktioniert der LG UltraGear 27GL850-B super und ich werde ihn auch behalten. Keine Pixelfehler, kräftige Farben (Lysanda und ich sehen allerdings keinen echten Unterschied zum Dell) und ja, die mehr Hertz merkt man eindeutig in Titeln, in denen ich sie erreichen kann. Von adaptive Sync habe ich hingegen bewusst noch nichts gespürt/gesehen. Bedeutet vermutlich, dass es perfekt funktioniert . Im Vorfeld hatte ich zudem einige negative Berichte über starkes Backlight Bleeding gelesen und trotzdem zugegriffen, da sie nicht eindeutig waren und ich es entsprechend selbst testen wollte. Meine bisherige Erfahrung dahingehend ist, dass ich keine Probleme sehe. Ich würde das aber nicht als generelle Empfehlung sehen. Liegt vermutlich eher an mir und den sowieso schon nicht ganz so optimalen Lichtverhältnissen bei denen ich am Rechner sitze (Lysanda macht immer das Licht an).
Das bedeutet aber nicht, dass alles super-mega-toll ist. Es gibt durchaus noch ein paar Kleinigkeiten des Monitors, die ich am austüfteln bin. Bereits festgestellt habe ich z.B., dass man HDR unter Windows 10 nicht anschalten sollte. Das Bild ist dann völlig überbelichtet und sieht nicht gut aus. Mal abgesehen von Darstellungsfehlern, wenn man beispielsweise über die Taskleiste fährt. Liegt aber wohl nicht am Monitor, sondern an Windows. Zwar erwarten einige Spiele die Aktivierung in Windows, bevor sie HDR anbieten/nutzen, aber da verzichte ich dann halt erstmal drauf. Bringt ja nichts, wenn ich im normalen Windows-Alltag nur geblendet werde. Die paar Titel, die ich hingegen bislang mit Ingame-HDR getestet habe, sahen super aus. Nicht unbedingt “bahnbrechend im Vergleich zu vorher” aber ein merklicher und qualitativ besserer Unterschied. Waren bislang jedoch nur etwas ältere Spiele wie z.B. Agents of Mayhem. In neueren Titeln gibt es vielleicht eine noch fortschrittlichere Umsetzung/Unterstützung wo HDR besser zur Geltung kommt.
Ein weiteres Problem ist, dass Windows den Monitor als Soundgerät erkennt und diesem höchste Priorität zuweist. Schalte ich mein Headset ein, muss ich entsprechend manuell umschalten. Deaktiviere ich hingegen den Monitor komplett, steht mir abseits meiner Soundkarte überhaupt kein Output mehr zur Verfügung. Sehr komisch und hängt vermutlich mit dem Grafikkartentreiber zusammen? Keine Ahnung. Problem Nr. 3 habe ich ebenfalls noch nicht so recht verstanden, vermute aber den Energiesparmodus. Ich schalte zwar den Monitor komplett aus, wenn ich nicht am Rechner bin. Warum auch immer führt das aber dazu, dass Windows den Monitor vergisst. Sprich, wenn ich ihn wieder anmache, muss sich erst wieder alles umsortieren auf drei Bildschirme – teilweise ohne Erfolg und z.B. dem Ergebnis, dass meine Desktop-Icons überall verstreut sind. Das passiert bei den anderen Bildschirmen nicht. Sehr komisch.
Eine rein persönliche Sache ist hingegen die Position des Bedienjoysticks unter dem Monitor. Ich kann es aus ästhetischer Sicht nachvollziehen, dass er nicht mehr vorne auf dem Rahmen ist. Aber da mein Centerspeaker dort positioniert ist, ist es durchaus etwas umständlich das OSD zu bedienen, die Inputquelle zu wechseln oder einfach nur das Gerät an- und auszumachen.
Was für die Familie
Kommen wir nun zur letzten Neuanschaffung der letzten Wochen: Der Synology Diskstation 720+. Ja, es ist ebenfalls erst zwei Jahre her seit wir uns die DS218j angeschafft haben. Aber es ist wie so oft: Hat man mal was gekauft, lernt man es zu schätzen und/oder möchte mehr rausholen. Anfangs sollte der NAS schließlich nur als Datengrab und zentrale Zugriffsquelle dienen. Mittlerweile hängen mehrere Kameras dran, Lysanda arbeitet in vielen Situationen direkt im Betriebssystem des NAS und so weiter und so fort. Sprich: Man merkte sehr stark, dass es dem Gerät mit seinem Dual-Core und nur 512MB RAM an Rechenleistung fehlte. Ich hatte sogar überlegt gleichzeitig den Speicherplatz zu erhöhen. Aber irgendwie sind Serverfestplatten >4 TB aktuell extrem teuer. Entsprechend könnt ihr auf eBay auch nur das leere Gehäuse von uns kaufen.
Die Meinungen zur DS720+ sind übrigens teilweise durchaus Negativ. Hauptsächlich wegen der Ausstattung und dem dazugehörigen Preis. So hat sie immer noch nur 1 GbE-Netzwerkports, hat nur noch einen USB-Anschluss, die 2 GB Arbeitsspeicher sind fest verlötet und der optionale SSD-Cache lässt sich wohl nicht ausreizen oder als normale Datenablage verwenden. Das sind sicherlich alles valide Gründe – die mich allerdings nicht weiter interessiert haben. Für mich war stattdessen wichtig, dass sie mehr Power hat (64bit-Quad-Core mit 2Ghz/2,7Ghz burst und 2 GB DDR4-RAM), erweiterbar ist (mehr RAM, weitere Festplatten. NVMe-SSD-Cache) und preislich nicht ganz aus dem Rahmen schlägt (440€ ohne Festplatten). Und ja: Die zusätzliche Power unter der Haube macht sich sofort bemerkbar. Es dauert nicht mehr Minuten bis eine Applikation sich öffnet, die Surveillance Station kriegt nicht mehr die Krise, wenn ich mir die Aufzeichnungen im Schnelldurchlauf anschaue und Lysanda kann endlich wieder ihren Ordner öffnen in dem sich ihre selbstgemalten Bilder befinden, die wir mit hoher Auflösung eingescannt haben (~25MB pro Stück). Ja, kein Witz: Der Disk Station Manager hat diesen Ordner nicht mehr aufbekommen und ist gnadenlos abgekackt. Ging nur noch Remote im Windows-Explorer auf.
Auf Synology fiel die Wahl hingegen wegen den guten Erfahrungen und dem einfacheren Umstieg. Ist ja meist weniger ein Problem im gleichen Ökosystem zu wechseln als in ein Neues. Schon allein, weil wir die Festplatten mit Synologys hauseigenem Hybrid-RAID betreiben. Im Vorfeld hatte ich mich logischerweise über den Umstieg genau informiert. Ist ja das erste Mal, dass ich einen NAS auswechsele. Klang laut der Webseite von Synology leider nicht ganz so einfach, da der Umstieg von einer “J-Serie” auf eine “Plus-Serie” nur über Backups gehen sollte. Die Realität sah zum Glück anders aus und der NAS-Wechsel war praktisch in 15 Minuten schon erledigt und 10 Minuten davon brauchte der neue NAS zur Installation des DSM. Ich hab‘ einfach die Festplatten aus der DS218j raus, in der richtigen Reihenfolge in den neuen rein und fertig. Die DS720+ hat diese sofort erkannt und mir die Migration ohne Datenverlust angeboten. Anschließend musste ich nur noch alle Applikationen reparieren (ein Buttondruck) sowie in der FritzBox die Portfreigaben wieder einrichten. Letzteres hat vermutlich die meiste Zeit bei der Aktion gebraucht. Hätte ich echt nicht gedacht. Rechnete damit einen halben Nachmittag dazu zu verbringen Backups zurückzuspielen, alles wieder einzurichten und dergleichen. Aber nein: Festplatten rein, Eingeschaltet, Button in der Weboberfläche gedrückt, Einsatzbereit. So muss ein Nutzererlebnis sein. Da bezahle ich auch gerne 100€ mehr im Vergleich zu einem Konkurrenzprodukt.
Nun habe ich aber genug mit unserem Konsum geprahlt und gehe lieber ihn weiter auskosten…indem ich FarCry 2 (2008) weiterspiele . Bis Montag!