Die Synology DS218J (noch leer).

Die Vorstellung einen eigenen Server Zuhause stehen zu haben fand ich eigentlich schon immer schick. Ganz früher lief Killer’s World sogar mal einige Zeit dank Samba Server auf meinem damaligen Hauptrechner. Aber auch wenn ich über die Jahre immer mal wieder mit dem Kauf eines Network Attached Storage (NAS) geliebäugelt habe: Es gab einfach keinen Grund für mich einen zu besitzen. Die Webseite will ich heutzutage definitiv nicht bei mir hosten, die Anzahl der Endgeräte war äußerst überschaubar und die Notwendigkeit auf meine Daten selbst innerhalb des Netzwerks zuzugreifen war nur selten gegeben. Und wenn ich doch mal was mit jemand anderes austauschen wollte, konnte ich entweder die externe Festplatte einfach mitnehmen oder kurz den BulletProof FTP Server anschmeißen.

Mit zwei Personen im Haushalt sieht die Sache natürlich schon ganz anders aus. Lysanda will beim Basteln ihre heruntergeladenen Gesundsheitsvorträge auf dem Handy anhören/ansehen. Ich würde beim Wäsche aufhängen im Keller auf dem Handy gerne mehr hören als nur meine doch immer noch überschaubaren Bandcamp-Einkäufe. Auf der Couch wäre es ebenso praktisch digital vorliegende Filme, Fotos und Musik direkt über den Fernseher abspielen zu lassen statt immer den Laptop/eine externe Festplatte anschließen zu müssen. Und den Vorteil im Bett (und auf dem Klo) Zugriff auf alles zu haben, brauche ich sicherlich nicht separat zu erwähnen. Natürlich kann man die Daten auf jedes Endgerät ausspielen oder über externe Festplatten anhängen. Aber außer, dass man etwas Datensicherheit gewinnt (sie sind ja dann doppelt und dreifach vorhanden), ist das in Sachen Komfort einfach nur Mist. Ich will jetzt Lied x,y,z hören und genau das habe ich gerade nicht auf dem jeweiligen Endgerät drauf. Alles Gründe, warum wir entsprechend schon seit dem Hauskauf einen NAS auf unserer Einkaufsliste hatten aber wie so oft kam immer etwas Wichtigeres dazwischen. So ein NAS ist schließlich nichts so Essentielles wie Heizöl und kostet trotzdem sein Geld.

Das Zünglein an der Waage war nun mein Rechnerupgrade und die Befürchtung, dass meine alte externe Platte ihr Lebensende schneller als geplant erreichen würde. Bevor ich mir aber eine neue externe Festplatte nur für meine Daten kaufe, machte es mehr Sinn etwas tiefer in die Tasche zu greifen und uns endlich einen NAS anzuschaffen. Nun steht entsprechend neben der AVM FRITZ!Box 7490 ein schicker weißer Kasten.

Das Gerät

Die HDDs sind drin.

Die Wahl fiel auf eine Synology DiskStation 218j. Synology hat im Bereich der NAS einen sehr guten Ruf und ihre Sachen sind angeblich vor allem für Einsteiger hervorragend geeignet. Und warum die DS218j statt der DS218play? Nun, hauptsächlich wegen dem preislichen Unterschied. Ja, die play hat einen 64bit QuadCore-Prozessor mit 1,4Ghz sowie 1GB DDR4-RAM im Vergleich zum 32bit DualCore-Prozessor mit 1,3Ghz und 512MB DDR3-RAM der „j“-Variante. Leitungsmäßig macht das garantiert einen bemerkbaren Unterschied (für die Erzeugung der Vorschauansichten von ~150.000 Bildern hat er z.B. mehrere Tage gebraucht). Aber aktuell sowie in der mittelfristigen Zukunft ist der NAS für uns einfach nur ein Datengrab auf das wir mit diversen Endgeräten zugreifen wollen. Da brauchen wir aus meiner Sicht (und der bisherigen Erfahrung) die zusätzliche Power nicht. Es laufen eh nicht viele Anwendungen drauf und 4K-Video-Transkodierung ist absolut kein Thema für uns.

In den NAS haben wir dann zwei WD Red mit je 4TB verbaut. Auch wieder ein Kompromiss aus Preis und Leistung, da die 6TB fast das Doppelte kostet und wir zum Verfassungszeitpunkt mit 2TB auskommen (genauer gesagt 1,83TB) auskommen. Und Western Digital Red auch wieder wegen ihrem guten Ruf langlebige Serverfestplatten zu sein. Der Einbau der Festplatten war ein Klacks (Deckel auf, reinschieben, festschrauben, Deckel zu) und die Inbetriebnahme der Hardware quasi innerhalb von wenigen Minuten erledigt. Da das Ding im Schrank steht (keine Angst: ohne Rückwand und nicht bündig mit der Wand – also Luft kann zirkulieren), kann ich die Lautstärke nicht wirklich beurteilen. Aber es gibt vier Lüfterstufen und Standardmäßig läuft der Lüfter im Silent-Modus (die zweitniedrigste). Ich habe ihn eine Stufe höher auf den Kühlmodus gestellt, höre ihn bei normaler Last nur wenn der Raum völlig still ist (weil der Schrank etwas vibriert) und habe im Ergebnis 36-40°C (derzeit sogar nur 28-30°C bei 21°C Außentemperatur und 0% Last), was für eine HDD im grünen Bereich ist. Und bei besagtem Mehr-Tages-Bilder-Indexieren war trotzdem bei 48°C Gehäusetemperatur Schluss. Perfekt!

Betriebsmodus

Beide Platten laufen im Synology Hybrid RAID-Modus, was bei zwei gleich großen Festplatten nach meinem Verständnis nichts anders als RAID 1 (Mirroring) bedeutet. Das war keine bewusste Entscheidung, denn ich habe bei der Ersteinrichtung schlicht nicht aufgepasst. Aber im Ergebnis ist es egal. Ein RAID ist bekanntlich kein echtes Backup (fackelt der NAS ab, ist eh alles vorbei), es geht also nur um Datensicherheit bei Festplattenausfall durch Redundanz und da reicht SHR aus meiner Sicht völlig aus.

Die Oberfläche des DSM6.2

Ich erwarte zwar, dass es vermutlich ein größeres Unterfangen sein wird, wenn ich dann doch mal die Festplatten auswechseln muss. Aber Synology wirbt tatsächlich damit, dass es zumindest bei gleichen oder größeren HDDs im SHR-Modus einfach gehen würde (eine alte raus, eine neue rein -> starten, Daten werden geklont, 2. HDD raus und neue rein -> Daten werden wieder geklont). Aber vollkommen zukunftssicher kann man sowas sicherlich nie aufbauen.

Die Software

Da ein Server nichts anderes ist als ein Computer, braucht auch er ein Betriebssystem, um mit den Festplatten überhaupt was anfangen zu können. Deswegen gibt es so Sachen wie Windows Server 2016. Unser NAS ist da anders und es gäbe sicherlich die Möglichkeit, dass ich mir mein eigenes Linux oder so drauf installiere (kann Rondrer vermutlich mehr zu sagen). Aber Synology installiert auf seinen NAS im Standard ein Linux-basiertes OS mit dem sperrigen Namen Disk Station Manager – aktuell in der Version 6.2. Dass es ein Linux ist, merkt man dem Programm wie ich finde aber überhaupt nicht an. Der erste Aufschlag (Aufruf der Weboberfläche mit anschließender Ersteinrichtung des DSM) dauerte rund 10 Minuten und schon konnte ich mit dem Einrichten loslegen.

Die grafische Oberfläche des DSM ist schick und relativ einfach verständlich. Die eine oder andere Funktion versteckt sich zwar hinter einem etwas nichtssagenden Namen oder mehreren Menüs (warum sehe ich z.B. die Gehäusetemperatur nur im Info-Center und auch nur als Mouse-Over statt im Menüpunkt „Hardware & Energie“?). Aber grundsätzlich geht die Handhabung selbst für Windows-n00bs wirklich sehr einfach von der Hand. Zudem hat jeder Nutzer die Möglichkeit sich seine Desktop-Ansicht umfangreich selbst zu gestalten. Und die integrierte Hilfe mit ihren zahlreichen Schritt-für-Schritt-Anleitungen ist eine richtig große Einsteigerunterstützung (bin ja einer).

Das Doing

Das Paket-Zentrum

Soweit so gut. Ein Betriebssystem allein bringt aber nichts. Nutzer, Daten und zahlreiche Programme machen erst das Ding rund. Wobei letzteres nicht so ganz stimmt, wie ich mittlerweile festgestellt habe. Aber fangen wir von vorne an: Im DSM gibt es ein Paket-Zentrum über das ihr zahlreiche Anwendungen von Synology und ausgewählten Drittanbietern direkt installieren könnt. Das ist übersichtlich gestaltet und bietet auch (sehr kurze) Beschreibungen und Screenshots. Manuelle Installationen von nicht dargestellten Paketen sind außerdem möglich. Laut Anleitung muss für jede Medienart ein eigenes Programm installiert sein (z.B. die Video Station für Video), um diese dann auf den diversen Endgeräten nutzen zu können (inkl. entsprechenden Apps auf besagtem Endgerät). Auch so Sachen wie PDF Viewer oder Office klangen im ersten Moment sinnvoll, um bestimmte Dateien direkt im Browser auf dem Server zu öffnen und zu bearbeiten. Mittlerweile habe ich gelernt: In unserem Fall alles totaler Blödsinn und nur Ressourcenverschwendung. Entsprechend sind nur noch die File Station (der Windows Explorer von DSM), der Medienserver (zum Streamen von Medieninhalten), Universal Search (Suchfunktion für den NAS) und der Synology-Anwendungsdienst (weil ich noch nicht ganz verstanden habe, was der eigentlich macht) aktiviert. Im DSM selbst wollen wir ja nicht wirklich arbeiten, sondern nur verwalten.

Im VLC (iOS) ist alles da.

Der NAS war stattdessen nach der Ersteinrichtung im LAN für alle Geräte sofort sicht- und vor allem direkt abrufbar. Sprich ich brauch‘ gar kein separates Programm auf dem Samsung Smart-TV. Stattdessen wähl‘ ich den NAS aus der Liste der Quellen aus, navigiere durch meine Ordner und öffne ohne Probleme alle Arten von Mediendateien. Und statt zig Apps auf dem Smartphone habe ich nur DS File (der Synology-File-Browser für iOS, Android und Windows Phone) sowie den VLC Player draufgepackt. Mit dem VLC kann ich mich genauso gut mit dem NAS verbinden und über die Ordnerstruktur die Mediendateien abspielen oder ihn sogar direkt aus DS File ansteuern. DS File erlaubt es außerdem Dateien vom Smartphone direkt auf den NAS zu schieben – vor allem für Fotos natürlich praktisch.

Einfacher Zugriff

Am Desktoprechner und den Laptops heißt es einfach den NAS als Netzlaufwerk verbinden und schon ist die Sache erledigt und ihr könnt ihn wie eine eingebaute HDD nutzen…okay, eine Hürde gab es: Auf dem NAS sind sogenannte „Gemeinsame Ordner“ vorhanden (bzw. ihr könnt sie anlegen). Ich dachte zuerst, dass das einfach die normalen Ordner sind, die ich erzeuge und befülle. Aber nein, die werden von Windows als einzelne Laufwerke angesehen. Und da es mir absolut zu dämlich ist für jeden Überordner ein Netzlaufwerk zu verbinden, hatte Rondrer die passende Idee für mich: Einfach einen einzigen gemeinsamen Ordner anlegen, den als Netzlaufwerk einbinden und darunter erst die eigentliche Ordnerstruktur packen. Perfekt. Und das alles ist natürlich auch im WAN möglich.

Wenn ihr keine eigene Domain habt und euch die IP nicht merken wollt, gibt es bei Synology einen optionalen QuickConnect-Service. Dieser erzeugt auf Basis eures Servernamens eine von überall aufrufbare URL zur Loginseite. Wie sicher das ist, kann ich natürlich nicht beurteilen (zumindest https kann aktiviert werden). Aber ihr müsst selbst im Minimalmodus einige Ports am Router dafür öffnen. Rondrer lässt den NAS deshalb erst gar nicht ins Internet und verbindet sich stattdessen über eine VPN-Verbindung in sein heimisches Netzwerk, um dann darüber auf den NAS zuzugreifen. Sicherer dürfte es nicht gehen, wenn ihr immer noch von draußen drauf zugreifen wollt.

Der Rest

Nach der grundsätzlichen Konfiguration fehlten noch die Daten und die User, schließlich soll nicht jeder einfach mit dem Adminaccount rumrennen. Die Datenübertragung war logischerweise dank Netzlaufwerk keine Besonderheit und nur durch die Schnelligkeit unserer HDDs beschränkt. Mit den 1,83TB dürften wir trotzdem maximal einen Tag beschäftigt gewesen sein – mehr Zeit ging für das Aussortieren und Einsortieren drauf (hatten ja so einige doppelte Daten).

Alles A-Okay!

Das grundsätzliche Einrichten der User war auch soweit kein Akt. Ihr könnt Gruppen mit Berechtigungen definieren und dann einzelne User anlegen und diesen zuordnen. Natürlich geht es genauso jedem User die Ordnerberechtigungen manuell zuzuteilen. Es gab nur zwei Schwierigkeiten: Wenn die Photo Station aktiv ist, nimmt er sich die Berechtigung heraus allein über die Zugänge des Foto-Ordners zu bestimmen (selbst der Admin kann in der Systemsteuerung dann nichts mehr machen). Total dämlich. Aber das Ding habe ich ja dann eh deaktiviert. Das zweite Problem war, dass die Ordnerberechtigungen für Lysanda trotz der Gruppendefinition nicht richtig gesetzt wurden. Sprich sie konnte auf Ordner, die ich frisch angelegt habe nicht zugreifen. Mir fiel nichts anderes ein, als einfach nochmal die Berechtigungen des Hauptordners in die Unterordner und Dateien zu propagieren. Seitdem funktionierts. Komisch aber egal :smile: .

Fazit

Und damit fällt mir nichts mehr ein, was ich euch noch erzählen könnte zu unserem NAS. Zum Verfassungspunkt beträgt seine Laufzeit bereits über 14 Tage und es gab während unserer täglichen Nutzung noch nichts, was wir vermisst hätten oder ein Problem gewesen wäre. Stattdessen schnurrt er in der Kommode leise vor sich hin und stellt uns zu jeder Zeit und auf jedem Gerät alle unsere Dateien ohne gefühlte Geschwindigkeitseinbußen zur freien Nutzung bereit. So soll’s in unserem Fall sein. Natürlich kann das Ding noch viel, viel mehr (es ist schließlich ein vollwertiger Server). Und vielleicht kommen auch bei uns noch weitere Anwendungsfälle hinzu. Aber schon in seiner Funktion als Datengrab sind wir bereits vollkommen zufrieden damit die 470 Euro investiert zu haben. Entsprechend können wir den Synology DS218J  uneingeschränkt für alle empfehlen, die einen einfachen NAS suchen und gleichzeitig mehr wollen als nur eine externe HDD am Router ranzuhängen.

Die neuen Innereien

Fast genau fünf Jahre ist es her, da hatte ich mir kurz vor meinem Umzug nach Eckental noch ein großes Rechnerupgrade gegönnt. Lustigerweise waren es davor auch fünf Jahre seit dem letzten Upgrade. Scheint sich irgendwie als neuer Rhythmus einzuspielen, denn ich habe wieder zugeschlagen! War es der richtige Zeitpunkt („Coffee Lake Refresh kommt doch demnächst, du Depp!„)? Vermutlich nicht aber gibt es beim Kauf von PC-Hardware überhaupt jemals einen richtigen Zeitpunkt? Eben.

Über eine neue Grafikkarte hatte ich ja schon länger nachgedacht aber zum einen waren mir die Preise lange viel zu hoch (scheiß Cryptomining!) und zum anderen war ich mir nicht sicher, ob das wirklich ausreicht oder nicht doch meine CPU ein Stück weit schon ein Flaschenhals ist. Nach langem hin und her überlegen habe ich dann die selbstverständlich einzig richtige Entscheidung getroffen: Einfach noch mehr Geld ausgeben und ein „komplettes“ Upgrade durchführen.

Das Ergebnis

Normalerweise hätte ich mich für die Zusammenstellung ausführlich mit unseren Hardwareexperten Azzkickr und Dod unterhalten. Aber erster erholt sich grad von einer Operation und letzterer ist aktuell mehr in Sachen VR unterwegs (er hat VR-Legion gegründet), entsprechend habe ich mich dagegen entschieden sie zu belästigen. Ich hoffe, ich werde es nicht bereuen :wink: . Stattdessen habe ich mich auf die Expertise der Community von Computerbase verlassen. Dort im Forum gibt es nämlich einen Thread namens „Der Ideale Gaming-PC“ mit preislich sortieren Konfigurationsvorschlägen. Die habe ich als Basis genutzt, um die für mich beste Variante aus Zukunftssicher, preislich vertretbar und guter Leistung zu finden. Das Ergebnis seht ihr in meiner Hardwareübersicht aber hier in Kurz:

Alter Computer Neuer Computer
(2013-2018) (2018)
Prozessor: Intel Core i7-4770 (Haswell) Intel Core i5-8400 (Coffee Lake)
Mainboard: Asus Z87-A (C2) MSI Z370 PC Pro
Speicher: Kingston, 2×4 GB, DDR 3, 1600 Mhz, CL9
Corsair, 2×4 GB, DDR 3, 1600 Mhz, CL9
G.Skill Aegis, 2×8 GB, DDR4, 3000 MHz, CL16
Grafikkarte: Palit GeForce GTX 780 Super JetStream Asus GeForce GTX 1070 Ti Cerberus Advanced
Soundkarte: Creative Soundblaster X-Fi Titanium Fatal1ty Professional Series Creative Soundblaster X-Fi Titanium Fatal1ty Professional Series
SSD: Samsung SSD 840 Evo 250 GB Samsung SSD 840 Evo 250 GB
HDD: WD Desktop Black 4TB WD Desktop Black 4TB
Seagate Barracuda XT SATA III 2TB Seagate Barracuda XT SATA III 2TB
Seagate Barracuda 7200.12 1TB Seagate Barracuda 7200.12 1TB
BluRay: Asus BW-16D1HT Asus BW-16D1HT
Kühler: Scythe Ninja 3 Scythe Mugen 5 Rev.B
Gehäuse: CoolerMaster COSMOS 1000 CoolerMaster COSMOS 1000
Netzteil: CoolerMaster V650 CoolerMaster V650

Macht summa summarum 924 Euro (inkl. Versand und einem Displayport auf DVI-Adapterkabel) an neuer Technik.

Technisch gesehen stimmt die Spalte „Alter Computer“ nicht mit dem überein, was ich tatsächlich anno 2013 zusammengeschraubt hatte. In der Zwischenzeit wurden schon ein paar Teile gewechselt (Netzteil, Laufwerke) und ergänzt (mehr RAM) aber es macht ja keinen Sinn hier etwas aufzulisten, was gar nicht mehr unter meinem Tisch stand. Wenn jemand Interesse an den alten Teilen hat: Gerne auf mich zukommen. Ansonsten landen sie im Laufe der Woche auf eBay.

Die Gedankengänge

Ein Teil der neuen Komponenten

Aber kommen wir zu den Komponenten: Die Wahl fiel auf einen Intel Core i5-8400 statt eines i7-8700 (das aktuelle Maximum) weil er zum einen 120 Euro billiger ist und zum anderen, weil das Leistungsminus lt. den Tests mit um die 10-15% für mich (bin ja nicht mehr Day-1-Spieler) vernachlässigbar erscheint. Andersherum war es beim Mainboard, wo ich die 30-40 Euro mehr in das MSI Z370 PC Pro statt in bspw. ein Asrock-Modell investiert habe, um mehr Anschlüsse sowie Luft für ein zukünftiges CPU- (z.B. einen i7-9700 oder so) oder RAM-Upgrade (geht bis 64 GB) oder vielleicht mal ne M2 zu haben.

In den Arbeitsspeicher ging hingegen nicht viel Gehirnschmalz. Es ist der, den das Computerbase-Forum empfiehlt. Ich hatte zwar kurz überlegt, vielleicht gleich 32 GB reinzupacken aber da sind mir die Preise aktuell zu hoch und gebrauchen kann es vermutlich allerhöchstens Star Citizen. Und für den Kühler habe ich mich hingegen wieder für Scythe entschieden, weil der Ninja 3 sehr gute Dienste geleistet hat und der Mugen 5 nicht nur extrem gute Bewertungen hat, sondern aufgrund seiner versetzten Bauform nicht ganz so dominant ist (und über den RAM hängt).

Bleibt noch die Grafikkarte: Ich hätte wirklich gerne wieder eine Palit in der Super Jetstream-Variante genommen. Hatte trotz der damaligen Startschwierigkeiten gute Erfahrungen damit. Aber selbst auf dem Gebrauchtmarkt bezahlt man derzeit für eine GTX 1070 Super Jetstream schon fast so viel wie ich jetzt für die Asus 1070 Ti bezahlt habe. Die 1070 TI Super Jetstream ist dann nochmal teurer. Und dafür ist der Leistungsunterschied aus meiner Sicht nicht groß genug. Entsprechend fiel die Wahl erneut auf die Computerbase-Empfehlung. Abseits der Kühllösung unterscheiden sich die meisten Grafikkarten ja heutzutage gefühlt eh nicht mehr großartig und die ASUS wirbt gleichzeitig damit, dass sie sehr langlebig wäre.

Die ersten Erfahrungen

Zum Einbau an sich gibt es nichts Besonderes zu berichten. Altes Zeugs raus, neues Zeugs rein (das neue Mainboard ist wieder breiter als das alte) und alles schön verkabelt. Netterweise konnte ich dabei ein Stromkabel rausschmeißen, weil das MSI-Board genug Lüfteranschlüsse hat (alt war einer direkt ans Netzteil angeschlossen). Unschön ist hingegen, dass die Grafikkarte über die SATA-Anschlüsse ragt. Gut, das ist tatsächlich relativ normal und normalerweise kein Problem, aber warum auch immer sind SATA-Port 3 und 4 nicht zur Seite ausgerichtet, sondern nach oben. Das Ergebnis ist, dass SATA-Port 3 quasi gar nicht nutzbar (Stecker passt wegen der Plastikhülle der Grafikkarte nicht mehr rein) und Port 4 hingegen nur mit dem beigelegten und wie immer viel zu kurzen SATA-Kabel mit Eck-Stecker. Zum Glück brauche ich aktuell nur fünf Stück (vier für die Festplatten, einen für das optische Laufwerk). Frag‘ mich, wer da nicht mitgedacht hat, schließlich sind 2-Slot-Grafikkarten mit dickem Kühlsystem nicht unbedingt was total Neues.

Auch wieder rausgefallen sind meine Front-USB-Anschlüsse. Bei meinem alten ASUS-Board konnte ich zumindest zwei der vier anschließen. Theoretisch hat das MSI sogar noch zwei weitere interne USB-Schnittstellen neben den zweien, die ich für meine zusätzlichen hintere Ergänzung nutze. „Leider“ sind die komplett auf USB3 ausgelegt und damit nicht kompatibel (weil mehr Pins). Ist etwas schade, aber das sind halt so die Nachteile, wenn man seit mittlerweile 10 Jahren das gleiche Gehäuse nutzt. Kommt der USB-Hub eben wieder mehr zum Einsatz.

Es lebt und funzt!

Der erste Start gelang dann ohne Probleme (*yay* alle Kabel des Frontpanels beim ersten Versuch richtig eingesetzt!). Im BIOS wurde alles erkannt was da sein sollte und ich konnte XMP aktivieren und damit meinen RAM auf die 3.000 Mhz boosten, die er haben soll (ohne sind es nur 2.100 Mhz). Auch Windows lief ohne Murren an, erkannte die neuen Gerätschaften alle und richtete sie fleißig ein. Anfangs fehlte die externe Festplatte aber ich hatte scheinbar vergessen sie vor dem Hardwarewechsel auszuschalten. Aus- und Wiedereinschalten löste das Problem entsprechend zügig. Dann stimmte zwar der Laufwerksbuchstabe nicht (das optische Laufwerk hatte sich vorgedrängelt), womit Windows erstmal nicht seine bekannten Daten finden konnte (auf der Externen liegen z.B. die Eigenen Dateien). Aber das war logischerweise genauso wenig etwas, was nicht zügig behoben werden konnte.

Die Windows-Aktivierung zickte hingegen anfangs rum. Ihr wisst ja: Wenn ihr bestimmte Hardware austauscht, verlangt Windows eine erneute Aktivierung quasi als Schutz vor Raubkopierern. In der Theorie sollte das mittlerweile ein Klacks sein, denn eure Lizenz ist mit eurem Microsoft-Konto verbunden. Irgendwie behauptete er aber, dass der Server nicht erreichbar wäre und ich es später nochmal versuchen sollte. Das war mir aber zu blöd, also habe ich einfach meinen alten Windows-8-Produktkey (den ich in das kostenlose Windows 10-Upgrade umgewandelt hatte) nochmal eingegeben und Schwups: Aktiviert!

Die Problemzonen

Es wäre natürlich zu einfach, wenn tatsächlich alles so funktionieren würde wie man es sich erhofft. Stattdessen habe ich zum Verfassungszeitpunkt noch folgende Problemstellen:

  • Das Blu-ray-Laufwerk will gar nicht. Im BIOS war es da, habe ich aber in Windows ein Medium eingelegt, lief es kurz an, verschwand dann aber komplett und war beim Neustart auch im BIOS nicht mehr vorhanden. Stecker ziehen und neu stecken, dann wurde es wiedererkannt und das Spielchen begann von vorne. Mittlerweile funktioniert selbst das nicht mehr. Ich habe weder einen Grund noch eine Lösung dafür (es hängt an besagtem SATA-Port 4). Im Internet gibt es Berichte, dass Windows irgendeine Funktion hätte bei Nichtbenutzen das Laufwerk schlafen zu legen. Aber dann wird es zumindest noch angezeigt. Hier ist es einfach komplett weg. Ein Rätsel. Zum Glück habe ich noch ein externe Blu-ray-Laufwerk. Ist also nicht das ganz große Thema, wenn es hart auf hart kommt.

Folgendes Problem habe ich auf meine eigene Art und Weise schon gelöst:

  • Beim Ausschalten des PCs fährt die externe Festplatte nicht wie gewohnt in den Energiesparmodus runter. Scheinbar hat das MSI standardmäßig selbst im ausgeschalteten Zustand noch Strom auf den USB-Anschlüssen oder Windows schickt kein entsprechendes „ich bin aus“-Signal. Eine direkte Einstellung dafür habe ich im BIOS nicht gefunden („Wake on“ ist deaktiviert). Momentan stehe ich auf dem Schlauch. Klar, kann ich sie manuell ausschalten (und tue das auch trotz Energiesparmodus). Aber wenn sie nicht vorher im Energiesparmodus ist, habe ich immer etwas Angst, dass sie doch mal einen Schlag wegkriegt dadurch.
    Lösung: Wir hatten schon länger überlegt einen NAS zu kaufen. Das Vorhaben haben wir nun vorgezogen (mehr dazu vermutlich kommenden Montag). Dadurch ist ein großer Teil der Daten auf der externen Festplatte auf den NAS gewandert und für das, was noch übrig ist, habe ich jetzt eine WD Elements mit 2TB von Lysanda (die Daten, die da vorher drauf waren, sind nun auch auf dem NAS). Vorteil: Sie ist viel kompakter als die Buffalo DriveStation, die ich bis jetzt hatte – und unterstützt sogar USB3.

Und folgendes Problem muss ich leider als gelöst ansehen:

  • Microsoft Office 2016 mag meinen Key nicht mehr. Wie Windows, reagiert auch Office auf eine Hardwareänderung mit der Bitte um Reaktivierung. Theoretisch ist es hier das gleiche Spiel: Im Microsoft-Konto ist die Lizenz hinterlegt und er kann sie wieder laden. Blöd nur, dass meinem Konto keine Lizenz mehr zugeordnet ist? Und beim erneuten Eingeben des Keys bekomme ich ein „Kennsch ned, magsch ned“? Wad?! Ein Chat mit der Microsoft-Support-Hotline offenbart mir, dass es sich um einen ungültigen Key handelt, der mittlerweile gesperrt wurde. Also vermutlich aus einem Volumenlizenzen-Bestand oder so stammt. Na klasse. Da denkt man, man kauft bei einem respektablen Händler und dann sowas. Ich habe natürlich direkt mysoftware angeschrieben, bei denen ich 2015 die Lizenz gekauft hatte aber ein Ersatz wurde mir mit dem Hinweis auf die abgelaufene Gewährleistungsfrist verweigert. Ich würde sagen: Bei diesem Shop solltet ihr nicht kaufen. Das hat man davon, wenn man sich vom billigen Preis blenden lässt.
    Lösung: Neuen Key kaufen, Office 2013 re-installieren oder endlich auf OpenOffice umsteigen.

Die synthetischen Bechnmarks

Jetzt aber genug vom allgemeinen Geblubber. Der Rechner funktioniert im Großen und Ganzen, schnurrt wie eine Katze (oder sitzt Maya schon wieder dahinter?) und ist betriebsbereit. Zeit also, ihn durch den Parkour zu schicken. Zuerst natürlich die ePenis-Sachen: CineBench, 3DMark (Demo) und FurMark. Catzilla funktioniert seit irgendeinem Windows Update nicht mehr (und keinen von den Entwicklern scheints zu kümmern) und kam deshalb nicht zum Einsatz.

 

Die Ergebnisse sind aus meiner Sicht wie erwartet. Anders als 2013 in 3DMark 2011 ist mein 3DMark-Score in Time Spy (die anderen hab‘ ich aber auch mal gemacht) zwar „nur“ besser als 68% aller anderen (damals 89%) aber ich habe ja im Vergleich zu damals eine CPU eine Stufe unter den derzeit besten eingebaut. Und bei FurMark habe ich auch ein Ergebnis auf dem Niveau anderer Leute mit gleicher Grafikkarte. Wenn ihr also nichts anderes sagt, dann mache ich an das Thema einen Haken und sage: Passt alles so und ist im grünen Bereich für mein System.

Die Spielebenchmarks

Das Benchmarkergebnis von GRID Autosport

Eine Stufe über den synthetischen Benchmarks stehen die integrierten Benchmarks in Spielen. Eine praktische (aber sicherlich nicht 100% vollständige) Liste findet man unter anderem hier. Da ich zwar viele der genannten Titel habe aber nicht extra nur wegen dem Benchmark sie installieren wollte, habe ich mal Warhammer 40.000: Dawn of War III durchlaufen lassen, welches mir nun mit 136,18/48,32/80,80fps (max/min/avg) fantastische Ergebnisse auf vollen Details liefert. GRID Autosport lief auch mit dem alten Rechner bereits ganz gut, aber nun grafisch voll aufgedreht (natürlich inkl. 2. Monitor) komme ich trotzdem auf saubere 123,22/65,21/94,99fps. Anspruchsvoller ist da schon Rainbow Six: Siege mit 48,6/30,7/43,1. Hier musste ich deshalb ein Detail runterschrauben und zwar die Ambient Occlusion nur auf SSBO statt auf HBAO+. Letzteres hat im Maximum und Average zwar nur ein paar Frames pro Sekunde gekostet, aber das Minimum ist total eingesackt auf um die 9 FPS. Fürs echte Spielen sollte ich aber vermutlich trotzdem das ein oder andere Detail noch weiter absenken.

Als nächstes war Mittelerde: Schatten über Mordor dran. Damit hatte der alte Rechner schon ein wenig zu kämpfen, sollte aber nun mit 158,77/59,00/88,04 bei noch höheren Grafikeinstellungen definitiv Vergangenheit sein. Ähnlich sah auch Thief aus mit 114,4/71,1/86,0 sowie Sleeping Dogs mit 116,8/47,4/83,1. Ja, das Spiel ist von 2012, hat extrem viele Ecken und Kanten in der Geometrie und saugt trotzdem massiv an der Performance (vor allem beim Fahren). Aber jetzt kann ich es endlich flüssig genießen.

Die eigentliche Praxis

Just Cause 3 (Herstellerbild)

Dass die „Ultra“-Einstellung in Spielen meistens keinen großen grafischen Mehrwert bringt (vor allem im Vergleich zum Leistungsverlust), ist ja nichts Neues. Entsprechend ist es zwar ganz nett, wenn ich die Titel so hochstellen kann und trotzdem meine 60fps kriege (V-Sync & Co. mache ich mittlerweile immer an, wenn es keine Probleme verursacht). Aber es ist absolut kein „Muss“ mehr. Und natürlich gibt es weiterhin Titel, die ich trotz neuer Hardware nicht auf Anschlag drehen kann. Grand Theft Auto V und Wolfenstein: The Old Blood z.B., die zwar nun wesentlich mehr Details erlauben und gleichzeitig flüssiger läufen aber eben immer noch nicht alle Grafikoptionen komplett auf Anschlag. Auch No Man’s Sky ist um Welten besser (solide 60fps statt 20-30fps) doch nur auf gleicher Detailstufe. Da gibt’s übrigens ein absolut empfehlenswertes Video von Digital Foundry zu No Man’s Sky NEXT, in dem die Jungs genau schauen welche Auswirkungen welche Grafikeinstellungen sowohl auf die Optik als auch auf die Leistung haben. Ich zocke derzeit genau auf der Stufe wie im Video.

Ein weiteres Problemkind war bekanntlich Just Cause 3, wo vor allem die physikalischen Effekte meinem alten System das Genick gebrochen hatten. Das gehört nun der Vergangenheit an. Butterweich das Teil und der Titel, den ich tatsächlich bislang am Längsten gespielt habe mit der neuen Hardware unter der Haube (sinnlose Zerstörung geht halt immer). Schade, dass es keinen integrierten Benchmark mehr gibt wie noch in Teil 2. Ich musste allerdings auch hier eine Grafikeinstellung reduzieren. Nicht, weil sie mich großartig Performance kostete. Nein, SMAA_T2X verursachte extremes Ghosting (bei Bewegungen sieht man quasi die Zwischenbilder). Das ist wohl ein bekanntes Problem und die einzige Lösung ist auf FXAA zu reduzieren. Auch zwei Abstürze hatte ich schon aber soweit ich das beurteilen kann, hatte das nichts mit der neuen Hardware zu tun, sondern mit dem Spiel.

Fazit

Was bleibt also zum Abschluss zu sagen? Nun, ich hab‘ noch ein paar kleine Probleme aber nichts, was sich nicht auf irgendeine Art und Weise lösen lassen wird bzw. schon gelöst wurde. Gleichzeitig habe ich aber definitiv wieder „moar pow0r“ unter dem Schreibtisch stehen, die es mir erlaubt meine bislang grenzwertigen Titel, wenn vielleicht auch immer noch nicht in voller Pracht zumindest anständig flüssig zu erleben. Es ist vielleicht nicht der ganz große Sprung (der i7-4770K ist in manchen Benches schneller als der i5-8400) aber wenn der Bedarf besteht, habe ich die Option ohne gleich wieder das Mainboard auszuwechseln zu müssen noch mehr Power reinzustecken. Entsprechend sehe ich das Geld gut investiert und behaupte mal, dass ich damit die nächsten fünf Jahre damit locker überbrückt kriege. Wobei dann vermutlich doch mal ein Gehäuseupgrade notwendig ist…

Und nein, VR ist leider immer noch kein Thema in meinem Haushalt. Bis Montag!

Ein Stapel neuer alter Spiele

„Schon wieder ein Eintrag über Spiele?! Das ist ja DER Wahnsinn! Ich hatte schon befürchtet, der Webmaster sagt uns schon wieder warum wir alle sterben werden oder so…“

Ihr seid aber auch immer so nett zu mir, liebe Besucher. Aber ja, heute geht es tatsächlich schon wieder um Spiele. Sogar um etwas Aktuellere als beim letzten Mal, denn wie im Eintrag erwähnt übergab am Donnerstag der DHL-Bote mal wieder ein Paket Spiele an mich – verschickt von OkaySoft! Richtig erkannt: Die gibt es immer noch und der Service ist weiterhin so hervorragend wie ich ihn in Erinnerung hatte. Haben sogar Anfang des Jahres ihre Seite modernisiert (endlich Filter und eine Bestellübersicht!). Lohnt sich also vorbeizuschauen, nicht nur wenn es wie in meinem Fall um ältere Sachen geht, die mitunter die großen Shops gar nicht mehr haben (oder nur für Sündteuer).

Die Lieferungen

Aus der Packstation habe ich hingegen seit langem mal wieder neue harte Ware geholt. Allerdings nur ein Netzteil (CoolerMaster V650 in der vollmodularen Variante für ca. 115 Euro), weil mein CoolerMaster Real Power M700 nach zehn Jahren irgendwie einen Knacks bekommen hat (vermutlich durch 1-2mal zu viel rausgeflogene Sicherungen) und unter Last sehr, sehr laut geworden ist. Dachte zwar zuerst die Grafikkarte wäre der schuldige, aber bei genauerem Hinhören war es tatsächlich das Netzteil. Garantie gibt es bei CoolerMaster nur bis maximal fünf Jahre deswegen habe ich mir nun ein Neues geholt. Der Rechner ist jetzt nicht nur wieder schön leise: Das neue Netzteil dürfte auch wesentlich effizienter sein als das alte und damit der Stromverbrauch niedriger (vom etwas weiter reduzierten Kabelsalat im Gehäuse ganz zu schweigen). Eigentlich wird es mal wieder Zeit für ein komplettes Rechnerupdate aber die Grafikkartenpreise sind grad absolut unbezahlbar aufgrund der Mining-Problematik und als mittlerweile nur noch Wochenendspieler muss ich Lysanda zustimmen, dass es sowieso einfach keinen großen Sinn macht. Da können wir das Geld für andere Sachen wesentlich besser gebrauchen (z.B. aktuell mal wieder Heizöl, wenn die Preise hoffentlich erneut sinken).

Jetzt wollt ihr aber natürlich ganz dringend erfahren, was ich denn alles an PC-Spielen bei OkaySoft gekauft habe (obwohl ihr es rechts auf dem Bild sicherlich schon gesehen habt). Nun, wie gesagt Call of Duty: Black Ops III und Call of Duty: Infinite Warfare. Sogar beides noch in der Day One Edition (aber ohne Call of Duty 4: Modern Warfare Remastered). Immer ein gutes Zeichen dafür, wie „gut“ sich die Spiele verkauft haben, wenn man so viele Jahre nach Release noch die Erstauflage bekommt… Außerdem Act of Aggression (Reboot Edition, Plants vs. Zombies: Garden Warfare 2, Shadowrun Chronicles: Boston Lockdown (sollte mal ein MMORPG werden, aber der Kickstarter ist gescheitert, deswegen nun eine Art XCOM mit globaler Koop-Lobby), GTA V (auch wenn meine Hardware sicherlich nicht ausreicht), The Witcher 3: Wild Hunt (GOTY) (auch hier reicht meine Hardware nicht aus), Dishonored: Der Tod des Outsiders (obwohl ich Teil 2 erst angefangen habe), Resident Evil 7 (Gold Edition) (hab‘ weder Teil 5 noch Teil 6 bislang durch), Ghost Recon: Wildlands, Agents of Mayhem (als Saints Row-Fan musste ich es endlich haben – mehr dazu in einem anderen Eintrag) sowie den Titel, der unser heutiges Hauptthema ist:

Cover

Homefront: The Revolution (2016; PC, XONE, PS4) – Das erste Homefront hat mir damals sehr gut gefallen – besser als alle Call of Duty zu der Zeit (und auch danach). Ja, es hatte genauso seine Probleme (z.B. sehr kurz und linear) aber dafür versprühte es extrem viel Atmosphäre in allen Bereichen und ich kann es immer noch jedem ans Herz legen! Entsprechend gespannt war ich auf Teil 2, der anfangs auch von den Kaos Studios kommen sollte. Leider ging es mit dem Publisher THQ zu der Zeit relativ zügig bergab und die Entwickler wurden geschlossen. Die Marke ging anschließend an Crytek und die wollten kein lineares, storylastiges Homefront 2 wie Kaos Studios es geplant hatten, sondern wie gefühlt jeder heutzutage eine offene Welt. Damit stand die Grundidee von Homefront: The Revolution fest. Bis zum Release im Jahr 2016 vergingen allerdings noch einige Jahre, denn Crytek hatte bekanntlich genauso seine finanzielle Probleme. Am Ende landete es bei Deep Silver und ihrem Inhouse-Entwickler Dambuster Studios (ehemals Crytek UK und davor Free Radical Design – die Macher von TimeSplitters). Das Ergebnis kam weder bei den Kritikern noch den Spielern wirklich gut an – eine Meinung, die ich nach den ersten vier Spielstunden leider teilen muss. Fangen wir aber wie immer ganz am Anfang an:

Homefront: The Revolution (Herstellerbild)

Homefront: The Revolution ist, wie der Name schon impliziert, kein zweiter Teil. Stattdessen ist eine Art Reboot mit der gleichen Grundidee: In einer alternativen Geschichte haben die Nordkoreaner Amerika erobert. In der Version von Dambuster Studios haben sie dafür in den 70igern angefangen mittels ihrer APEX Corporation den amerikanischen Markt (inkl. Militär) mit ihren hochwertigen Elektronikprodukten zu überschwemmen. Da es aufgrund von mehreren Kriegen den Amis sowieso schon nicht gut geht, haben sie durch die Waffenkäufe bei APEX auch noch riesige Schulden angehäuft. Als sie diese nicht mehr bedienen können, fällt Nordkorea in Amerika ein, indem sie die geheime Backdoor in ihrer Elektronik aktivieren und alles lahmlegen. Anfangs gaben sich die Koreaner noch ganz lieb und nett, aber mittlerweile (2029) ist Amerika ein totalitärer Polizeistaat geworden. Und wie es mit unterdrückten Menschen immer so ist, wollen die das nicht mehr akzeptieren (unverantwortlich sowas!) und rebellieren. Ihr spielt Ethan Brady, einen der ganz neuen, aufstrebenden Revoluzzer in der Stadt Philadelphia.

Spielwelt hui, Gameplay pfui

Wie erwähnt war es die Atmosphäre, die mir damals am ersten Teil richtig gut gefallen hatte. Amerika und die Menschen darin waren sichtbar heruntergekommen und zwar nicht auf die künstliche Art und Weise, wie es Call of Duty macht wo selbst total zerstörte Städte unwirklich daherkommen, sondern eben so wie man es sich vorstellt. Homefront: The Revolution schlägt da tatsächlich in die gleiche Kerbe. Philadelphia sieht nicht nur wie eine reale, heruntergekommene Stadt aus – sie fühlt sich auch so an. Und die Charaktere wirken (vor allem dank der CryEngine) nicht weniger lebensecht und sind von der Okkupierung sichtbar gezeichnet. Die Menschen kämpfen spürbar ums Überleben und man ist nicht einfach nur Zuschauer in einer nachgeahmten Apokalypse, sondern bekommt „echte“ Gefühle und Emotionen zu sehen – zumindest die meiste Zeit. Leider machen die technischen Probleme selbst die stärksten Szenen mitunter kaputt. Beispielsweise wenn Charaktere versuchen euch anzuschauen aber euer Kopf anscheinend in der Decke steckt und entsprechend nur noch das weiße in den Augen zu sehen ist, Gegner stupide gegen die Wand laufen (und nach dem Ableben gerne mal drin stecken bleiben) oder Rebellen erst locker ihre Waffe an der Köperseite tragen und dann „wusch“ vor sich halten statt eine fließende Bewegung auszuführen.

Homefront: The Revolution (Herstellerbild)

Darüber könnte man freilich hinwegsehen, wenn der Rest des Spiels durchweg auf hohem Niveau wäre. Aber wie erwähnt, wollten die Entwickler UNBEDINGT eine offene Welt. Und dann nicht nur eine offene Welt, sondern auch noch eine, wo die Karte vor lauter Symbolen schon fast keine Straßenführung mehr zeigt. Man kann viel über lineare Spielerlebnisse schimpfen aber bislang gab es aus meiner Sicht nur sehr, sehr wenige Spiele mit einer offenen Spielwelt, die es geschafft haben trotzdem eine gute und intensive Geschichte zu erzählen (Assassin’s Creed II z.B.). Homefront: The Revolution gehört eindeutig nicht dazu. Ja, natürlich passen die meisten Gameplay-Elemente wie die KAP sabotieren, Stützpunkte einnehmen oder den Einwohnern helfen in die Idee eine Revolution anzuzetteln. Aber aufgrund der Masse an Tätigkeiten und der dadurch verbundenen ewigen Wiederholungen und langen Laufzeit zwischen den eigentlichen (intensiven und ganz gut gelungenen) Story-Missionen, geht jedes bisschen Spannung sofort flöten. Schlimmer noch: In den sogenannten gelben Zonen will das Spiel eigentlich, dass man sich versteckt, schleicht und heimlich seine Ziele erfüllt. Die Realität sieht so aus, dass ich mich waffenstrotzend ins Gefecht stürze, ganze Armeen auslösche und nur hin und wieder verstecke.

Nervig

Ich ballere nicht alles ab was ich sehe, weil ich es bevorzuge. Ich würde ja nach den Regeln der Entwickler spielen. Wenn man nur von A nach B will nerven die Straßenschlachten schon ein wenig, da in der gelben Zone ALLE Wachen in der Zone alarmiert werden. Aber es geht einfach nicht anders. Die Feinde sehen einen zu schnell und verbleiben viel zu lange in der Region während man sich versteckt. Sprich selbst wenn ich versuche einen auf Schleichen zu machen, verbringe ich entweder gefühlte Stunden damit sinnlos zu warten oder werde beim Verlassen meines Verstecks sofort wiedergesehen und es wird erneut Alarm ausgelöst. Das macht keinen Spaß. Dann lieber rücksichtslos ballern – zumal das eigene Ableben keine echten Konsequenzen hat. Entweder es wird innerhalb einer Story-Mission der letzte Checkpoint geladen oder man wacht im nächstgelegenen Safehouse auf und verliert nur ein paar geldbringende aber völlig austauschbare Gegenstände, die man gesammelt hat.

Immerhin sind die Schießereien insgesamt ganz spaßig. Die Waffen haben rums, es gibt eine große Auswahl (ihr könnte jede Hauptwaffe mehrfach umbauen sowie Sachen anbringen) und wenn die KI nicht gerade in eine Wand rennt, agiert sie tatsächlich halbwegs Intelligent mit Flankiermanövern und gemeinsamen Vorstößen. Außerdem ist wie gesagt die Stadt sehr schön gestaltet, bietet viel vertikalität und es gibt immer verschiedene Möglichkeiten an die Sache heranzugehen.

Homefront: The Revolution (Herstellerbild)

Beim Christoph meint: Ich hätte wirklich sehr gerne das Homefront 2 von Kaos Studios gehabt. Homefront: The Revolution zeigt zwar die Ansätze der Dinge, die den Vorgänger so gut gemacht haben vor allem was die Atmosphäre angeht. Aber sagen wir es wie es ist: Die offene Welt macht das komplette Konzept kaputt. Die technischen Unzulänglichkeiten sind da nur ein Tropfen auf dem heißen Stein. Dem Titel hätte es so viel besser getan, wenn die Entwickler ausgemistet hätten. Es müsste ja nicht völlig linear sein. Das Konzept der Zonen beispielsweise hätte man sicherlich lassen können. Aber manchmal ist weniger definitiv mehr. Weniger Wiederholungen in den Sachen, die man für die nächste Hauptmission machen muss und mehr Konzentration auf das Wesentlich in Form von Story und den Charakteren und schon wäre es ein Hit.

In der veröffentlichten Form kann ich hingegen absolut nachvollziehen, warum ich noch eine Day One Edition bekommen habe. Auch von mir gibt es keine Kaufempfehlung. Ich werde es zwar weiterspielen, weil ich wissen will, wie sich die Geschichte weiterentwickelt. Aber wenn ihr diesen Titel selbst auf dem Ramschtisch links liegen lasst, bin ich euch absolut nicht böse drum. Dann doch lieber Homefront nachholen!

Die aktuelle Versionsnummer

Am Dienstagabend war es mal wieder soweit: Das (von manchen?) lang erwartete „Fall Creators Update“ (Version 1709) für Windows 10 wurde für die Allgemeinheit zum Download bereitgestellt. Dem Hauptrechner wurde es Freitagsabends auch direkt angeboten und lief ohne große Probleme in weniger als 15 Minuten durch. Er hing nur im Vorfeld der Installation beim Download und der Vorbereitung etwas länger auf 83% fest. Nach dem Upgrade musste ich ausschließlich meine Einstellungen in der Creative Konsole für die Soundkarte neu treffen. Nicht mehr funktionierende Treiber oder Programme, wie bei scheinbar vielen anderen „Upgradern“, konnte ich bei mir nicht feststellen. Und in Sachen Spiele läuft Grim Dawn ebenso immer noch einwandfrei.

Auf meinem Laptop, den ich scheinbar tatsächlich seit April nicht mehr anhatte, dauerte zwar alles ein wenig länger. Wenn man ein halbes Jahr ein Gerät nicht mehr anhatte, dann ist es halt erst einmal ein wenig mit sich selbst beschäftigt und da der Laptop mit seinen vier Jahren auch nicht mehr ganz so der neuste ist (Festplatte ist ein massiver Flaschenhals), dauert halt alles grundsätzlich etwas. Ich musste außerdem zum Windows Update Assistent (Media Creation Tool) greifen, weil das Update mir hier noch nicht unter Windows Update zur Verfügung gestellt wurde. Anschließend lief es aber auch hier einwandfrei und ohne irgendwelche Beschwerden vor, während oder danach durch. Bleibt Lysandas Laptop, der nochmal ein paar Jahre mehr auf dem Buckel hat und entsprechend NOCH mehr Zeit braucht :smile: .

Die Neuerungen

AAAAAHHH EIN UNTEXTURIERTES SPACE SHUTTLE!

Stellt sich nun die Frage, was es nach der Installation überhaupt an tollem Neuem gibt bzw. genauer, was mir aufgefallen ist und was davon im (leider nicht mehr täglichen) Anwendungsfall relevant sein könnte. Die neue Schaltfläche „Kontakte“ in der Taskleiste habe ich zum Beispiel sofort wieder deaktiviert. Wenn jemand meine Taskleiste vollstopft mit Sachen, dann ausschließlich ich *hmpf* . Im Explorer fiel mir hingegen der neue Ordner „3D-Objekte“ unter „Dieser PC“ auf. Keine Ahnung ob der grundsätzlich schon länger da war (viele der ganzen 3D-Programme wurden ja schon im letzten Creators Update eingeführt) aber er ist auf jeden Fall nun prominenter. Kein Wunder, ist doch eine zentrale Neuerung (die ich nicht nutzen kann) des Updates das ganze Thema Mixed Reality mit VR-Brillen. Ich konnte entsprechend nur das Spaceshuttle im Mixed Reality Viewer dank Webcam auf mein virtuelles Ich zufliegen lassen und nicht auf mein echtes :smile: . Damit war dieses Thema für mich aber auch schon wieder durch. Mit Cortana und OneDrive habe ich ebenso absolut gar nichts am Hut.

Interessanter sind da schon die neuen Konverter-Funktionen des integrierten Taschenrechners (unter anderem Währung, Volumen, Temperatur und sowas) oder die Möglichkeit, dass sich bei einem Neustart mit Aktualisierung Windows von alleine wieder einloggen kann. Könnte freilich auch eine Sicherheitslücke sein, aber das werden die kommenden Monate zeigen. Die neue Anzeige der GPU-Auslastung im Task-Manager ist hingegen ganz nett obwohl in meinem Fall mein Lüfter schon die ganz Zeit genau anzeigte, ob meine GPU sich gerade langweilt oder nicht :wink : .

Weitere Kleinigkeiten

Gleichfalls nett aber nicht weltbewegend ist, dass wieder ein paar Sachen aus der Systemsteuerung in die Einstellungs-App gewandert sind. Und es nun z.B. die Möglichkeit gibt Windows zu erlauben regelmäßig und völlig automatisch die temporären Dateien sowie Sachen im Papierkorb zu löschen. Oder sein Smartphone fest mit dem Rechner verbinden, um theoretisch fließend arbeiten zu können bspw. auf dem Handy eine Webseite öffnen und dann „Seamless“ diese auch auf dem Rechner bereitstellen. Können in diesem Fall die wichtigsten Browser zwar meines Wissens (Maxthon kann es schon ewig) mittlerweile sowieso. Aber Windows-Standard-Funktionalitäten sind ja immer noch einmal ein weiterer Schub für solche Sachen und es gibt ja noch mehr, was sich damit machen lässt.

Designtechnisch fällt erst auf den zweiten Blick auf, dass manche Fenster nun eine leichte Transparenz haben (z.B. das Startmenü). Aber da muss man schon teilweise sehr genau hinschauen. Dass sich nun das Startmenü wie jedes andere Fenster diagonal vergrößern und verkleinern lässt, ist da schon wesentlich auffälliger und nützlicher (für mich).

Wad?! Ich bin nur ein mittler NAT-Typ?! Sauerei!

In Sachen Spiele ist in den Einstellungen jetzt eine Testfunktion wie man es von der Xbox kennt, um die Verbindung zum Xbox-Netzwerk zu prüfen. Also man kann direkt sehen, was für meinen Ping man hat, wie hoch der Paketverlust ist und ob der Router richtig konfiguriert ist (wir es bei mir bis gerade nicht der Fall war). Außerdem macht in den Medien aktuell der neue Eintrag „TruePlay“ die Runde. Quasi eine Windows-weite Anti-Cheat-Funktion, die von den Spieleentwicklern verwendet werden kann. Standardmäßig ist die Funktion nach dem Update übrigens ausgeschaltet. Sollten also Spiele darauf zurückgreifen wollen, dann werden sie vermutlich darauf hinweisen und nicht mehr starten oder sowas. Aber aktuell gibt es noch keine damit.

Fazit

Und mehr fällt mir tatsächlich nicht an Neuerungen ein/auf. Sicherlich gibt es im Hintergrund auch noch so einige Stabilitätsverbesserungen und vor allem beim Spielemodus einige veränderte Stellschrauben. Aber als Otto-Normalverbraucher würde ich sagen, merkt man vom Fall Creators Update so gut wie gar nichts. Das ist jetzt nicht zwingend schlecht und stört mich persönlich überhaupt nicht. Ich habe tatsächlich lieber alle halben Jahre ein kleineres Upgrade mit Kleinigkeiten, die mir ein bisschen das Leben erleichtern bzw. das System verbessern anstatt alle 2-3 Jahre den Rechner wegen einer komplett neuen Windows-Version neu aufsetzen zu „müssen“ mit dem Risiko größerer Probleme/Umgewöhnungsphasen. Insofern unterstütze ich hier (nicht nur) Microsofts Ansatz eines lebenden Betriebssystems.

Ansonsten gibt es an dieser Stelle aus meiner Sicht zum Windows 10 Fall Creators Update nicht viel mehr zu sagen. Wenn ihr schon Windows 10 draufhabt, müsst ihr über kurz oder lang sowieso auf die neuste Version umsteigen. Und in dem Fall kann ich nur sagen, dass es aus meiner Sicht keinen Grund gibt zu Warten. Wer hingegen immer noch auf Windows 7 rumhängt (Windows 8-Systeme haben hoffentlich alle schon das Upgrade gemacht)…nun den wird auch die Version 1709 von Windows 10 nicht überzeugen. Das ist einfach so.

In diesem Sinne: Was sind eure bisherigen Erfahrungen mit 1709? Das Update schon installiert? Wenn ja, alles soweit gut gelaufen? Wenn nicht, was war/ist das Problem?

Nintendo Switch (Herstellerbild)

Über 100 Millionen Einheiten möchte Nintendo von seiner Switch verkaufen – zumindest erzählen sie das ihren Anlegern. Verständlich: Nach dem eher mäßigen Erfolg der WiiU (ich gebe dem Namen ungefähr 76,43% der Schuld daran) soll die Nintendo Switch endlich wieder an den unvergleichlichen Erfolg der Wii anknüpfen. Ja, technisch gesehen haben sowohl die PlayStation als auch die PlayStation 2 mehr Einheiten verkauft (vom Nintendo DS und den Gameboys ganz zu schweigen). Aber die Wii war definitiv ein anderes Kaliber was das Phänomen an sich anging und entsprechend der Misserfolg der WiiU (14 Millionen verkaufte Einheiten) ein massiver Dorn im Auge des Managements.

Ein einmaliges Ereignis

Doch gerade aufgrund des immensen Erfolgs der Wii bezweifle ich ein wenig, dass da die Switch mithalten kann. Nicht etwa, weil ich die Switch doof finden würde (abseits vom Namen). Nein, die Wii war schlicht und einfach das perfekte Gerät zur perfekten Zeit. Es traf 2006 massiv den Zeitgeist (Bewegungssteuerung, die Out-of-the-Box auch tatsächlich ganz gut funktionierte) und konnte damit Zielgruppen für sich erschließen, die sonst abseits des PCs (und heute Smartphones) nicht erreichte. Vor allem, weil auf der Packung „Nintendo“ stand. Eine Firma, die selbst der Älteste unter den Ältesten kennt. Das darf man definitiv nicht unterschätzen. Gleiche Konsole nur mit „Microsoft“ oder „Sony“ drauf? Ich glaube nicht, dass sie diese Reichweite gehabt hätte.

Allerdings war dieser Erfolg ohne langfristige Wirkung aus meiner Sicht. Ja, anfangs war die Konsole monatelang überall ausverkauft und Wii Sports ist in den Top 3 der meistverkauften Videospiele aller Zeiten (nach Tetris und Minecraft und vor GTA V). Aber im Rückblick hat sich gezeigt, dass das Softwareangebot der Wii nicht nur eher übersichtlich blieb, sondern auch von dieser neuen Zielgruppe mit massivem Dessinteresse begleitet wurde. Sie hatten ihr Wii Sports und vielleicht noch WiiFit – mehr brauchten sie nicht. Und alle anderen scherzten stattdessen darüber, dass sie mal wieder ihre Nintendo-Konsole abstauben müssten, weil sie darauf schon ewig nichts mehr gespielt haben.

Gleicher Ansatz, neuer Look

Nintendo Switch (Herstellerbild)

Grundsätzlich erscheint mir die NSC (keine Ahnung, was die offizielle Abkürzung ist) einfach nur eine Weiterentwicklung der WiiU zu sein. Das ist auch erst einmal nicht schlecht. Warum eine Konsole und einen Handheld kaufen, wenn ich beides in einem habe? Der WiiU-Controller war nur einfach nicht wirklich handlich. Da gefallt mir die NSC mit den Joy-Con-Controller wesentlich besser (und sieht etwas handlicher aus). Und Zuhause dann sogar noch optionales Controllerfeeling durch die Joy-Con-Halterung (wieder so ein blöder Name) oder den Pro Controller, so muss das sein!

Ich finde diese vollkommen modulare Idee also nicht nur in Bezug auf die Konsole, sondern auch die Controller durchaus cool. Es steigt zwar die Gefahr, dass man eines der drei Teile verliert aber so ist das ja immer. Dass die Abwärtskompatibilität nur digital ist, weil das System wieder Cartridges benutzt und man vermutlich wieder alles neu kaufen muss (Nintendo halt) ist natürlich doof. Andererseits kann ich mir durchaus vorstellen sowohl eine WiiU im Hause zu haben als auch eine NSC – schon allein weil wahrscheinlich so einige jetzt ihre WiiU samt kompletter Spielesammlung billig bei eBay raushauen werden :smile: . Außerdem ist es völlig legitim mal wieder einen Cut zu machen, denn seien wir mal ehrlich: Wer will schon Wii Sports mit der NSC spielen?

Die ganze Thematik mit dem kostenpflichtigen Onlineservice sehe ich hingegen kritisch. Nicht, weil ich nicht bereit wäre dafür zu bezahlen (ich habe seit Jahren ein Xbox Live Abo). Mein Problem liegt in der Kombination aus „Nintendo“ und „Onlineservice“. Wenn ich wieder (gefühlt) 200-stellige Friendscodes für jedes Spiel einzeln eintippen muss, dann geht mir so langsam die Hutschnur hoch. Kindersicherung schön und gut – das muss einfach bessergehen. Und natürlich bitte endlich nur ein Account auf dem dann für alle Ewigkeit meine gekauften Spiele jederzeit wieder herunterladbar sind.

Die Spiele

Zelda: Breath of the Wild (Herstellerbild)

Am 3. März 2017 soll die kleine schwarze dann im Regal stehen. Das Launch-Lineup von Nintendo für die Switch ist mit zwei Titeln durchaus übersichtlich. Wobei sie mit The Legend of Zelda: Breath of the Wild natürlich ein massives Schwergewicht mit dabeihaben, welches bei der WiiU eindeutig gefehlt hat. New Super Mario Bros. U ist da einfach kein Vergleich wie ich finde. 1-2 SwitchWii Sports. Der Rest der insgesamt 10 Launchtitel? Nun, hauptsächlich Ports von schon lange auf anderen Plattformen veröffentlichten Titeln. Einzig Super Bomberman R würde mich persönlich noch reizen.

Andererseits behauptet Nintendo, dass das dieses Mal tatsächlich so geplant war. Der Gedanke: Lieber einen regelmäßigen Schub an Neuveröffentlichungen haben und damit ständig im Gespräch sein statt nur hin und wieder. Diesen Ansatz kann ich auch durchaus nachvollziehen, wenngleich er sicherlich dem ein oder anderen Hardcoregamer nicht passen wird, der The Legend of Zelda: Breath of the Wind schon fünf Minunten nach Release 100% durchgespielt hat. Und Nintendo hat durchaus noch ein paar Asse im Ärmel dieses Jahr mit Splatoon 2, Xenoblades Chronicles 2 und Super Mario Odyssey (wobei ich das ästhetisch sehr komisch finde). Die Aussage, dass derzeit 100 Spiele bei 70 Publishern in Entwicklung sind, kommentiere ich hingegen mit einem „Ja, und?“. Das war damals bei der WiiU exakt gleich aber am Ende wurden die meisten davon wieder eingestellt. Wenn Nintendo in dem Punkt wieder auf die Nase fällt, dann müssen sie ihr Konzept mal grundsätzlich überdenken.

Fazit

Ich werde mir keine Nintendo Switch zum Releasetag holen, das dürfte aber niemanden verwundern. Gespannt bin ich aber dennoch, ob Nintendo wirklich aus den Fehlern der WiiU gelernt hat und nun zurück zu alten Stärken findet. Und zumindest was ich bislang gesehen habe, macht mich definitiv mehr an als die WiiU. Außerdem interessieren mich die Entwicklung des Onlineservice und die Third-Party-Spieleversorgung brennend.
Und wie seht ihr das? Steht ihr direkt an Tag 1 im Laden oder findet ihr das neue Gerät total doof?

Nächste Seite »