Steam Link Box (Herstellerbild)

In-Home-Streaming ist grundsätzlich nichts Neues für Valve. Das gibt es auf Steam schon seit 2014. Valve hat damals sogar extra eine Hardwarebox namens Steam Link rausgehauen. Der Erfolg hielt sich leider in Grenzen. Passiert.

Zur Erinnerung: Dank In-Home-Streaming könnt ihr einen Rechner quasi als Spieleserver (Filme gehen natürlich auch) missbrauchen und über andere Rechner und Fernseher innerhalb des gleichen Netzwerks zocken. Keine sonderlich komplizierte Sache tatsächlich. Das Spiel wird einfach direkt oder remote auf dem Hostrechner gestartet (nicht vergessen dort die Boxen auszuschalten!) und dann per Desktop Sharing Vollzugriff gewährt, damit ihr die Steuerung übernehmen könnt. Vorteil ist, dass ihr so das Spiel auf dem Client in besseren Einstellungen zocken könnt als es der Client an sich zulassen würde, da es auf besserer Hardware gestartet wurde.

Ja, es macht aus meiner Sicht wenig Sinn zwischen zwei gleichwertigen Rechnern zu streamen außer man möchte die aktuelle Gaming-Session so kurz wie möglich unterbrechen, denn ja: Ein weiterer Vorteil ist, dass ihr fließend weiterzocken könnt. Quasi vom Hauptrechner aufstehen, den Ersatz in die Hand nehmen und weiter geht’s. Nintendo-Switch-Besitzer machen das vermutlich den ganzen Tag so.

Der einzige Knackpunkt bei sowas ist die benötigte Bandbreite und die Latenz. Macht schließlich keinen Spaß z.B. in GRID Autosport das Lenkrad nach rechts einzuschlagen und dann doch gerade aus in die Band zu fahren, weil das Spiel nicht rechtzeitig reagiert hat. Aber im eigenen Netzwerk sollte das normalerweise selbst über WiFi nicht das große Problem sein.

Die App

Die Steam Link App kommt ohne Firlefanz aus.

Vor fast genau einem Jahr brachte Valve dann die Steam Link-App raus. Wie der Name schon andeutet, erfüllt sie die gleiche Funktion wie die physikalische Steam Link Box aber eben nur in Softwareform. Damit ist es nun nicht mehr nur möglich von Rechner zu Rechner zu streamen, sondern eben auch von Rechner zu Smartphone oder jedes andere beliebige Gerät mit entsprechendem Betriebssystem. Ursprünglich geplant für Android, Raspberry Pi und iOS, verweigerte Apple der App jedoch die Freigabe, weil sie angeblich gegen irgendwelche Regeln verstoßen würde. Ich kam also leider nicht in den Genuss davon. Ich weiß: Jetzt lachen sich wieder alle ins Fäustchen von wegen „Selbst schuld, wenn man völlig überteuerte und total restriktive Hardware benutzt!“.

Aber man soll bekanntlich niemals nie sagen: Seit letzter Woche gibt es Steam Link völlig überraschend für iOS. Angeblich ein Hauptgrund für die jetzige Genehmigung und auch gleichzeitig mein erster Kritikpunkt: Der Zugang zum Steam Store ist über Steam Link nicht möglich (allerdings schon seit Juni 2018). Ist für mich unverständlich, dass das eine Auswirkung gehabt haben soll, schließlich gibt es eine offizielle Steam Mobile App über die ich unter anderem (viel zu viele) Spiele kaufen kann. Aber gut: Mit der Begründung kann man natürlich ebenso sagen, dass das Fehlen der Funktion dann doch nicht ganz so schlimm ist. Und dem stimme ich zu.

Die Nutzung

Als jemand, der zeitweise lieber Faul im Bett liegt statt am Rechner zu sitzen während selbiger im angeschalteten Zustand nutzlos im Nebenraum steht, habe ich mir die Steam Link App selbstverständlich sofort geholt.

DOOM (2016) auf einem Smartphone? Geil!

Die Einrichtung geht fix: Nach dem Start macht er einen Bandbreitentest und sucht im Netzwerk einen Rechner mit offener Steam-Applikation. Sobald er ihn findet, müsst ihr dort einen kleinen Bestätigungscode eingeben und das wars. Ein weiterer Klick und auf dem Host wechselt Steam in den Big Picture Mode und die Übertragung beginnt. Ihr könnt natürlich noch einen Controller verbinden, wenn euch Touch Control nicht so liegt und ein paar Einstellungen wie z.B. die Streaming-Qualität vornehmen. Aber alles in allem ist die App sehr schlank und man ist sofort mittendrin.

Der erste Eindruck

Was mir als erstes aufgefallen ist: Die App zwingt den Host nicht in einen exklusiven Modus. Das hat positive wie negative Seiten. Eine tolle Sache ist, dass z.B. auch die Musik aus Winamp (ja, ich benutze immer noch Winamp :smile: ) direkt übertragen wird. Hier schafft er es sogar (anders als bei den Spielen) die Musik dann nicht mehr über die Boxen des Hosts laufen zu lassen, sondern nur noch über den Client.

Gleichzeitig kann jeder weiterhin am Host rumhantieren wie er möchte und euch damit als Client das Leben schwer machen. Kennt der ein oder andere vielleicht noch von LAN-Parties wo lustige Gesellen euch heimlich Fernsteuerungssoftware auf den Rechner gepackt haben und eure Maus bewegten. Ja, wir waren alle mal „wahnsinnig tolle“ Hacker :wink: . Das hat natürlich den Vorteil, dass ihr im Fehlerfall nicht vom Host ausgeschlossen seid. Aber kann in einem Mehrfamilienhaushalt vor allem mit Kindern sicherlich zur ein oder anderen Unterbrechung führen.

Der dritte Punkt ist technisch gesehen im hauseigenen Netzwerk nicht ganz so schlimm, aber ich kann mir durchaus Situationen vorstellen, wo das etwas doof ist: Ihr habt nicht nur Zugriff auf Steam, sondern technisch gesehen auf den vollständigen Rechner. Steam Link ist im Kern halt einfach nur eine Desktop-Sharing-App. Dazu müsst ihr schlicht den Big Picture Mode beenden und schon seid ihr auf dem Desktop. Die mögliche Spionage- und Sabotagefunktion geht sogar so weit, dass wenn ihr mehrere Monitore habt er immer den Monitor in der App darstellt, auf dem sich gerade die Maus befindet.

Die Bedienung

Große Buttons für große Finger

Da alles andere gesperrt ist, bleibt euch nach der Verbindung nichts anderes übrig als in eure Spielebibliothek zu wechseln. Hier habt ihr alle Funktionen, die ihr erwarten würdet sowie ein paar mehr. So könnt ihr natürlich filtern und suchen aber sogar Spiele auf dem Host deinstallieren und installieren, eure Steam-Downloads managen, Konfigurationen vornehmen und so weiter. Nur eben weder neue Spiele noch DLCs kaufen. Mehr gibt es dazu nicht zu sagen. Es ist einfach Steams Big Picture Mode. Er funktioniert und man kommt relativ zügig zum Starten des Wunschspiels. Die Bedienung wurde dazu nicht grundsätzlich verändert.

Steam Link stellt euch sowohl für die Navigation im Big Picture Mode als auch in den Spielen selbst drei Bedienarten zur Verfügung: Gamepad, Maus oder eine Kombination aus beidem. Ihr könnt jederzeit per Knopfdruck zwischen jedem Modus wechseln. Außerdem steht euch auf Knopfdruck immer eine Tastatur zur Verfügung. Ihr müsst also nicht zwingend per Gamepad irgendwelche langen Eingaben tätigen, um z.B. ein Spiel zu suchen. Alle Eingabearten haben ein Standardlayout, welches ihr aber relativ frei konfigurieren könnt.

Sind euch beispielsweise wie mir (dicke Wurstfinger!) die Gamepad-Buttons zu klein, könnt ihr sie einfach größer ziehen. Fehlen euch Buttons (z.B. eine 8. Maustaste – ja, ihr lest richtig), könnt ihr sie einfach auf den Bildschirm ziehen. Er merkt sich diese Einstellung dann auch – allerdings anscheinend nicht pro Spiel, sondern nur grundsätzlich. Das ist insofern ungünstig, da man natürlich je nach Titel mitunter mehr oder weniger Buttons braucht und zumindest auf einem Smartphone ist der verfügbare Platz auf dem Bildschirm jetzt nicht ganz so groß.

Die Gaming-Experience™

Endlossrunner gehen immer.

Aber kommen wir doch endlich mal zum Wesentlichen: Das Spielen. Funktioniert es und ist es praktikabel? Die Antwort ist: Ja, es funktioniert aber ob es praktikabel ist hängt vom gewählten Spiel, euren Bedienungsoptionen sowie eurer verfügbaren Bandbreite ab. Je mehr das Netz belastet wird, desto geringer wird selbstverständlich die Übertragungsqualität und darunter leidet nicht nur die Darstellung, sondern – viel wichtiger – auch die Latenz. Im Schlafzimmer hatte ich jedoch keine Probleme in der Hinsicht. Selbst etwas hektischere Titel wie Audiosurf 2 gingen einwandfrei von der Hand. Und in allen anderen getesteten Titeln hatte ich ebenso wenig das Gefühl, dass meine Eingaben irgendwo im Äther verschwinden wurden.

Andererseits ist es eben nur bedingt sinnvoll DOOM (2016) mit Touch Controls auf einem Minibildschirm zu zocken. Ja, es geht natürlich prinzipiell und es ist grundsätzlich eine saugeile Sache so einen anspruchsvollen Titel auf dem Smartphone zu zocken. Aber zumindest ich will das definitiv nicht längere Zeit tun. Da gibt es bessere Kandidaten wie das bereits erwähnte Audiosurf 2 oder TRON RUN/r. Selbst Crypt of the NecroDancer hat anders als The Binding of Issac: Rebirth ganz gut funktioniert. Bei digitalen Brettspielen wie Talisman: Digital Edition ist hingegen die Einschränkung, dass ihr sehr oft manuell hinein zoomen müsst, um was sehen zu können. Insofern ginge sogar ein Crusader Kings II aber auch hier überschreiten wir aus meiner Sicht die Grenze der Praktikabilität. Mit angeschlossenem Controller kann ich mir hingegen ein Beat ‚em up wie BlazBlue: Calamity Trigger ganz gut vorstellen. Ohne habe ich es jedoch nur grad so das erste Level von Ragnas Kampagne geschafft.

Einen Visual Novel im Bett erleben? Perfekt!

Perfekt ist das In-House-Streaming auf mein iPhone 6 Plus hingegen für Visual Novels muss ich sagen. Ich weiß, ist keine Überraschung wenn man sich den App Store so anschaut aber egal. Man muss keine speziellen Bedienlayouts definieren (normaler Mausmodus reicht), die benötigte Bandbreite ist übersichtlich, der Text ist gut zu lesen, die Bilder kommen weiterhin zur Geltung und ich kriege keinen Krampf in den Fingern vom ständigen Herumgeschiebe auf dem Bildschirm. Das wird vermutlich dann auch erst einmal mein Haupteinsatzfall für Steam Link sein. Hab‘ ja mittlerweile einige (ja, nicht nur jugendfreie) Spiele aus diesem Genre, die ich endlich mal erleben möchte. Juniper’s Knot habe ich beispielsweise am Wochenende beendet (dauert nur 60 Minuten, ist eine absolute Empfehlung und kostenlos!) und mit Dysfunctional Systems: Learning to Manage Chaos angefangen.

Fazit

Aus meiner Sicht hat Valve mit der Steam Link App mal wieder was Anständiges abgeliefert. Ja, der Nutzen ist abhängig davon welches Gerät und welche Art der Bedienung euch zur Verfügung steht und welches Spiel ihr spielen wollt. Aber das ändert nicht daran, dass es echt praktisch ist jetzt auch mit mobileren Geräten als nur Laptops überall und unterwegs (solange das eigene Netzwerk in Reichweite ist) auf seine komplette Steambibliothek zugreifen und zocken zu können. Musste man beispielsweise früher wegen dem Ruf der Natur die Spielesession unterbrechen, kann man direkt das Smartphone anwerfen und auf dem Klo weiterzocken. Was leben wir doch in einer fantastischen Welt.

In diesem Sinne: Bis Montag!

Die Synology DS218J (noch leer).

Die Vorstellung einen eigenen Server Zuhause stehen zu haben fand ich eigentlich schon immer schick. Ganz früher lief Killer’s World sogar mal einige Zeit dank Samba Server auf meinem damaligen Hauptrechner. Aber auch wenn ich über die Jahre immer mal wieder mit dem Kauf eines Network Attached Storage (NAS) geliebäugelt habe: Es gab einfach keinen Grund für mich einen zu besitzen. Die Webseite will ich heutzutage definitiv nicht bei mir hosten, die Anzahl der Endgeräte war äußerst überschaubar und die Notwendigkeit auf meine Daten selbst innerhalb des Netzwerks zuzugreifen war nur selten gegeben. Und wenn ich doch mal was mit jemand anderes austauschen wollte, konnte ich entweder die externe Festplatte einfach mitnehmen oder kurz den BulletProof FTP Server anschmeißen.

Mit zwei Personen im Haushalt sieht die Sache natürlich schon ganz anders aus. Lysanda will beim Basteln ihre heruntergeladenen Gesundsheitsvorträge auf dem Handy anhören/ansehen. Ich würde beim Wäsche aufhängen im Keller auf dem Handy gerne mehr hören als nur meine doch immer noch überschaubaren Bandcamp-Einkäufe. Auf der Couch wäre es ebenso praktisch digital vorliegende Filme, Fotos und Musik direkt über den Fernseher abspielen zu lassen statt immer den Laptop/eine externe Festplatte anschließen zu müssen. Und den Vorteil im Bett (und auf dem Klo) Zugriff auf alles zu haben, brauche ich sicherlich nicht separat zu erwähnen. Natürlich kann man die Daten auf jedes Endgerät ausspielen oder über externe Festplatten anhängen. Aber außer, dass man etwas Datensicherheit gewinnt (sie sind ja dann doppelt und dreifach vorhanden), ist das in Sachen Komfort einfach nur Mist. Ich will jetzt Lied x,y,z hören und genau das habe ich gerade nicht auf dem jeweiligen Endgerät drauf. Alles Gründe, warum wir entsprechend schon seit dem Hauskauf einen NAS auf unserer Einkaufsliste hatten aber wie so oft kam immer etwas Wichtigeres dazwischen. So ein NAS ist schließlich nichts so Essentielles wie Heizöl und kostet trotzdem sein Geld.

Das Zünglein an der Waage war nun mein Rechnerupgrade und die Befürchtung, dass meine alte externe Platte ihr Lebensende schneller als geplant erreichen würde. Bevor ich mir aber eine neue externe Festplatte nur für meine Daten kaufe, machte es mehr Sinn etwas tiefer in die Tasche zu greifen und uns endlich einen NAS anzuschaffen. Nun steht entsprechend neben der AVM FRITZ!Box 7490 ein schicker weißer Kasten.

Das Gerät

Die HDDs sind drin.

Die Wahl fiel auf eine Synology DiskStation 218j. Synology hat im Bereich der NAS einen sehr guten Ruf und ihre Sachen sind angeblich vor allem für Einsteiger hervorragend geeignet. Und warum die DS218j statt der DS218play? Nun, hauptsächlich wegen dem preislichen Unterschied. Ja, die play hat einen 64bit QuadCore-Prozessor mit 1,4Ghz sowie 1GB DDR4-RAM im Vergleich zum 32bit DualCore-Prozessor mit 1,3Ghz und 512MB DDR3-RAM der „j“-Variante. Leitungsmäßig macht das garantiert einen bemerkbaren Unterschied (für die Erzeugung der Vorschauansichten von ~150.000 Bildern hat er z.B. mehrere Tage gebraucht). Aber aktuell sowie in der mittelfristigen Zukunft ist der NAS für uns einfach nur ein Datengrab auf das wir mit diversen Endgeräten zugreifen wollen. Da brauchen wir aus meiner Sicht (und der bisherigen Erfahrung) die zusätzliche Power nicht. Es laufen eh nicht viele Anwendungen drauf und 4K-Video-Transkodierung ist absolut kein Thema für uns.

In den NAS haben wir dann zwei WD Red mit je 4TB verbaut. Auch wieder ein Kompromiss aus Preis und Leistung, da die 6TB fast das Doppelte kostet und wir zum Verfassungszeitpunkt mit 2TB auskommen (genauer gesagt 1,83TB). Und Western Digital Red auch wieder wegen ihrem guten Ruf langlebige Serverfestplatten zu sein. Der Einbau der Festplatten war ein Klacks (Deckel auf, reinschieben, festschrauben, Deckel zu) und die Inbetriebnahme der Hardware quasi innerhalb von wenigen Minuten erledigt. Da das Ding im Schrank steht (keine Angst: ohne Rückwand und nicht bündig mit der Wand – also Luft kann zirkulieren), kann ich die Lautstärke nicht wirklich beurteilen. Aber es gibt vier Lüfterstufen und Standardmäßig läuft der Lüfter im Silent-Modus (die zweitniedrigste). Ich habe ihn eine Stufe höher auf den Kühlmodus gestellt, höre ihn bei normaler Last nur wenn der Raum völlig still ist (weil der Schrank etwas vibriert) und habe im Ergebnis 36-40°C (derzeit sogar nur 28-30°C bei 21°C Außentemperatur und 0% Last), was für eine HDD im grünen Bereich ist. Und bei besagtem Mehr-Tages-Bilder-Indexieren war trotzdem bei 48°C Gehäusetemperatur Schluss. Perfekt!

Betriebsmodus

Beide Platten laufen im Synology Hybrid RAID-Modus, was bei zwei gleich großen Festplatten nach meinem Verständnis nichts anders als RAID 1 (Mirroring) bedeutet. Das war keine bewusste Entscheidung, denn ich habe bei der Ersteinrichtung schlicht nicht aufgepasst. Aber im Ergebnis ist es egal. Ein RAID ist bekanntlich kein echtes Backup (fackelt der NAS ab, ist eh alles vorbei), es geht also nur um Datensicherheit bei Festplattenausfall durch Redundanz und da reicht SHR aus meiner Sicht völlig aus.

Die Oberfläche des DSM6.2

Ich erwarte zwar, dass es vermutlich ein größeres Unterfangen sein wird, wenn ich dann doch mal die Festplatten auswechseln muss. Aber Synology wirbt tatsächlich damit, dass es zumindest bei gleichen oder größeren HDDs im SHR-Modus einfach gehen würde (eine alte raus, eine neue rein -> starten, Daten werden geklont, 2. HDD raus und neue rein -> Daten werden wieder geklont). Aber vollkommen zukunftssicher kann man sowas sicherlich nie aufbauen.

Die Software

Da ein Server nichts anderes ist als ein Computer, braucht auch er ein Betriebssystem, um mit den Festplatten überhaupt was anfangen zu können. Deswegen gibt es so Sachen wie Windows Server 2016. Unser NAS ist da nicht anders und es gäbe sicherlich die Möglichkeit, dass ich mir mein eigenes Unix-Sytsem oder so drauf packe (kann Rondrer vermutlich mehr zu sagen). Aber Synology installiert auf seinen NAS im Standard ein Linux-basiertes OS mit dem sperrigen Namen Disk Station Manager – aktuell in der Version 6.2. Dass es ein Linux ist, merkt man dem Programm wie ich finde aber überhaupt nicht an. Der erste Aufschlag (Aufruf der Weboberfläche mit anschließender Ersteinrichtung des DSM) dauerte rund 10 Minuten und schon konnte ich mit dem Einrichten loslegen.

Die grafische Oberfläche des DSM ist schick und relativ einfach verständlich. Die eine oder andere Funktion versteckt sich zwar hinter einem etwas nichtssagenden Namen oder mehreren Menüs (warum sehe ich z.B. die Gehäusetemperatur nur im Info-Center und auch nur als Mouse-Over statt im Menüpunkt „Hardware & Energie“?). Aber grundsätzlich geht die Handhabung selbst für Windows-n00bs wirklich sehr einfach von der Hand. Zudem hat jeder Nutzer die Möglichkeit sich seine Desktop-Ansicht umfangreich selbst zu gestalten. Und die integrierte Hilfe mit ihren zahlreichen Schritt-für-Schritt-Anleitungen ist eine richtig große Einsteigerunterstützung (bin ja einer).

Das Doing

Das Paket-Zentrum

Soweit so gut. Ein Betriebssystem allein bringt aber nichts. Nutzer, Daten und zahlreiche Programme machen erst das Ding rund. Wobei letzteres nicht so ganz stimmt, wie ich mittlerweile festgestellt habe. Aber fangen wir von vorne an: Im DSM gibt es ein Paket-Zentrum über das ihr zahlreiche Anwendungen von Synology und ausgewählten Drittanbietern direkt installieren könnt. Das ist übersichtlich gestaltet und bietet auch (sehr kurze) Beschreibungen und Screenshots. Manuelle Installationen von nicht dargestellten Paketen sind zusätzlich möglich. Laut Anleitung muss für jede Medienart ein eigenes Programm installiert sein (z.B. die Video Station für Video), um diese dann auf den diversen Endgeräten nutzen zu können (inkl. entsprechenden Apps auf besagtem Endgerät). Auch so Sachen wie PDF Viewer oder Office klangen im ersten Moment sinnvoll, um bestimmte Dateien direkt im Browser auf dem Server zu öffnen und zu bearbeiten. Mittlerweile habe ich gelernt: In unserem Fall alles totaler Blödsinn und nur Ressourcenverschwendung. Entsprechend sind nur noch die File Station (der Windows Explorer von DSM), der Medienserver (zum Streamen von Medieninhalten), Universal Search (Suchfunktion für den NAS) und der Synology-Anwendungsdienst (weil ich noch nicht ganz verstanden habe, was der eigentlich macht) aktiviert. Im DSM selbst wollen wir ja nicht wirklich arbeiten, sondern nur verwalten.

Im VLC (iOS) ist alles da.

Der NAS war stattdessen nach der Ersteinrichtung im LAN für alle Geräte sofort sicht- und vor allem direkt abrufbar. Sprich ich brauch‘ gar kein separates Programm auf dem Samsung Smart-TV. Stattdessen wähl‘ ich den NAS aus der Liste der Quellen aus, navigiere durch meine Ordner und öffne ohne Probleme alle Arten von Mediendateien. Und statt zig Apps auf dem Smartphone habe ich nur DS File (der Synology-File-Browser für iOS, Android und Windows Phone) sowie den VLC Player draufgepackt. Mit dem VLC kann ich mich genauso gut mit dem NAS verbinden und über die Ordnerstruktur die Mediendateien abspielen oder ihn sogar direkt aus DS File ansteuern. DS File erlaubt es außerdem Dateien vom Smartphone direkt auf den NAS zu schieben – vor allem für Fotos natürlich praktisch.

Einfacher Zugriff

Am Desktoprechner und den Laptops heißt es einfach den NAS als Netzlaufwerk verbinden und schon ist die Sache erledigt und ihr könnt ihn wie eine eingebaute HDD nutzen…okay, eine Hürde gab es: Auf dem NAS sind sogenannte „Gemeinsame Ordner“ vorhanden (bzw. ihr könnt sie anlegen). Ich dachte zuerst, dass das einfach die normalen Ordner sind, die ich erzeuge und befülle. Aber nein, die werden von Windows als einzelne Laufwerke angesehen. Und da es mir absolut zu dämlich ist für jeden Überordner ein Netzlaufwerk zu verbinden, hatte Rondrer die passende Idee für mich: Einfach einen einzigen gemeinsamen Ordner anlegen, den als Netzlaufwerk einbinden und darunter erst die eigentliche Ordnerstruktur packen. Perfekt. Und das alles ist natürlich auch im WAN möglich.

Wenn ihr keine eigene Domain habt und euch die IP nicht merken wollt, gibt es bei Synology einen optionalen QuickConnect-Service. Dieser erzeugt auf Basis eures Servernamens eine von überall aufrufbare URL zur Loginseite. Wie sicher das ist, kann ich natürlich nicht beurteilen (zumindest https kann aktiviert werden). Aber ihr müsst selbst im Minimalmodus einige Ports am Router dafür öffnen. Rondrer lässt den NAS deshalb erst gar nicht ins Internet und verbindet sich stattdessen über eine VPN-Verbindung in sein heimisches Netzwerk, um dann darüber auf den NAS zuzugreifen. Sicherer dürfte es nicht gehen, wenn ihr immer noch von draußen drauf zugreifen wollt.

Der Rest

Nach der grundsätzlichen Konfiguration fehlten noch die Daten und die User, schließlich soll nicht jeder einfach mit dem Adminaccount rumrennen. Die Datenübertragung war logischerweise dank Netzlaufwerk keine Besonderheit und nur durch die Schnelligkeit unserer HDDs beschränkt. Mit den 1,83TB dürften wir trotzdem maximal einen Tag beschäftigt gewesen sein – mehr Zeit ging für das Aussortieren und Einsortieren drauf (hatten ja so einige doppelte Daten).

Alles A-Okay!

Das grundsätzliche Einrichten der User war auch soweit kein Akt. Ihr könnt Gruppen mit Berechtigungen definieren und dann einzelne User anlegen und diesen zuordnen. Natürlich geht es genauso jedem User die Ordnerberechtigungen manuell zuzuteilen. Es gab nur zwei Schwierigkeiten: Wenn die Photo Station aktiv ist, nimmt er sich die Berechtigung heraus allein über die Zugänge des Foto-Ordners zu bestimmen (selbst der Admin kann in der Systemsteuerung dann nichts mehr machen). Total dämlich. Aber das Ding habe ich ja dann eh deaktiviert. Das zweite Problem war, dass die Ordnerberechtigungen für Lysanda trotz der Gruppendefinition nicht richtig gesetzt wurden. Sprich sie konnte auf Ordner, die ich frisch angelegt habe nicht zugreifen. Mir fiel nichts anderes ein, als einfach nochmal die Berechtigungen des Hauptordners in die Unterordner und Dateien zu propagieren. Seitdem funktionierts. Komisch aber egal :smile: .

Fazit

Und damit fällt mir nichts mehr ein, was ich euch noch erzählen könnte zu unserem NAS. Zum Verfassungspunkt beträgt seine Laufzeit bereits über 14 Tage und es gab während unserer täglichen Nutzung noch nichts, was wir vermisst hätten oder ein Problem gewesen wäre. Stattdessen schnurrt er in der Kommode leise vor sich hin und stellt uns zu jeder Zeit und auf jedem Gerät alle unsere Dateien ohne gefühlte Geschwindigkeitseinbußen zur freien Nutzung bereit. So soll’s in unserem Fall sein. Natürlich kann das Ding noch viel, viel mehr (es ist schließlich ein vollwertiger Server). Und vielleicht kommen auch bei uns noch weitere Anwendungsfälle hinzu. Aber schon in seiner Funktion als Datengrab sind wir bereits vollkommen zufrieden damit die 470 Euro investiert zu haben. Entsprechend können wir den Synology DS218J  uneingeschränkt für alle empfehlen, die einen einfachen NAS suchen und gleichzeitig mehr wollen als nur eine externe HDD am Router ranzuhängen.

Die neuen Innereien

Fast genau fünf Jahre ist es her, da hatte ich mir kurz vor meinem Umzug nach Eckental noch ein großes Rechnerupgrade gegönnt. Lustigerweise waren es davor auch fünf Jahre seit dem letzten Upgrade. Scheint sich irgendwie als neuer Rhythmus einzuspielen, denn ich habe wieder zugeschlagen! War es der richtige Zeitpunkt („Coffee Lake Refresh kommt doch demnächst, du Depp!„)? Vermutlich nicht aber gibt es beim Kauf von PC-Hardware überhaupt jemals einen richtigen Zeitpunkt? Eben.

Über eine neue Grafikkarte hatte ich ja schon länger nachgedacht aber zum einen waren mir die Preise lange viel zu hoch (scheiß Cryptomining!) und zum anderen war ich mir nicht sicher, ob das wirklich ausreicht oder nicht doch meine CPU ein Stück weit schon ein Flaschenhals ist. Nach langem hin und her überlegen habe ich dann die selbstverständlich einzig richtige Entscheidung getroffen: Einfach noch mehr Geld ausgeben und ein „komplettes“ Upgrade durchführen.

Das Ergebnis

Normalerweise hätte ich mich für die Zusammenstellung ausführlich mit unseren Hardwareexperten Azzkickr und Dod unterhalten. Aber erster erholt sich grad von einer Operation und letzterer ist aktuell mehr in Sachen VR unterwegs (er hat VR-Legion gegründet), entsprechend habe ich mich dagegen entschieden sie zu belästigen. Ich hoffe, ich werde es nicht bereuen :wink: . Stattdessen habe ich mich auf die Expertise der Community von Computerbase verlassen. Dort im Forum gibt es nämlich einen Thread namens „Der Ideale Gaming-PC“ mit preislich sortieren Konfigurationsvorschlägen. Die habe ich als Basis genutzt, um die für mich beste Variante aus Zukunftssicher, preislich vertretbar und guter Leistung zu finden. Das Ergebnis seht ihr in meiner Hardwareübersicht aber hier in Kurz:

Alter Computer Neuer Computer
(2013-2018) (2018)
Prozessor: Intel Core i7-4770 (Haswell) Intel Core i5-8400 (Coffee Lake)
Mainboard: Asus Z87-A (C2) MSI Z370 PC Pro
Speicher: Kingston, 2×4 GB, DDR 3, 1600 Mhz, CL9
Corsair, 2×4 GB, DDR 3, 1600 Mhz, CL9
G.Skill Aegis, 2×8 GB, DDR4, 3000 MHz, CL16
Grafikkarte: Palit GeForce GTX 780 Super JetStream Asus GeForce GTX 1070 Ti Cerberus Advanced
Soundkarte: Creative Soundblaster X-Fi Titanium Fatal1ty Professional Series Creative Soundblaster X-Fi Titanium Fatal1ty Professional Series
SSD: Samsung SSD 840 Evo 250 GB Samsung SSD 840 Evo 250 GB
HDD: WD Desktop Black 4TB WD Desktop Black 4TB
Seagate Barracuda XT SATA III 2TB Seagate Barracuda XT SATA III 2TB
Seagate Barracuda 7200.12 1TB Seagate Barracuda 7200.12 1TB
BluRay: Asus BW-16D1HT Asus BW-16D1HT
Kühler: Scythe Ninja 3 Scythe Mugen 5 Rev.B
Gehäuse: CoolerMaster COSMOS 1000 CoolerMaster COSMOS 1000
Netzteil: CoolerMaster V650 CoolerMaster V650

Macht summa summarum 924 Euro (inkl. Versand und einem Displayport auf DVI-Adapterkabel) an neuer Technik.

Technisch gesehen stimmt die Spalte „Alter Computer“ nicht mit dem überein, was ich tatsächlich anno 2013 zusammengeschraubt hatte. In der Zwischenzeit wurden schon ein paar Teile gewechselt (Netzteil, Laufwerke) und ergänzt (mehr RAM) aber es macht ja keinen Sinn hier etwas aufzulisten, was gar nicht mehr unter meinem Tisch stand. Wenn jemand Interesse an den alten Teilen hat: Gerne auf mich zukommen. Ansonsten landen sie im Laufe der Woche auf eBay.

Die Gedankengänge

Ein Teil der neuen Komponenten

Aber kommen wir zu den Komponenten: Die Wahl fiel auf einen Intel Core i5-8400 statt eines i7-8700 (das aktuelle Maximum) weil er zum einen 120 Euro billiger ist und zum anderen, weil das Leistungsminus lt. den Tests mit um die 10-15% für mich (bin ja nicht mehr Day-1-Spieler) vernachlässigbar erscheint. Andersherum war es beim Mainboard, wo ich die 30-40 Euro mehr in das MSI Z370 PC Pro statt in bspw. ein Asrock-Modell investiert habe, um mehr Anschlüsse sowie Luft für ein zukünftiges CPU- (z.B. einen i7-9700 oder so) oder RAM-Upgrade (geht bis 64 GB) oder vielleicht mal ne M2 zu haben.

In den Arbeitsspeicher ging hingegen nicht viel Gehirnschmalz. Es ist der, den das Computerbase-Forum empfiehlt. Ich hatte zwar kurz überlegt, vielleicht gleich 32 GB reinzupacken aber da sind mir die Preise aktuell zu hoch und gebrauchen kann es vermutlich allerhöchstens Star Citizen. Und für den Kühler habe ich mich hingegen wieder für Scythe entschieden, weil der Ninja 3 sehr gute Dienste geleistet hat und der Mugen 5 nicht nur extrem gute Bewertungen hat, sondern aufgrund seiner versetzten Bauform nicht ganz so dominant ist (und über den RAM hängt).

Bleibt noch die Grafikkarte: Ich hätte wirklich gerne wieder eine Palit in der Super Jetstream-Variante genommen. Hatte trotz der damaligen Startschwierigkeiten gute Erfahrungen damit. Aber selbst auf dem Gebrauchtmarkt bezahlt man derzeit für eine GTX 1070 Super Jetstream schon fast so viel wie ich jetzt für die Asus 1070 Ti bezahlt habe. Die 1070 TI Super Jetstream ist dann nochmal teurer. Und dafür ist der Leistungsunterschied aus meiner Sicht nicht groß genug. Entsprechend fiel die Wahl erneut auf die Computerbase-Empfehlung. Abseits der Kühllösung unterscheiden sich die meisten Grafikkarten ja heutzutage gefühlt eh nicht mehr großartig und die ASUS wirbt gleichzeitig damit, dass sie sehr langlebig wäre.

Die ersten Erfahrungen

Zum Einbau an sich gibt es nichts Besonderes zu berichten. Altes Zeugs raus, neues Zeugs rein (das neue Mainboard ist wieder breiter als das alte) und alles schön verkabelt. Netterweise konnte ich dabei ein Stromkabel rausschmeißen, weil das MSI-Board genug Lüfteranschlüsse hat (alt war einer direkt ans Netzteil angeschlossen). Unschön ist hingegen, dass die Grafikkarte über die SATA-Anschlüsse ragt. Gut, das ist tatsächlich relativ normal und normalerweise kein Problem, aber warum auch immer sind SATA-Port 3 und 4 nicht zur Seite ausgerichtet, sondern nach oben. Das Ergebnis ist, dass SATA-Port 3 quasi gar nicht nutzbar (Stecker passt wegen der Plastikhülle der Grafikkarte nicht mehr rein) und Port 4 hingegen nur mit dem beigelegten und wie immer viel zu kurzen SATA-Kabel mit Eck-Stecker. Zum Glück brauche ich aktuell nur fünf Stück (vier für die Festplatten, einen für das optische Laufwerk). Frag‘ mich, wer da nicht mitgedacht hat, schließlich sind 2-Slot-Grafikkarten mit dickem Kühlsystem nicht unbedingt was total Neues.

Auch wieder rausgefallen sind meine Front-USB-Anschlüsse. Bei meinem alten ASUS-Board konnte ich zumindest zwei der vier anschließen. Theoretisch hat das MSI sogar noch zwei weitere interne USB-Schnittstellen neben den zweien, die ich für meine zusätzlichen hintere Ergänzung nutze. „Leider“ sind die komplett auf USB3 ausgelegt und damit nicht kompatibel (weil mehr Pins). Ist etwas schade, aber das sind halt so die Nachteile, wenn man seit mittlerweile 10 Jahren das gleiche Gehäuse nutzt. Kommt der USB-Hub eben wieder mehr zum Einsatz.

Es lebt und funzt!

Der erste Start gelang dann ohne Probleme (*yay* alle Kabel des Frontpanels beim ersten Versuch richtig eingesetzt!). Im BIOS wurde alles erkannt was da sein sollte und ich konnte XMP aktivieren und damit meinen RAM auf die 3.000 Mhz boosten, die er haben soll (ohne sind es nur 2.100 Mhz). Auch Windows lief ohne Murren an, erkannte die neuen Gerätschaften alle und richtete sie fleißig ein. Anfangs fehlte die externe Festplatte aber ich hatte scheinbar vergessen sie vor dem Hardwarewechsel auszuschalten. Aus- und Wiedereinschalten löste das Problem entsprechend zügig. Dann stimmte zwar der Laufwerksbuchstabe nicht (das optische Laufwerk hatte sich vorgedrängelt), womit Windows erstmal nicht seine bekannten Daten finden konnte (auf der Externen liegen z.B. die Eigenen Dateien). Aber das war logischerweise genauso wenig etwas, was nicht zügig behoben werden konnte.

Die Windows-Aktivierung zickte hingegen anfangs rum. Ihr wisst ja: Wenn ihr bestimmte Hardware austauscht, verlangt Windows eine erneute Aktivierung quasi als Schutz vor Raubkopierern. In der Theorie sollte das mittlerweile ein Klacks sein, denn eure Lizenz ist mit eurem Microsoft-Konto verbunden. Irgendwie behauptete er aber, dass der Server nicht erreichbar wäre und ich es später nochmal versuchen sollte. Das war mir aber zu blöd, also habe ich einfach meinen alten Windows-8-Produktkey (den ich in das kostenlose Windows 10-Upgrade umgewandelt hatte) nochmal eingegeben und Schwups: Aktiviert!

Die Problemzonen

Es wäre natürlich zu einfach, wenn tatsächlich alles so funktionieren würde wie man es sich erhofft. Stattdessen habe ich zum Verfassungszeitpunkt noch folgende Problemstellen:

  • Das Blu-ray-Laufwerk will gar nicht. Im BIOS war es da, habe ich aber in Windows ein Medium eingelegt, lief es kurz an, verschwand dann aber komplett und war beim Neustart auch im BIOS nicht mehr vorhanden. Stecker ziehen und neu stecken, dann wurde es wiedererkannt und das Spielchen begann von vorne. Mittlerweile funktioniert selbst das nicht mehr. Ich habe weder einen Grund noch eine Lösung dafür (es hängt an besagtem SATA-Port 4). Im Internet gibt es Berichte, dass Windows irgendeine Funktion hätte bei Nichtbenutzen das Laufwerk schlafen zu legen. Aber dann wird es zumindest noch angezeigt. Hier ist es einfach komplett weg. Ein Rätsel. Zum Glück habe ich noch ein externe Blu-ray-Laufwerk. Ist also nicht das ganz große Thema, wenn es hart auf hart kommt.

Folgendes Problem habe ich auf meine eigene Art und Weise schon gelöst:

  • Beim Ausschalten des PCs fährt die externe Festplatte nicht wie gewohnt in den Energiesparmodus runter. Scheinbar hat das MSI standardmäßig selbst im ausgeschalteten Zustand noch Strom auf den USB-Anschlüssen oder Windows schickt kein entsprechendes „ich bin aus“-Signal. Eine direkte Einstellung dafür habe ich im BIOS nicht gefunden („Wake on“ ist deaktiviert). Momentan stehe ich auf dem Schlauch. Klar, kann ich sie manuell ausschalten (und tue das auch trotz Energiesparmodus). Aber wenn sie nicht vorher im Energiesparmodus ist, habe ich immer etwas Angst, dass sie doch mal einen Schlag wegkriegt dadurch.
    Lösung: Wir hatten schon länger überlegt einen NAS zu kaufen. Das Vorhaben haben wir nun vorgezogen (mehr dazu vermutlich kommenden Montag). Dadurch ist ein großer Teil der Daten auf der externen Festplatte auf den NAS gewandert und für das, was noch übrig ist, habe ich jetzt eine WD Elements mit 2TB von Lysanda (die Daten, die da vorher drauf waren, sind nun auch auf dem NAS). Vorteil: Sie ist viel kompakter als die Buffalo DriveStation, die ich bis jetzt hatte – und unterstützt sogar USB3.

Und folgendes Problem muss ich leider als gelöst ansehen:

  • Microsoft Office 2016 mag meinen Key nicht mehr. Wie Windows, reagiert auch Office auf eine Hardwareänderung mit der Bitte um Reaktivierung. Theoretisch ist es hier das gleiche Spiel: Im Microsoft-Konto ist die Lizenz hinterlegt und er kann sie wieder laden. Blöd nur, dass meinem Konto keine Lizenz mehr zugeordnet ist? Und beim erneuten Eingeben des Keys bekomme ich ein „Kennsch ned, magsch ned“? Wad?! Ein Chat mit der Microsoft-Support-Hotline offenbart mir, dass es sich um einen ungültigen Key handelt, der mittlerweile gesperrt wurde. Also vermutlich aus einem Volumenlizenzen-Bestand oder so stammt. Na klasse. Da denkt man, man kauft bei einem respektablen Händler und dann sowas. Ich habe natürlich direkt mysoftware angeschrieben, bei denen ich 2015 die Lizenz gekauft hatte aber ein Ersatz wurde mir mit dem Hinweis auf die abgelaufene Gewährleistungsfrist verweigert. Ich würde sagen: Bei diesem Shop solltet ihr nicht kaufen. Das hat man davon, wenn man sich vom billigen Preis blenden lässt.
    Lösung: Neuen Key kaufen, Office 2013 re-installieren oder endlich auf OpenOffice umsteigen.

Die synthetischen Bechnmarks

Jetzt aber genug vom allgemeinen Geblubber. Der Rechner funktioniert im Großen und Ganzen, schnurrt wie eine Katze (oder sitzt Maya schon wieder dahinter?) und ist betriebsbereit. Zeit also, ihn durch den Parkour zu schicken. Zuerst natürlich die ePenis-Sachen: CineBench, 3DMark (Demo) und FurMark. Catzilla funktioniert seit irgendeinem Windows Update nicht mehr (und keinen von den Entwicklern scheints zu kümmern) und kam deshalb nicht zum Einsatz.

 

Die Ergebnisse sind aus meiner Sicht wie erwartet. Anders als 2013 in 3DMark 2011 ist mein 3DMark-Score in Time Spy (die anderen hab‘ ich aber auch mal gemacht) zwar „nur“ besser als 68% aller anderen (damals 89%) aber ich habe ja im Vergleich zu damals eine CPU eine Stufe unter den derzeit besten eingebaut. Und bei FurMark habe ich auch ein Ergebnis auf dem Niveau anderer Leute mit gleicher Grafikkarte. Wenn ihr also nichts anderes sagt, dann mache ich an das Thema einen Haken und sage: Passt alles so und ist im grünen Bereich für mein System.

Die Spielebenchmarks

Das Benchmarkergebnis von GRID Autosport

Eine Stufe über den synthetischen Benchmarks stehen die integrierten Benchmarks in Spielen. Eine praktische (aber sicherlich nicht 100% vollständige) Liste findet man unter anderem hier. Da ich zwar viele der genannten Titel habe aber nicht extra nur wegen dem Benchmark sie installieren wollte, habe ich mal Warhammer 40.000: Dawn of War III durchlaufen lassen, welches mir nun mit 136,18/48,32/80,80fps (max/min/avg) fantastische Ergebnisse auf vollen Details liefert. GRID Autosport lief auch mit dem alten Rechner bereits ganz gut, aber nun grafisch voll aufgedreht (natürlich inkl. 2. Monitor) komme ich trotzdem auf saubere 123,22/65,21/94,99fps. Anspruchsvoller ist da schon Rainbow Six: Siege mit 48,6/30,7/43,1. Hier musste ich deshalb ein Detail runterschrauben und zwar die Ambient Occlusion nur auf SSBO statt auf HBAO+. Letzteres hat im Maximum und Average zwar nur ein paar Frames pro Sekunde gekostet, aber das Minimum ist total eingesackt auf um die 9 FPS. Fürs echte Spielen sollte ich aber vermutlich trotzdem das ein oder andere Detail noch weiter absenken.

Als nächstes war Mittelerde: Schatten über Mordor dran. Damit hatte der alte Rechner schon ein wenig zu kämpfen, sollte aber nun mit 158,77/59,00/88,04 bei noch höheren Grafikeinstellungen definitiv Vergangenheit sein. Ähnlich sah auch Thief aus mit 114,4/71,1/86,0 sowie Sleeping Dogs mit 116,8/47,4/83,1. Ja, das Spiel ist von 2012, hat extrem viele Ecken und Kanten in der Geometrie und saugt trotzdem massiv an der Performance (vor allem beim Fahren). Aber jetzt kann ich es endlich flüssig genießen.

Die eigentliche Praxis

Just Cause 3 (Herstellerbild)

Dass die „Ultra“-Einstellung in Spielen meistens keinen großen grafischen Mehrwert bringt (vor allem im Vergleich zum Leistungsverlust), ist ja nichts Neues. Entsprechend ist es zwar ganz nett, wenn ich die Titel so hochstellen kann und trotzdem meine 60fps kriege (V-Sync & Co. mache ich mittlerweile immer an, wenn es keine Probleme verursacht). Aber es ist absolut kein „Muss“ mehr. Und natürlich gibt es weiterhin Titel, die ich trotz neuer Hardware nicht auf Anschlag drehen kann. Grand Theft Auto V und Wolfenstein: The Old Blood z.B., die zwar nun wesentlich mehr Details erlauben und gleichzeitig flüssiger läufen aber eben immer noch nicht alle Grafikoptionen komplett auf Anschlag. Auch No Man’s Sky ist um Welten besser (solide 60fps statt 20-30fps) doch nur auf gleicher Detailstufe. Da gibt’s übrigens ein absolut empfehlenswertes Video von Digital Foundry zu No Man’s Sky NEXT, in dem die Jungs genau schauen welche Auswirkungen welche Grafikeinstellungen sowohl auf die Optik als auch auf die Leistung haben. Ich zocke derzeit genau auf der Stufe wie im Video.

Ein weiteres Problemkind war bekanntlich Just Cause 3, wo vor allem die physikalischen Effekte meinem alten System das Genick gebrochen hatten. Das gehört nun der Vergangenheit an. Butterweich das Teil und der Titel, den ich tatsächlich bislang am Längsten gespielt habe mit der neuen Hardware unter der Haube (sinnlose Zerstörung geht halt immer). Schade, dass es keinen integrierten Benchmark mehr gibt wie noch in Teil 2. Ich musste allerdings auch hier eine Grafikeinstellung reduzieren. Nicht, weil sie mich großartig Performance kostete. Nein, SMAA_T2X verursachte extremes Ghosting (bei Bewegungen sieht man quasi die Zwischenbilder). Das ist wohl ein bekanntes Problem und die einzige Lösung ist auf FXAA zu reduzieren. Auch zwei Abstürze hatte ich schon aber soweit ich das beurteilen kann, hatte das nichts mit der neuen Hardware zu tun, sondern mit dem Spiel.

Fazit

Was bleibt also zum Abschluss zu sagen? Nun, ich hab‘ noch ein paar kleine Probleme aber nichts, was sich nicht auf irgendeine Art und Weise lösen lassen wird bzw. schon gelöst wurde. Gleichzeitig habe ich aber definitiv wieder „moar pow0r“ unter dem Schreibtisch stehen, die es mir erlaubt meine bislang grenzwertigen Titel, wenn vielleicht auch immer noch nicht in voller Pracht zumindest anständig flüssig zu erleben. Es ist vielleicht nicht der ganz große Sprung (der i7-4770K ist in manchen Benches schneller als der i5-8400) aber wenn der Bedarf besteht, habe ich die Option ohne gleich wieder das Mainboard auszuwechseln zu müssen noch mehr Power reinzustecken. Entsprechend sehe ich das Geld gut investiert und behaupte mal, dass ich damit die nächsten fünf Jahre damit locker überbrückt kriege. Wobei dann vermutlich doch mal ein Gehäuseupgrade notwendig ist…

Und nein, VR ist leider immer noch kein Thema in meinem Haushalt. Bis Montag!

Ein Stapel neuer alter Spiele

„Schon wieder ein Eintrag über Spiele?! Das ist ja DER Wahnsinn! Ich hatte schon befürchtet, der Webmaster sagt uns schon wieder warum wir alle sterben werden oder so…“

Ihr seid aber auch immer so nett zu mir, liebe Besucher. Aber ja, heute geht es tatsächlich schon wieder um Spiele. Sogar um etwas Aktuellere als beim letzten Mal, denn wie im Eintrag erwähnt übergab am Donnerstag der DHL-Bote mal wieder ein Paket Spiele an mich – verschickt von OkaySoft! Richtig erkannt: Die gibt es immer noch und der Service ist weiterhin so hervorragend wie ich ihn in Erinnerung hatte. Haben sogar Anfang des Jahres ihre Seite modernisiert (endlich Filter und eine Bestellübersicht!). Lohnt sich also vorbeizuschauen, nicht nur wenn es wie in meinem Fall um ältere Sachen geht, die mitunter die großen Shops gar nicht mehr haben (oder nur für Sündteuer).

Die Lieferungen

Aus der Packstation habe ich hingegen seit langem mal wieder neue harte Ware geholt. Allerdings nur ein Netzteil (CoolerMaster V650 in der vollmodularen Variante für ca. 115 Euro), weil mein CoolerMaster Real Power M700 nach zehn Jahren irgendwie einen Knacks bekommen hat (vermutlich durch 1-2mal zu viel rausgeflogene Sicherungen) und unter Last sehr, sehr laut geworden ist. Dachte zwar zuerst die Grafikkarte wäre der schuldige, aber bei genauerem Hinhören war es tatsächlich das Netzteil. Garantie gibt es bei CoolerMaster nur bis maximal fünf Jahre deswegen habe ich mir nun ein Neues geholt. Der Rechner ist jetzt nicht nur wieder schön leise: Das neue Netzteil dürfte auch wesentlich effizienter sein als das alte und damit der Stromverbrauch niedriger (vom etwas weiter reduzierten Kabelsalat im Gehäuse ganz zu schweigen). Eigentlich wird es mal wieder Zeit für ein komplettes Rechnerupdate aber die Grafikkartenpreise sind grad absolut unbezahlbar aufgrund der Mining-Problematik und als mittlerweile nur noch Wochenendspieler muss ich Lysanda zustimmen, dass es sowieso einfach keinen großen Sinn macht. Da können wir das Geld für andere Sachen wesentlich besser gebrauchen (z.B. aktuell mal wieder Heizöl, wenn die Preise hoffentlich erneut sinken).

Jetzt wollt ihr aber natürlich ganz dringend erfahren, was ich denn alles an PC-Spielen bei OkaySoft gekauft habe (obwohl ihr es rechts auf dem Bild sicherlich schon gesehen habt). Nun, wie gesagt Call of Duty: Black Ops III und Call of Duty: Infinite Warfare. Sogar beides noch in der Day One Edition (aber ohne Call of Duty 4: Modern Warfare Remastered). Immer ein gutes Zeichen dafür, wie „gut“ sich die Spiele verkauft haben, wenn man so viele Jahre nach Release noch die Erstauflage bekommt… Außerdem Act of Aggression (Reboot Edition, Plants vs. Zombies: Garden Warfare 2, Shadowrun Chronicles: Boston Lockdown (sollte mal ein MMORPG werden, aber der Kickstarter ist gescheitert, deswegen nun eine Art XCOM mit globaler Koop-Lobby), GTA V (auch wenn meine Hardware sicherlich nicht ausreicht), The Witcher 3: Wild Hunt (GOTY) (auch hier reicht meine Hardware nicht aus), Dishonored: Der Tod des Outsiders (obwohl ich Teil 2 erst angefangen habe), Resident Evil 7 (Gold Edition) (hab‘ weder Teil 5 noch Teil 6 bislang durch), Ghost Recon: Wildlands, Agents of Mayhem (als Saints Row-Fan musste ich es endlich haben – mehr dazu in einem anderen Eintrag) sowie den Titel, der unser heutiges Hauptthema ist:

Cover

Homefront: The Revolution (2016; PC, XONE, PS4) – Das erste Homefront hat mir damals sehr gut gefallen – besser als alle Call of Duty zu der Zeit (und auch danach). Ja, es hatte genauso seine Probleme (z.B. sehr kurz und linear) aber dafür versprühte es extrem viel Atmosphäre in allen Bereichen und ich kann es immer noch jedem ans Herz legen! Entsprechend gespannt war ich auf Teil 2, der anfangs auch von den Kaos Studios kommen sollte. Leider ging es mit dem Publisher THQ zu der Zeit relativ zügig bergab und die Entwickler wurden geschlossen. Die Marke ging anschließend an Crytek und die wollten kein lineares, storylastiges Homefront 2 wie Kaos Studios es geplant hatten, sondern wie gefühlt jeder heutzutage eine offene Welt. Damit stand die Grundidee von Homefront: The Revolution fest. Bis zum Release im Jahr 2016 vergingen allerdings noch einige Jahre, denn Crytek hatte bekanntlich genauso seine finanzielle Probleme. Am Ende landete es bei Deep Silver und ihrem Inhouse-Entwickler Dambuster Studios (ehemals Crytek UK und davor Free Radical Design – die Macher von TimeSplitters). Das Ergebnis kam weder bei den Kritikern noch den Spielern wirklich gut an – eine Meinung, die ich nach den ersten vier Spielstunden leider teilen muss. Fangen wir aber wie immer ganz am Anfang an:

Homefront: The Revolution (Herstellerbild)

Homefront: The Revolution ist, wie der Name schon impliziert, kein zweiter Teil. Stattdessen ist eine Art Reboot mit der gleichen Grundidee: In einer alternativen Geschichte haben die Nordkoreaner Amerika erobert. In der Version von Dambuster Studios haben sie dafür in den 70igern angefangen mittels ihrer APEX Corporation den amerikanischen Markt (inkl. Militär) mit ihren hochwertigen Elektronikprodukten zu überschwemmen. Da es aufgrund von mehreren Kriegen den Amis sowieso schon nicht gut geht, haben sie durch die Waffenkäufe bei APEX auch noch riesige Schulden angehäuft. Als sie diese nicht mehr bedienen können, fällt Nordkorea in Amerika ein, indem sie die geheime Backdoor in ihrer Elektronik aktivieren und alles lahmlegen. Anfangs gaben sich die Koreaner noch ganz lieb und nett, aber mittlerweile (2029) ist Amerika ein totalitärer Polizeistaat geworden. Und wie es mit unterdrückten Menschen immer so ist, wollen die das nicht mehr akzeptieren (unverantwortlich sowas!) und rebellieren. Ihr spielt Ethan Brady, einen der ganz neuen, aufstrebenden Revoluzzer in der Stadt Philadelphia.

Spielwelt hui, Gameplay pfui

Wie erwähnt war es die Atmosphäre, die mir damals am ersten Teil richtig gut gefallen hatte. Amerika und die Menschen darin waren sichtbar heruntergekommen und zwar nicht auf die künstliche Art und Weise, wie es Call of Duty macht wo selbst total zerstörte Städte unwirklich daherkommen, sondern eben so wie man es sich vorstellt. Homefront: The Revolution schlägt da tatsächlich in die gleiche Kerbe. Philadelphia sieht nicht nur wie eine reale, heruntergekommene Stadt aus – sie fühlt sich auch so an. Und die Charaktere wirken (vor allem dank der CryEngine) nicht weniger lebensecht und sind von der Okkupierung sichtbar gezeichnet. Die Menschen kämpfen spürbar ums Überleben und man ist nicht einfach nur Zuschauer in einer nachgeahmten Apokalypse, sondern bekommt „echte“ Gefühle und Emotionen zu sehen – zumindest die meiste Zeit. Leider machen die technischen Probleme selbst die stärksten Szenen mitunter kaputt. Beispielsweise wenn Charaktere versuchen euch anzuschauen aber euer Kopf anscheinend in der Decke steckt und entsprechend nur noch das weiße in den Augen zu sehen ist, Gegner stupide gegen die Wand laufen (und nach dem Ableben gerne mal drin stecken bleiben) oder Rebellen erst locker ihre Waffe an der Köperseite tragen und dann „wusch“ vor sich halten statt eine fließende Bewegung auszuführen.

Homefront: The Revolution (Herstellerbild)

Darüber könnte man freilich hinwegsehen, wenn der Rest des Spiels durchweg auf hohem Niveau wäre. Aber wie erwähnt, wollten die Entwickler UNBEDINGT eine offene Welt. Und dann nicht nur eine offene Welt, sondern auch noch eine, wo die Karte vor lauter Symbolen schon fast keine Straßenführung mehr zeigt. Man kann viel über lineare Spielerlebnisse schimpfen aber bislang gab es aus meiner Sicht nur sehr, sehr wenige Spiele mit einer offenen Spielwelt, die es geschafft haben trotzdem eine gute und intensive Geschichte zu erzählen (Assassin’s Creed II z.B.). Homefront: The Revolution gehört eindeutig nicht dazu. Ja, natürlich passen die meisten Gameplay-Elemente wie die KAP sabotieren, Stützpunkte einnehmen oder den Einwohnern helfen in die Idee eine Revolution anzuzetteln. Aber aufgrund der Masse an Tätigkeiten und der dadurch verbundenen ewigen Wiederholungen und langen Laufzeit zwischen den eigentlichen (intensiven und ganz gut gelungenen) Story-Missionen, geht jedes bisschen Spannung sofort flöten. Schlimmer noch: In den sogenannten gelben Zonen will das Spiel eigentlich, dass man sich versteckt, schleicht und heimlich seine Ziele erfüllt. Die Realität sieht so aus, dass ich mich waffenstrotzend ins Gefecht stürze, ganze Armeen auslösche und nur hin und wieder verstecke.

Nervig

Ich ballere nicht alles ab was ich sehe, weil ich es bevorzuge. Ich würde ja nach den Regeln der Entwickler spielen. Wenn man nur von A nach B will nerven die Straßenschlachten schon ein wenig, da in der gelben Zone ALLE Wachen in der Zone alarmiert werden. Aber es geht einfach nicht anders. Die Feinde sehen einen zu schnell und verbleiben viel zu lange in der Region während man sich versteckt. Sprich selbst wenn ich versuche einen auf Schleichen zu machen, verbringe ich entweder gefühlte Stunden damit sinnlos zu warten oder werde beim Verlassen meines Verstecks sofort wiedergesehen und es wird erneut Alarm ausgelöst. Das macht keinen Spaß. Dann lieber rücksichtslos ballern – zumal das eigene Ableben keine echten Konsequenzen hat. Entweder es wird innerhalb einer Story-Mission der letzte Checkpoint geladen oder man wacht im nächstgelegenen Safehouse auf und verliert nur ein paar geldbringende aber völlig austauschbare Gegenstände, die man gesammelt hat.

Immerhin sind die Schießereien insgesamt ganz spaßig. Die Waffen haben rums, es gibt eine große Auswahl (ihr könnte jede Hauptwaffe mehrfach umbauen sowie Sachen anbringen) und wenn die KI nicht gerade in eine Wand rennt, agiert sie tatsächlich halbwegs Intelligent mit Flankiermanövern und gemeinsamen Vorstößen. Außerdem ist wie gesagt die Stadt sehr schön gestaltet, bietet viel vertikalität und es gibt immer verschiedene Möglichkeiten an die Sache heranzugehen.

Homefront: The Revolution (Herstellerbild)

Beim Christoph meint: Ich hätte wirklich sehr gerne das Homefront 2 von Kaos Studios gehabt. Homefront: The Revolution zeigt zwar die Ansätze der Dinge, die den Vorgänger so gut gemacht haben vor allem was die Atmosphäre angeht. Aber sagen wir es wie es ist: Die offene Welt macht das komplette Konzept kaputt. Die technischen Unzulänglichkeiten sind da nur ein Tropfen auf dem heißen Stein. Dem Titel hätte es so viel besser getan, wenn die Entwickler ausgemistet hätten. Es müsste ja nicht völlig linear sein. Das Konzept der Zonen beispielsweise hätte man sicherlich lassen können. Aber manchmal ist weniger definitiv mehr. Weniger Wiederholungen in den Sachen, die man für die nächste Hauptmission machen muss und mehr Konzentration auf das Wesentlich in Form von Story und den Charakteren und schon wäre es ein Hit.

In der veröffentlichten Form kann ich hingegen absolut nachvollziehen, warum ich noch eine Day One Edition bekommen habe. Auch von mir gibt es keine Kaufempfehlung. Ich werde es zwar weiterspielen, weil ich wissen will, wie sich die Geschichte weiterentwickelt. Aber wenn ihr diesen Titel selbst auf dem Ramschtisch links liegen lasst, bin ich euch absolut nicht böse drum. Dann doch lieber Homefront nachholen!

Die aktuelle Versionsnummer

Am Dienstagabend war es mal wieder soweit: Das (von manchen?) lang erwartete „Fall Creators Update“ (Version 1709) für Windows 10 wurde für die Allgemeinheit zum Download bereitgestellt. Dem Hauptrechner wurde es Freitagsabends auch direkt angeboten und lief ohne große Probleme in weniger als 15 Minuten durch. Er hing nur im Vorfeld der Installation beim Download und der Vorbereitung etwas länger auf 83% fest. Nach dem Upgrade musste ich ausschließlich meine Einstellungen in der Creative Konsole für die Soundkarte neu treffen. Nicht mehr funktionierende Treiber oder Programme, wie bei scheinbar vielen anderen „Upgradern“, konnte ich bei mir nicht feststellen. Und in Sachen Spiele läuft Grim Dawn ebenso immer noch einwandfrei.

Auf meinem Laptop, den ich scheinbar tatsächlich seit April nicht mehr anhatte, dauerte zwar alles ein wenig länger. Wenn man ein halbes Jahr ein Gerät nicht mehr anhatte, dann ist es halt erst einmal ein wenig mit sich selbst beschäftigt und da der Laptop mit seinen vier Jahren auch nicht mehr ganz so der neuste ist (Festplatte ist ein massiver Flaschenhals), dauert halt alles grundsätzlich etwas. Ich musste außerdem zum Windows Update Assistent (Media Creation Tool) greifen, weil das Update mir hier noch nicht unter Windows Update zur Verfügung gestellt wurde. Anschließend lief es aber auch hier einwandfrei und ohne irgendwelche Beschwerden vor, während oder danach durch. Bleibt Lysandas Laptop, der nochmal ein paar Jahre mehr auf dem Buckel hat und entsprechend NOCH mehr Zeit braucht :smile: .

Die Neuerungen

AAAAAHHH EIN UNTEXTURIERTES SPACE SHUTTLE!

Stellt sich nun die Frage, was es nach der Installation überhaupt an tollem Neuem gibt bzw. genauer, was mir aufgefallen ist und was davon im (leider nicht mehr täglichen) Anwendungsfall relevant sein könnte. Die neue Schaltfläche „Kontakte“ in der Taskleiste habe ich zum Beispiel sofort wieder deaktiviert. Wenn jemand meine Taskleiste vollstopft mit Sachen, dann ausschließlich ich *hmpf* . Im Explorer fiel mir hingegen der neue Ordner „3D-Objekte“ unter „Dieser PC“ auf. Keine Ahnung ob der grundsätzlich schon länger da war (viele der ganzen 3D-Programme wurden ja schon im letzten Creators Update eingeführt) aber er ist auf jeden Fall nun prominenter. Kein Wunder, ist doch eine zentrale Neuerung (die ich nicht nutzen kann) des Updates das ganze Thema Mixed Reality mit VR-Brillen. Ich konnte entsprechend nur das Spaceshuttle im Mixed Reality Viewer dank Webcam auf mein virtuelles Ich zufliegen lassen und nicht auf mein echtes :smile: . Damit war dieses Thema für mich aber auch schon wieder durch. Mit Cortana und OneDrive habe ich ebenso absolut gar nichts am Hut.

Interessanter sind da schon die neuen Konverter-Funktionen des integrierten Taschenrechners (unter anderem Währung, Volumen, Temperatur und sowas) oder die Möglichkeit, dass sich bei einem Neustart mit Aktualisierung Windows von alleine wieder einloggen kann. Könnte freilich auch eine Sicherheitslücke sein, aber das werden die kommenden Monate zeigen. Die neue Anzeige der GPU-Auslastung im Task-Manager ist hingegen ganz nett obwohl in meinem Fall mein Lüfter schon die ganz Zeit genau anzeigte, ob meine GPU sich gerade langweilt oder nicht :wink : .

Weitere Kleinigkeiten

Gleichfalls nett aber nicht weltbewegend ist, dass wieder ein paar Sachen aus der Systemsteuerung in die Einstellungs-App gewandert sind. Und es nun z.B. die Möglichkeit gibt Windows zu erlauben regelmäßig und völlig automatisch die temporären Dateien sowie Sachen im Papierkorb zu löschen. Oder sein Smartphone fest mit dem Rechner verbinden, um theoretisch fließend arbeiten zu können bspw. auf dem Handy eine Webseite öffnen und dann „Seamless“ diese auch auf dem Rechner bereitstellen. Können in diesem Fall die wichtigsten Browser zwar meines Wissens (Maxthon kann es schon ewig) mittlerweile sowieso. Aber Windows-Standard-Funktionalitäten sind ja immer noch einmal ein weiterer Schub für solche Sachen und es gibt ja noch mehr, was sich damit machen lässt.

Designtechnisch fällt erst auf den zweiten Blick auf, dass manche Fenster nun eine leichte Transparenz haben (z.B. das Startmenü). Aber da muss man schon teilweise sehr genau hinschauen. Dass sich nun das Startmenü wie jedes andere Fenster diagonal vergrößern und verkleinern lässt, ist da schon wesentlich auffälliger und nützlicher (für mich).

Wad?! Ich bin nur ein mittler NAT-Typ?! Sauerei!

In Sachen Spiele ist in den Einstellungen jetzt eine Testfunktion wie man es von der Xbox kennt, um die Verbindung zum Xbox-Netzwerk zu prüfen. Also man kann direkt sehen, was für meinen Ping man hat, wie hoch der Paketverlust ist und ob der Router richtig konfiguriert ist (wir es bei mir bis gerade nicht der Fall war). Außerdem macht in den Medien aktuell der neue Eintrag „TruePlay“ die Runde. Quasi eine Windows-weite Anti-Cheat-Funktion, die von den Spieleentwicklern verwendet werden kann. Standardmäßig ist die Funktion nach dem Update übrigens ausgeschaltet. Sollten also Spiele darauf zurückgreifen wollen, dann werden sie vermutlich darauf hinweisen und nicht mehr starten oder sowas. Aber aktuell gibt es noch keine damit.

Fazit

Und mehr fällt mir tatsächlich nicht an Neuerungen ein/auf. Sicherlich gibt es im Hintergrund auch noch so einige Stabilitätsverbesserungen und vor allem beim Spielemodus einige veränderte Stellschrauben. Aber als Otto-Normalverbraucher würde ich sagen, merkt man vom Fall Creators Update so gut wie gar nichts. Das ist jetzt nicht zwingend schlecht und stört mich persönlich überhaupt nicht. Ich habe tatsächlich lieber alle halben Jahre ein kleineres Upgrade mit Kleinigkeiten, die mir ein bisschen das Leben erleichtern bzw. das System verbessern anstatt alle 2-3 Jahre den Rechner wegen einer komplett neuen Windows-Version neu aufsetzen zu „müssen“ mit dem Risiko größerer Probleme/Umgewöhnungsphasen. Insofern unterstütze ich hier (nicht nur) Microsofts Ansatz eines lebenden Betriebssystems.

Ansonsten gibt es an dieser Stelle aus meiner Sicht zum Windows 10 Fall Creators Update nicht viel mehr zu sagen. Wenn ihr schon Windows 10 draufhabt, müsst ihr über kurz oder lang sowieso auf die neuste Version umsteigen. Und in dem Fall kann ich nur sagen, dass es aus meiner Sicht keinen Grund gibt zu Warten. Wer hingegen immer noch auf Windows 7 rumhängt (Windows 8-Systeme haben hoffentlich alle schon das Upgrade gemacht)…nun den wird auch die Version 1709 von Windows 10 nicht überzeugen. Das ist einfach so.

In diesem Sinne: Was sind eure bisherigen Erfahrungen mit 1709? Das Update schon installiert? Wenn ja, alles soweit gut gelaufen? Wenn nicht, was war/ist das Problem?

Nächste Seite »