Logo von Windows 8Vor einigen Tagen ist etwas passiert, womit ich selbst nicht gerechnet hätte: ich habe Spontanität, Flexibilität und Risikobereitschaft an den Tag gelegt! Bin ich normal einer dieser “Buchhaltertypen”, bei denen von A-Z und von 0-24 Uhr alles durchgeplant ist und die grundsätzlich nichts verändern, wenn sie halbwegs zufrieden sind oder auch nur die geringste Chance auf unnötige Probleme sehen, habe ich mir überraschenderweise bewiesen, dass ich es ab und zu auch anders kann. Was ist passiert? Nun, Windows 8 ist passiert. Aber von vorne.

Grundsätzlich habe ich ja zu dem (konservativen?) Personenkreis gehört, der Windows 8 bestenfalls als “nicht sinnvoll für Desktop-Nutzer” beurteilt hat. Es waren also nicht nur meine oben beschriebenen Charaktereigenschaften, die einen Wechsel des Betriebssystems unwahrscheinlich werden ließen, sondern auch technische Gegenargumente, die hauptsächlich auf die neue ModernUI (ehemals: MetroUI) zurückzuführen sind. Kurzum: wozu auf Windows 8 wechseln, wenn danach altbekannte Aktionen länger dauern und die Produktivität daher sinkt?

“Dummerweise” war es nun aber so, dass wir Anspruch auf eine Windows 8 Pro Upgrade Version für günstige 14,99 € hatten, da sich meine Mutter im Aktionszeitraum zufälligerweise ein neues Notebook gekauft hatte. Und da das einzige andere Familienmitglied, das sich für PCs interessiert (Vadder) kein Upgrade sondern unbedingt die Vollversion wollte, war ich also der einzige, der für dieses Schnäppchen in Frage kommt. Und irgendwie hatte ich das Gefühl, dass diese 15 Euro gut investiert sind – man kann den Key ja notfalls noch weiterverkaufen. Gesagt, getan: Windows Upgrade Advisor laufen lassen: jawoll, keine schweren Kompatibilitätsprobleme, in den Warenkorb gelegt, Geld überwiesen, runtergeladen.

Lasset die Spiele beginnen!

Und dann ging der “Spaß” los :smile: Was jetzt folgt ist definitiv kein Test zu Windows 8. Und mit Objektivität haben die folgenden Ausführungen ganz sicher auch nix zu tun. Wer so was sucht, findet das im Internet massenweise. Ich erläutere einfach nur mal ganz zwanglos und “frei heraus” meine ersten Schritte und Eindrücke zum neuen Betriebssystem.

Mein ursprünglicher Plan war es, das Upgrade – naheliegender Weise – über die bestehende Windows 7 Version drüber zu installieren, auch wenn ich von diesen Methoden normalerweise nichts halte (ich bin fest davon überzeugt, dass da immer irgendein Chaos samt Problemen und vor allem unnützer Daten und Registrierungseinträgen auf der Platte entstehen). Aber ich wollte mir eine Sicherung meiner vielen Daten ersparen. Zumal man ja heute gar nicht mehr richtig weiß, z.B. welches Spiel seine Spielstände und Einstellungen wo gespeichert hat. Man ist noch gut bedient, wenn’s alles in einem Ordner in den Eigenen Dateien liegt (was ist das bitte für ein unsinniger Trend, alles in den versteckten Ordner C:BenutzerBenutzernameAppDataLocal zu packen?!). Und da ich gerade mehrere Spiele intensiv angezockt habe (Assassins Creed 2, GRID, Fallout:NV), wollte ich das Risiko eines Datenverlusts nicht eingehen. Also, lange Rede, kurzer Sinn: schnell ein Image auf DVD sowie auf USB-Stick gespeichert und dann die Installation gestartet, Key eingegeben…und, naja, Installation wieder beendet. Was ist passiert? Speicherplatz ist passiert! Das ist eben das Problem, wenn man nur eine SSD mit 64GB hat, von denen nur noch 6GB frei sind. Weshalb Microsoft für die Installation von Win8 aber 20GB benötigt, obwohl das neue Betriebssystem sogar noch kleiner ist als der Vorgänger, ist mir ein Rätsel. Naja, mein Fehler, hätte mir auch die Systemanforderungen mal richtig durchlesen können. Aber auch der nette Upgrade Advisor hätte mich mal drauf aufmerksam machen können.

Also dann halt doch neu aufsetzen. In Ordnung. Wollte eh schon immer mal ein Windows von USB-Stick installieren :smile: . Und ja, ich als Ordnungsfanatiker freu mich auch immer wieder über eine “clean-installation”, wo man so richtig schön bei null anfangen kann. Also USB-Stick angesteckt, Rechner neu gestartet, Boot-Reihenfolge geändert, nochmal neu gestartet, Installation gestartet, c: formatiert und dann…naja…Installation abgebrochen. Was ist denn nun wieder passiert? Partitionstabellen sind passiert!

Jetzt muss ich zu meiner Schande gestehen, dass das tatsächlich ein Bereich ist, in dem ich mich bis dato nicht ausgekannt habe. Aber man lernt ja nie aus. Die Kurzfassung: mit der Einführung von UEFI (dem BIOS-Nachfolger) haben sich wohl auch die verwendeten Partitionstabellen geändert. Und zwar von MBR (Master Boot Record) auf GPT. Die größte Veränderung ist dabei wohl die Unterstützung von Festplatten >3TB. Aber da hab ich mich nicht weiter informiert. Wie auch immer: Windows 8 war jetzt auf jeden Fall der Meinung, dass es sich nur auf GPT installieren lässt und behauptete, ich würde noch MBR verwenden, was insofern sehr kurios ist, da ich mein Windows 7 ja ebenfalls auf demselben System ohne dieses Problem installieren konnte. Wie auch immer: bis ich das alles herausgefunden hatte, verging eine gute Stunde, in der ich auch das Notebook meiner Mutter beschlagnahmen musste. Schließlich hatte ich ja kein eigenes Betriebssystem mehr zu dem Zeitpunkt. Zudem stand ich vor dem teuflischen Problem, dass ich – so vermute ich zumindest – sowieso auf keinen Fall aus dem Installationsprogramm raus durfte, da ich ja nur eine Upgrade-Version von Win8 besitze und diese vor der Installation eine bestehende Win7-Installation erkennen muss. Die Partition war aber ja bereits formatiert. Will heißen: nach einem Neustart des Systems, wär ich ziemlich im Arsch gewesen und hätte wohl erst wieder Win7 installieren “dürfen”. Nun ja, die Lösung des Problems war dann doch relativ simpel: anstatt die Partitionen nur zu formatieren, muss man sie komplett löschen und wieder erstellen lassen, dann richtet sich Windows alles so ein wie es es benötigt. Im Nachhinein hab ich dann auch gelesen, dass man wohl auch aus dem UEFI heraus booten kann und sich so die Probleme vermeiden lassen. Das hab ich aber nicht geprüft. Ich war froh, dass Windows 8 endlich installiert wird. Im Übrigen relativ fix, aber nicht unbedingt viel schneller als Win7.

Optische Täuschung?

Und dann wurde ich – nach ein paar kurzen Einstellungen und dem Erstellen eine Microsoft-Kontos (bzw. dem Anmelden mit meiner bestehenden GFWL bzw. XBOX-Live Kennung) – auch schon begrüßt von dieser zweifellos sehr hübschen ModernUI. Ich werde an dieser Stelle darauf verzichten zu erläutern, was diese Oberfläche alles bietet – und was nicht. Dazu gibt’s ja dutzendfach Berichte im Netz. Man hat halt nun quasi eine, dem eigentlichen Desktop vorgelagerte Smartphone Oberfläche. Das ist unerwarteter Weise nicht so schlimm, wie ich das befürchtet habe. Denn mal abgesehen davon, dass diese Oberfläche wie erwähnt sehr hübsch ist und ich sie mir gerne anschaue, bietet sie auch einige Apps, die ganz nett sind. Schnell kuggen, was sich in Facebook tut? Schnell nachschauen, was in der Welt so passiert? Sich rasch informieren, wie das Wetter morgen wird? Oder mal eben unkompliziert eine Nachricht an seine Freunde schicken ohne ein Chatprogramm zu starten? Alles kein Problem!

Wobei, das ist dann leider auch gelogen. Denn gerade die “Nachrichten-App” sowie die “Kontakte-App” leiden noch unter kleinen Bugs. Prinzipiell kann man mit ersterer unkompliziert mit seinen Freunden (aus Facebook, Skype, MSN) chatten und mit zweiterer sich schnell über z.B. die Neuigkeiten in Facebook informieren. Das Problem: die Synchronisierung findet bisweilen stark verzögert statt. Nachrichten erscheinen oft erst eine viertel Stunde später. Manchmal auch erst, wenn man gezielt in der App nachschaut. Das ist natürlich nicht Sinn der Sache. Trotzdem: angenommen die Apps laufen irgendwann mal fehlerfrei, so ist es wirklich angenehm, kurz per (hübschem) “pop-up” über eine Nachricht informiert zu werden – auch wenn man gerade auf dem Desktop unterwegs ist. Dabei ist es tatsächlich auch die Optik und die Übersichtlichkeit, die mich überzeugen. Auch wenn man dafür auf die ein oder andere Funktion verzichten muss. Die Simplizität und der “Style-Faktor” sind einfach toll. Weniger toll hingegen ist die aktuelle Auswahl an Apps. Ohne jetzt genau nachgezählt zu haben würd ich auf etwa 600 Apps schätzen. Das Hauptproblem ist dabei aber nicht die Quantität sondern die Qualität. Denn wirklich nützliche Apps habe ich überhaupt noch nicht gefunden. Zwar gibt’s bspw. von einigen Printmagazinen diverse Apps (z.B. Focus, Auto Motor Sport), aber letztlich nutze ich für diese normale Art von Informationsbeschaffung dann doch lieber den guten alten Desktop-Webbrowser (nein, den App-Browser, der im Vergleich zur traditionellen Variante deutlich eingeschränkt sein soll, habe ich noch nicht getestet und habs auch erstmal nicht geplant). Aber apropos Desktop, den gibt’s ja natürlich auch noch. Per Mausklick auf die entsprechende App-Kachel erscheint man die vertraute Bedieneroberfläche.

“Heimat ist, wo das Herz..äh, der Desktop wohnt”

Ich beschreibe mal ganz kurz und ohne Übertreibung das Gefühl, dass ich hatte, als ich erstmals, nachdem ich mich gut 20min mit der ModernUI beschäftigt hatte, auf den Desktop gelangt bin: es war “wie nach langer Zeit nach Hause zu kommen” :smile: . Kein Spaß, es kam sofort ein Gefühl von Vertrautheit auf. Und binnen weniger Minuten hatte ich auch alles wieder haargenau so eingerichtet wie unter meinem Windows 7. Mit einer ärgerlichen Ausnahme: die tolle “To-Do-Liste”, die ich als Widget in der Sidebar platziert hatte gibt’s aufgrund der Abwesenheit letzterer natürlich nicht mehr. Wäre halb so schlimm, wenn’s denn dafür ne adäquate App gäbe. Aber dem ist natürlich nicht so. Schade. Gar nicht schade hingegen sind die vielen kleinen Detailverbesserungen am Desktop: sei es der erweiterte Taskmanager, der erweiterte Explorer (mit Ribbon-Oberfläche), der neue Dateitransferdialog oder der ab Werk integrierte und herrlich unsichtbare Windows Defender (der für mich völlig ausreicht): einmal dran gewöhnt möchte man nichts mehr davon wissen. Hinzu kommen natürlich auch diverse, mal kleinere, mal größere Verbesserungen an Windows 8 selbst: z.B. kürzere Startzeiten, native USB 3.0-Unterstützung und besserer Multi-Monitor-Support. Das ist freilich nichts Weltbewegendes und vor allem nichts, was man nicht auch in einem zweiten Service Pack für Windows 7 hätte lösen können. Aber vor dem Hintergrund des recht günstigen Preises für Windows 8 – selbst wenn man nicht für 14,99 € umsteigt – kann man auch nicht wirklich meckern.

Das kann man dafür an anderer Stelle. Zum Beispiel bei der ab Werk fehlenden Unterstützung für die Wiedergabe von DVDs. Das ist in meinen Augen ein absolutes Unding. Zwar kann man sich diesen nachträglich recht günstig – und bis Anfang 2013 sogar kostenlos – zusammen mit dem Media Center Pack runterladen, aber ausschließlich für Windows 8 Pro. Und damit treibts Microsoft dann meiner Meinung nach auf die Spitze. Aber auch abseits fehlender Features wie eben der DVD-Wiedergabe und der Sidebar habe ich einige, teils sehr ärgerliche Probleme mit oder seit Windows 8. So haben aktuell alle Besitzer von Creatives X-Fi Soundkarten das kuriose Problem, dass diese nach einem Neustart keinen Ton ausgibt und zudem sämtliche Einstellungen, die man in der Konsole getroffen hat, wieder zurückgesetzt werden. Wechselt man kurz in einen anderen Modus (z.B. in den Audioerstellungsmodus) ist der Ton wieder da. Wie genau das Problem gelöst wird, ist unklar, bei einigen – so auch glücklicherweise bei mir – hat es geholfen, nach dem Treffen aller Einstellungen in den Standby zu wechseln und dann den PC wieder zu aktivieren. Anscheinend werden dann die Einstellungen auch gespeichert. Im Übrigen hatte auch Steam bei mir anfangs ein ähnliches Problem: Einstellungen an der Benutzeroberfläche wurden erst nach zig Neustarts endlich dauerhaft übernommen. Sehr seltsam.

Das nächste Problem betrifft Outlook 2010. Seit Windows 8 tut es gar nicht mehr so, wie es soll. E-Mails werden nicht sofort runtergeladen (wie das bei IMAP eigtl. üblich ist), bei einem meiner beiden Konten sogar überhaupt nicht automatisch. Beheben kann man das, indem man ein automatisches Zeitintervall in den Optionen einstellt. Teilweise schließt es sich zudem nicht über den Klick auf das Kreuz rechts oben sondern wird nur minimiert. Dann wiederum fährt Windows 8 nicht runter, wenn Outlook noch offen ist und es im Hintergrund nach der Erlaubnis fragt, ob es den Ordner “Gelöschte Elemente” leeren soll. Dieses Nachfragen kann man zwar in Outlook abstellen, aber Windows 7 hat das Runterfahren wenigstens erzwungen. Sowas sollte einfach nicht passieren, vor allem nicht, weil Outlook ja auch von Microsoft programmiert wurde. Ach ja: GFWL verursacht ständig Kompatibilitäts-Fehlermeldungen. Auch hier: Microsoft, Schande über euch. Ihr solltet wenigstens die firmeninternen Produkte untereinander kompatibel halten…

Das letzte größere Ärgernis ist meine Maus- und Tastaturunterstützung, auch wenn das – wie schon bei der X-FI – möglicherweise zur Hälfte auf das Konto fehlender Treiber seitens der Produkthersteller geht. Keinerlei Zusatztasten auf meiner Tastatur und nur die Grundfunktionen auf meiner Maus funktionieren. Einen Win8-Treiber gibt’s von Logitech bislang nur für die “non-gamer-Geräte”. Meine G700-Maus wird also vorerst nicht mehr unterstützt. Sehr ärgerlich.

Apropos Gamer, das hätte ich ja fast vergessen: alle Spiele, die ich bislang getestet habe, liefen weitestgehend anstandslos und ohne merkliche Veränderungen an der Performance. Lediglich in Fifa 12 wird seltsamerweise ohne ersichtlichen Grund die Lautstärke stark gedrosselt. Ich habe jetzt testweise mal die Mikrophoneinstellungen geändert, womöglich liegts ja daran (automatische Pegelabsenkung bei Mikrophonaktivität deaktiviert).

Fassen wir also abschließend nochmals kompakt und übersichtlich zusammen:

+ verbesserter Explorer
+ verbesserter Dateitransfer-Dialog
+ verbesserter Taskmanager
+ Windows Defender Standard
+ USB 3.0, DX 11.1, Bootzeiten
+ hübsche Smartphone-Funktionalität “gratis dazu”…
– …die manch einer aber als unnötig und störend empfinden wird
– …die aber zweifellos zu wenige (nützliche) Apps bietet
– …und die zudem noch unter ärgerlichen Bugs leidet (Nachrichten- und Kontakte-App)
– keine Sidebar mehr
– keine DVD-Wiedergabe in Standard-Version (in Pro nur gegen Gebühr ab 2013)
– teils (nur wenig) störende Treiberprobleme (Logitech, Creative)

Meine Empfehlung

Und was ist nun meine Empfehlung? Nun, aus der obigen Aufzählung wird ja ganz klar ersichtlich, dass sich – zumindest zum aktuellen Zeitpunkt – die Vor- und Nachteile die Waage halten. Fakt ist: der Desktop-Part wurde spürbar und sinnvoll verbessert. Und der täglich nötige, eine Mausklick um von der ModernUI auf den Desktop zu wechseln ist – auch entgegen meiner eigenen Befürchtung – überhaupt nicht störend. Zumal es ja auch ein Tool gibt, durch das man direkt auf den Desktop gelangt. Wer also auf Sidebar und nativen DVD-Support verzichten kann (oder in letzterem Fall die Pro-Version samt aktuell noch kostenlosem Media Center Pack besitzt), muss sich “lediglich” mit Treiberproblemen rumschlagen, von denen man aber erwarten kann, dass sie in den nächsten Wochen behoben sind. So gesehen bleibt für “Desktop-only-Nutzer” streng genommen kein fundamentales Argument gegen Windows 8.

Alle anderen, die auch mal gerne (oder sogar vorwiegend) mit der ModernUI rumspielen mögen, dürften sich jedoch ärgern, dass die MS-eigenen Apps teilweise (noch??) verbuggt sind und es abseits davon (noch??) nicht die riesige Auswahl, insbesondere auffallend kreativer und nützlicher Apps gibt.

Es gibt also weder DAS EINE ARGUMENT FÜR Windows 8 noch DAS EINE ARGUMENT GEGEN Windows 8. Dafür gibt’s jede Menge Bugs und Kompatibilitätsprobleme zum gegenwärtigen Zeitpunkt, die aber – zumindest nach einigem Herumprobieren – die Funktionalität nur gering einschränken (was nichts desto trotz ärgerlich und unnötig ist).

Kommen wir also zur alles entscheidenden Frage: Würde ich, azzkickr, Windows 8, freiwillig in meiner Freizeit weiter nutzen? (na, wer erkennt hier das Plagiat? :laughing:).

NEIN.

Aktuell würde ich noch jedem, der nicht unbedingt eine Smartphone-Oberfläche in Computer-Bildschirmgröße haben will von Windows 8 abraten. Zu gering der Desktop-Mehrwert gegenüber Windows 7, zu groß hingegen die möglichen Desktop-Kompatibilitätsprobleme (ich packs einfach nicht, das Wort auf Anhieb fehlerfrei zu schreiben…). Und andererseits: Zu gering die App-Auswahl, zu groß hingegen die Bugs (und Funktionseinschränkungen) bei den bestehenden (vorinstallierten) Apps.

ABER AUCH JA.

Denn mit etwas Frickelei hat man quasi keine tiefgreifenden Einschränkungen mit Windows 8 im Vergleich zu Windows 7. Dafür aber einige nette Verbesserungen und eine neue, sehr hübsche Oberfläche die immerhin zum Herumspielen einlädt. Und hinzu kommt die, ich nehme an sehr wahrscheinliche, Aussicht auf Besserung in den nächsten Monaten was die Bugs, Treiber und Anzahl an Apps angeht. Und dann wiederum würde ich Windows 8 auch den zufriedensten Windows 7-Nutzern empfehlen.

Wie JakillSlavik zumindest mir gegenüber bereits prophezeit hatte, dauerte es bis Dienstagabend um 22 Uhr, bevor Michael Shapcott seine Vision von Kessy veröffentlichte. Hat sich das Warten (und vor allem die $125) gelohnt? Urteilt selbst:

Porträt von Kessy

Ob die Zeichnung jetzt tatsächlich das Geld wert war, wird zwar nur JakillSlavik beurteilen können. Mir persönlich gefällt das Ergebnis aber wirklich ausgesprochen gut und das ist ja erst einmal das Wichtigste :smile: . Ich finde Michael hat nicht nur Kessys Äußeres, sondern auch ihre Persönlichkeit sehr gut eingefangen. Dieser ernste beziehungsweise eher entschlossene Gesichtsausdruck und der dazugehörige Blick in die Ferne zeigen mir eine Katze, die ganz genau weiß, was sie will. Sehr cool. Und anders als die Katzen auf meinem Maine-Coone-Kalender, wo Frau Mama jeden Monat behauptet “die sieht doch aus wie Kessy”, für mich auf den ersten Blick auch wirklich “meine” Kessy. Freue mich definitiv auf die Ankunft des Originals. Wird einen Ehrenplatz an der Wand erhalten. Außerdem kann ich dann den mittlerweile zweiten Kickstarter als erledigt abhaken. Fehlen nur noch gefühlt 2 Milliaren Stück :smile: .

Werbung

Schon um 17 Uhr ging am Dienstag meine Vorschau zu Divinity: Original Sin online. Ich kann vermutlich nicht behaupten, dass man dem Text nicht meine Begeisterung für das Spiel anmerkt. Wie ich im Fazit schreibe, hätte ich zwar auch Spiel ähnlich Divinity 2: Ego Draconis cool gefunden, aber was Larian Studios stattdessen abzuliefern scheint, ist definitiv nicht weniger gut und gefällt mir tatsächlich noch besser als Divinity: Dragon Commander. Morgen um 17 Uhr gehen dann die letzten beiden Texte basierend auf meinem gamescom-Besuch online und zwar die Berichte zu Sacred 3 und Dead Island: Riptide. Da erfahrt ihr dann auch, welches Spiel ich im Podcast gemeint hatte, als ich sagte, dass ich über eines meiner Lowlights der Messe noch nichts sagen darf. Doch dazu dann am Montag mehr. Kommen wir stattdessen noch zu einem zweiten Bild:

Sicarius mit Brille

“Wie? Macht der Webmaster jetzt einen auf coole Sau? Dann ist ihm das aber absolut misslungen!” – Stimmt, lieber Besucher, auch wenn dich keiner gefragt hat. Modisch ist sicherlich etwas anders, oder so behaupten es zumindest immer bestimmte Leute. Aber das ist ja auch keine Brille, mit der ich draußen rumlaufe. Nein, es handelt sich hier um die Gunnar Optiks e11ven (Onyx) aus der Office-Collection für vermutlich nicht gerade billige 59 Öcken (zumal es sich schon um ein Auslaufmodell handelt).

Von diesen Brillen erfahren habe ich zum ersten Mal beim Schauen der von EA-gesponserten Reality-Serie The Controller – Battlefield 3 (und darauf bin ich durch FPS Russia gestoßen, der wohl bei der Aufzeichnung der 2. Staffel mit dabei war). Dort trug Kelly “MrsViolence” Kelley eine solche Brille beim Spielen und mich hat natürlich interessiert, für was das gut ist. Lange Rede kurzer Sinn: Ich habe mir mal eine zum Testen geholt. Dank zwei Wochen Widerrufsrecht ist das ja kein großes Problem.

Sinn und Zweck

Aber was bringen diese Brillen denn? Nun, ich sitze fast täglich mindestens 10 Stunden, meist noch mehr, vor einem Rechner. Das ist bekanntlich nicht wirklich gut für die Augen und führt zum Computer Vision Syndrom (brennende Augen, Kopf- und Nackenschmerzen, allgemeine Müdigkeit und derlei Kram). Auch ich bemerke das leider immer wieder. Und wer kennt das nicht: Das Zimmer ist dunkel und man macht ein Word-Dokument auf oder beim Spielen eines Assassin’s Creed blendet einen das grelle Weiß. Genau hier setzen die Brillen von Gunnar Optiks an. Es gibt zwar auch noch andere Hersteller, aber Marktführer ist derzeit wohl tatsächlich Gunnar Optiks.

Die nutzen die hauseigene i-AMP Technologie. Damit sind logischerweise die Brillengläser gemeint. Diese sind gelb getönt und besitzen eine Stärke von +0,2 Dioptrin. Das ist angeblich schwächer als die schwächste erhältliche Lesebrille. Die gelbe Tönung filtert die Blautöne aus der Szene heraus und soll so irgendwie für ein schärferes Bild sorgen (ganz verstanden habe ich das alles nicht, muss ich zugeben :smile:). Zudem dringt dadurch weniger Licht zu den Augen, was wiederum zu einem dunkleren Bild führt und Überstrahlen verhindert. Sprich das grelle Weiß brennt nicht mehr so in den Augen. Unter Windows beziehungsweise beim normalen Arbeiten macht sich allerdings ein starker Gelbstich bemerkbar. Ich habe mich mittlerweile allerdings schon dran gewöhnt. Zumal das auch zu einem stärkeren Kontrast führt. Es ist echt ein himmelweiter Unterschied mit und ohne Brille Texte zu lesen. Dazu tragen auch die +0,02 Dioptrin bei. Die sorgen nicht nur für eine Vergrößerung des Sichtfelds, das Bild wird also etwas vergrößert, sondern machen es auch noch schärfer (die auch? Wie gesagt, ich kapier da auch nur die Hälfte).

Beim Spielen

Das wiederum hat einen Vorteil beim Spielen, wo auch der Gelbstich nicht mehr wirklich auffällt. Speziell in einem schnellen oder effektreichen Shooter wie Quake Live oder Battlefield 3 habe ich nicht nur das Gefühl besser die Details erkennen zu können, sondern merke definitiv auch, dass sich meine Augen nicht mehr ganz so stark beansprucht werden. Vor allem in Battlefield 3 blitzt ja ständig irgendwas auf dem Bildschirm auf.

Überraschenderweise kann ich mich als Nichtbrillenträger über den Tragekomfort nicht beschweren. Selbst mit Headset drückt da nichts. Ich merke zwar natürlich, dass ich etwas auf meiner Nase sitzen habe. Aber ich vermute, dass geht mit der Zeit auch weg. Habe die Brille ja erst seit ein paar Tagen.

Einen dicken Negativpunkt gibt es allerdings dann doch: Die Gläser sind nicht entspiegelt. Je dunkler es im Zimmer wird, desto deutlicher bemerke ich tatsächlich ein leichtes bläuliches Schimmern auf beiden Augen. Quasi wie so ein undeutliches Bild-im-Bild. Bislang hat es mich noch nicht massiv gestört. Aber es ist sicherlich nicht jedermanns Sache. Und irgendwie scheint mein Kopf ziemlich fettig zu sein. Bin ständig nur am Putzen der Innenseite. Hier wäre mal ein Bericht von erfahrenen Brillenträgern interessant, für die es übrigens auch eine verschreibungspflichtige Variante der Gunnar-Gläser gibt. Setze ich die Brille vielleicht zu weit hinten auf?

Bagdadsoftware meint: Noch bin ich mir nicht sicher, ob ich die Brille tatsächlich behalte. Dazu muss ich sie erst noch ein paar Tage testen. Aber meine ersten Erfahrungen damit sind überraschend positiv. Hätte wirklich nicht gedacht, dass das so ein Unterschied ist, sondern es (wie vermutlich jeder) mehr für ein Gimmick gehalten. Speziell beim ganz normalen Arbeiten, und damit verbringe ich ja 90% meiner Zeit vor dem Rechner, empfinde ich die Brille bislang als klare Verbesserung.

Natürlich sind 60 bis 100 Euro nicht gerade billig für so etwas. Andererseits stimme ich den anderen Testern im Internet zu, die argumentieren, dass der Preis für die langfristige Gesundheit der eigenen Augen sogar ziemlich günstig ist. Meine Empfehlung deshalb: Wenn ihr viel vor dem Rechner sitzt, dann solltet ihr sie definitiv mal ausprobieren. Schaden tut es auf jeden Fall nicht.

Ende Oktober soll Windows 8 in den Handel kommen. Bislang weiß ich noch nicht wirklich so richtig, was ich davon halten soll. So richtig mit beschäftigt habe ich mich aber damit auch bislang gar nicht. Hier und da mal einen Artikel gelesen über die ein oder andere Funktion wie dem überarbeiteten Dialog für das Verschieben/Kopieren von Dateien oder die Einführung des Ribbons im Windows Explorer. Aber das war es dann schon ziemlich.

Wobei der große Aufhänger natürlich die Metro-Oberfläche ist. Aber den Punkt sehe ich sogar eher gelassen. Was war das Geschrei groß, als Windows XP seine Luna-Oberfläche eingeführt hat. Und dann wurde wieder geschrien als Vista das Aero-Design brachte. Als bei Office der Ribbon kam, wurde auch wieder groß gejammert. Und am Ende hat sich alles nicht nur als halb so wild, sondern als größtenteils tatsächlich sinnvoll herausgestellt. Und genauso wird es auch garantiert auch bei Metro sein.

Und ansonsten scheint es schlicht eine logische Weiterentwicklung von Windows 7 zu sein. Optisch (leider) wieder etwas flacher, im Inneren wieder etwas optimierter. Von daher mache ich mir da keine großen Gedanken. Ich will Ende des Jahres einen neuen Rechner zusammenbauen und da kommt dann ganz klar Windows 8 drauf.

Beratung

Beim Thema “neuer Rechner” lasse ich mich natürlich dann wieder von Azzkickr und neuerdings auch Dod ausführlich beraten. Eine meiner Ideen ist sogar aus dem Beratungsgespräch mit meinen dämlichen Fragen und völliger Ahnungslosigkeit einen Podcast zu machen. Wäre sicherlich interessant anzuhören. Aber schauen wir mal, wie sich das noch so entwickelt und vor allem wie die zwei überhaupt Zeit haben. Zusammen bringe ich die aber auf jeden Fall nochmal dieses Jahr und wenn es nur wieder für den Hardwarejahresrück und -ausblick ist.

Und nein, ich werde mich von dem Aufrüst-Vorhaben nicht mehr abbringen lassen. Höchstens eine Verschiebung ins Frühjahr 2013, wenn tatsächlich noch interessante Hardware oder bessere Preise zu erwarten sind. Aber das ich mir in nächster Zeit was Neues baue, ist beschlossene Sache und kann nur von einem Weltuntergang oder unvorhergesehenen großen Ausgaben verhindert werden (eine Yacht wird ja nicht mehr als ein paar hundert Euro kosten, oder?). Kann ja nicht angehen, dass Azzkickrs olle Mühle besser ist als meine! Aber ich bin auch tatsächlich schon wieder etwas unzufrieden mit der Leistung. Bescheuert, ich weiß. In Zeiten wo die Entwicklung von Konsolen gesteuert wird und ein fünf Jahre alter Rechner noch locker für aktuelle Titel ausreicht eigentlich völliger Blödsinn. Aber ich bin Hardcoregamer und auch immer noch Redakteur, da brauche ich einfach noch MEHR POWER. Und ich bin an dieser Stelle total traurig, dass ich keinen passenden Soundclip auf YouTube dazu finde (ihr wisst schon, aus Hör‘ mal wer da hämmert)… :sad:

Die wichtigste Frage ist entsprechend nur noch: Behalte ich meinen aktuellen Tower oder nehme ich da auch was Neues? Die Antwort darauf gibt es vermutlich dann, wenn ich weiß, ob ich einen Käufer für das Ding finde oder nicht.

Nervig

Die Sache mit den alten Teilen ist für mich auch immer das Nervigste an der ganzen Aufrüstthematik, sonst würde ich es vielleicht sogar öfters machen. Ich hänge da jetzt nicht dran. Ich hätte sogar sehr gerne meinen Schrank leer. Aber ich weiß nie, was das Zeug eigentlich wert ist. Ich hab keinen Schimmer davon, wie man es richtig anbietet. Mir kraut es immer davor, wenn es zu Problemen kommt (geht nicht, ist nicht wie vorgestellt und der ganze Mist). Und dann ist mir eBay mittlerweile auch zu suspekt geworden mit den ganzen Abmahnungen und aggressiven Mitverkäufern.

Somit habe ich hier wirklich sehr viel Zeugs (Joysticks, Gamepads, CPUs, Tastaturen etc.) rumliegen, das viel zu schade ist zu Gut ist zum Wegschmeißen, aber ich finde auch keinen anständigen Weg es los zu bekommen. Muss vielleicht doch mal die neuen Dienstleistungsangebote von Verkaufsagenten in Anspruch nehmen, die dank eBay aus dem Nichts entstanden sind. Klar, die wollen teils heftig viel Provision (25% teilweise). Aber ein bisschen Geld für das Zeug ist halt immer noch mehr als gar keins beziehungsweise mit jedem Tag, wo es rumliegt sogar noch weniger Wert. Gibt sogar in der näheren Umgebung einige.

Oder bietet sich vielleicht einer meiner Leser an? Ich meine das wirklich ernst! Ich bin da gerne bereit zu bezahlen oder Dienstleistungen anzubieten. Ich gehöre definitiv zu der Generation, die nicht unbedingt immer alles selber machen muss, sondern eine angebotene Dienstleistung auch gerne in Anspruch nimmt :smile: .

Epilog

Nun aber genug gejammert: Am Montag hat Kessy ihren großen Auftritt. Geburtstag hat sie zwar erst am Dienstag, aber für die größenwahnsinnige Diva werde ich ganz sicher nicht meinen Veröffentlichungszyklus anpassen! Die kann euch auch an einem Montag ihr Leid klagen.

Bagdadsoftware and the Curse of the Hard Disk Drive

Ich und Festplatten. Irgendwie verträgt sich das einfach nicht. Was ich schon einen Verschleiß über die Jahre hatte kann einfach nicht normal sein. Das obige Bild wurde 2005 angefertigt, weil es schon damals so schlimm war. Und seitdem ist es nur marginal besser geworden. Bin ich echt so ein extremer Power-User, dass unter meiner Nutzung die Hardware so schnell ihre Betriebsstunden überschreitet? Ist vielleicht die Qualität der heutigen Modelle so beschissen? Oder liegt es einfach nur an Seagate (die scheinen mir am häufigsten Wegzusterben)?

Ich weiß es nicht. Ich weiß nur, dass meine externe Festplatte (Buffalo DriveStation Combo 4, hat eine Seagate 1TB-Platte drin) mehr als offensichtlich in den letzten Zügen liegt. Gibt wohl unreparierbar kaputte Sektoren. Das Prüftool bricht schon nach wenigen Sekunden ab. Dabei habe ich sie erst im März 2011 gekauft! Während ich diese Zeilen schreibe, tröpfelt entsprechend die Datensicherung (zum Glück nur ca. 240GB) langsam aber stetig durch das USB-Kabel. Geht zwar sehr langsam, aber es sieht so aus, als könnte ich alles retten. Morgen früh heißt es dann gleich mal die Hotline belästigen und die Reparatur/den Austausch anstoßen.

Komische Sache

Es ist auch nie ein schleichender Tod. Ich mache den Rechner am Abend aus und nach dem Einschalten am nächsten Morgen geht irgendwas nicht. Es kann mir aber keiner erzählen, dass der erhöhte Einschaltestrom schuld daran ist, dass plötzlich Sektoren kaputt sind. Und natürlich passiert es IMMER am Wochenende, damit man auch ja keine Chance hat gleich irgendetwas zu unternehmen. Wie gut, dass ich über die Jahre und dank mehrerer Totalverluste äußerst vorsichtig und vorausschauend geworden bin :smile: . Auf die Lernphase hätte ich aber natürlich trotzdem verzichtet (und das Geld für die eine Datenrettungsaktion).

Themenwechsel

Aber jetzt genug von meiner Festplatte. Gibt schließlich schlimmeres. Zum Beispiel das Finale von Risen. Ja, ich habe heute nach gut 25 Spielstunden das Ende gesehen. Nach meinem Gejammer am Donnerstag ging es aber erst einmal bergauf. Meine Schwierigkeiten lagen einfach nur darin begründet, dass ich zum einen Magier spielte und zum anderen zuerst das “unwichtige” Zeugs wie Schlösser knacken und Schleichen geskillt hatte. Als ich dann endlich ein paar Punkte in meinen Hauptzauberspruch investiert hatte, wurde es besser.

Von mir gibt’s 4 von 5 Sics. An das Vorzeigewerk des Studios, Gohtic 2 (plus Addon), kommt auch Risen einfach nicht ran. Den einen Punkt Abzug gibt es aber nicht nur wegen besagtem Finale. Das Spiel hat auch so hier und da seine kleinen Ecken und Kanten, die mir selbst oder gerade bei einem Piranha Bytes sauer aufstoßen. Zum Beispiel die Tatsache, dass es auf den Friedhöfen keine lustigen Grabinschriften mehr gibt. Wie kann man dieses immens wichtige Element bitte streichen? Gerade diese Liebe zum Detail hebt doch europäische Rollenspielproduktionen von amerikanischer Massenware à la The Elder Scrolls ab! Stattdessen gibt es zwei, drei generische Sätze wie “So enden wir alle mal”. Das ist doch doof.

Und dann gibt es erneut keine Schafe! Haben die Jungs denn nichts aus dem Gothic 3-Debakel gelernt? Da haben wurden sie auch schon rausgelassen! Ich kann ja verstehen, dass die Hardwareanforderungen bei korrekt simulierter Schafswolle etwas ansteigen. Aber ich hatte doch schon 2006 schriftlich festgehalten, wie wichtig Schafe in einem Spiel sind.

Das Finale

Risen HerstellerbildAch, ihr wollt jetzt auch noch von mir wissen, was ich an dem Finale auszusetzen hab‘? Nun, das kann ich euch sogar ohne zu Spoilern genauer erläutern:

Ich arbeite das ganze Spiel über daran der mächtigste Magier aller Zeiten zu werden. Dann erhalte ich im vierten Kapitel plötzlich die Aufgabe eine saumäßig schwere Rüstung und einen Satz Waffen einzusammeln — und bekomme sie ohne mein Zutun beim Betreten des Endgegnerraums angezogen. Für was habe ich jetzt so viele Stunden Magier gespielt, wenn ich im finalen Kampf doch wieder auf Tuchfühlung gehen muss und meine mächtigen Zaubersprüche nichts ausrichten können? Da hätte ich auch gleich einen auf Krieger machen können. Da hätte doch spätestens beim Designen der Axt einer auf die Idee kommen müssen, dass da was falsch läuft. Wenn ich dem Spieler ein Item in die Hand drücken muss, dass sofort alle seine Boni auf einen bestimmten Wert hebt, damit er das Finale schafft, dann sollte mir das als Entwickler durchaus zu denken geben.

Wenn dann wenigstens der eigentliche Kampf ein cooles Spektakel wäre. Aber das Biest ist langweiliger als ein Bossmob in einem MMO. Immer die gleiche Routine, der man ohne Probleme ausweichen kann. Da ist es fast schon gut, dass er bereits nach sieben Treffern im Dreck liegt. Dieser lasche Kampf hat noch weiter das Gefühl verstärkt, dass ich mir die vielen Spielstunden auch hätte sparen können und das wiederrum führt tatsächlich dazu, dass mein Spielspaß bis zu diesem Punkt nachträglich getrübt wird.

Wäre ich direkt nach dem Spielstart zu ihm gegangen, wäre das Ergebnis schließlich das Gleiche gewesen. Wenn mein Charakter zu diesem Zeitpunkt so extrem stark ist, dass es fix geht wie zum Beispiel in Gothic 2, dann ist das wieder ein anderes Thema. Aber die Schlüssel zum Sieg direkt vor dem Endgegner in die Hand gedrückt zu bekommen ohne Rücksicht auf bisheriges? Unfassbar. Und wehe es kommt mir jetzt einer mit dem Ende von Mass Effect 3! Das ist überhaupt kein Vergleich dazu.

Epilog

Nun aber genug aufgeregt. Risen 2: Dark Waters wartet. Und Sniper Elite V2. Aber dazu werde ich erst einmal keinen langen Text schreiben. Bislang ist die, angeblich vorhandene, deutsche Version nämlich noch nicht erhältlich und bevor ich wieder mal mir die Finger wund schreibe und dann nach der Indizierung alles entferne, warte ich lieber erst einmal ab. Wer trotzdem schon einmal ein kurzes Zwischenfazit haben möchte, der möge sich über die üblichen Kanäle an mich wenden.

Das heutige Thema wird vor allem für die Zocker unter euch brisant sein, welche sich öfter im Mehrspieler-Modus (künftig nur noch als MP bezeichnet) von Spielen aufhalten. Genauer gesagt möchte ich auf die vorherrschenden Verbindungsvarianten für Multiplayer-Partien eingehen. In letzter Zeit habe ich besonders durch meine Zuwendung zu den verschiedenen Online-Plattformen einige Mehrspieler-Titel mehr als noch vor zwei Jahren gespielt und bin teilweise überrascht, was für Wege Spiele im MP mittlerweile eingeschlagen haben. In der Müsli-Schüssel meines Blickfelds habe ich natürlich zahlreiche Inhalte aus den Zerealien Packungen Steam, Origin, Ubi-Patcher, sowie eine Messerspitze Games-for-Windows-Live, doch keine Sorge in diesem Eintrag will ich nicht (!) auf diese Plattformen eingehen, sondern bei der Art der Verbindungsfindung bleiben. Da ich außerdem weiß, wie tief man sich in technisch Hinsicht in dieses Thema hinein winden kann, will ich versuchen es möglichst einfach zu halten. Verschiedene Varianten werde ich daher unter einem Schlagwort mit Beispiel zusammenfassen. Ich hoffe daher, dass die Informatiker-Lichs mir das vergeben werden. Wie jede wissenschaftliche Abarbeitung solcher Themen, verwende ich für die Einleitung das gleichermaßen oberflächliche, wie auch Ideen-arme Stilmittel des Zitats auf die Frage: „Was ist eigentlich (grob gesprochen) Konnektivität?“ Eine nicht näher beschriebene Enzyklopädie liefert wie zu Schulzeiten die Antwort:

Unter Konnektivität versteht man eine Verbindung oder die Art und Weise einer Verbindung bzw. die Verbindungsdichte. Der Begriff wird verwendet […] in der Informatik für die Verbindungen eines Netzwerks. (wikipedia)

Soweit so gut, doch welche Möglichkeiten der Verbindung werden heute genutzt? Gehen wir zielführend von einer Breitband-Internetverbindung oder Vergleichbarem aus, die zum Online-Spielen sowieso benötigt wird. Ihr startet in der Regel euer Spiel und wählt im Menü den entsprechenden Mehrspieler-Modus aus. In der klassischen Variante verbindet euer Spiele-Klient dann mit einem Spiele-Server und das Spiel kann im Grunde fast schon los gehen. Man wählt einen Raum, ein Spiel und teilweise auch die Mitspieler aus und sticht gemeinsam in See. Die Partie wird von einem dazwischengeschaltetem Server überwacht, die Eckdaten für das Spiel (Ressourcen, Lebenspunkte etc.) werden ein-, ausgelesen und damit dem Server übergeben. Der Austausch findet in dieser vereinfachten Darstellung indirekt statt. Die persönliche Suche an sich wird heutzutage größtenteils durch das Matchmaking-System abgelöst, wie es bei den letzten Call of Duty-Ablegern, Quake Live oder Skydrift (im Ansatz) der Fall ist, welche aber alle in sich keine herkömmliche Klient-Server-Beziehung unterhalten. Warum bloß? Dieses herkömmliche System ist jedoch mitunter am Aussterben und dies allein schon durch die Struktur der Sache selbst bedingt. ‘Natürlicher Weise’ in Anlehnung an die natürliche Auslese müsste man fast schon anhängen, denn aktive Spieler der Post-Moderne kennen mindestens ein Spiel, dass mittlerweile die Funktion des MPs nicht mehr beinhaltet, da die notwendigen Server zum Verbindungsaufbau abgeschaltet wurden. In nur wenigen Fällen (das bedeutet wenn DirectPlay ähnliche Funktionen enthalten sind) lässt sich noch ein Mehrspieler-Erlebnis generieren, wenn der Publisher beziehungsweise Entwickler den Service eingestellt hat. Zur Not unter Zuhilfenahme von lokaler Netzwerk-Emulationssoftware wie Garena oder hamachi lässt sich falls DirectPlay (…) nur über LAN vorgesehen war, über Internet miteinander beziehungsweise gegeneinander spielen. Die großen Nachteile dieser Technik liegen also in der Abschaltung des Services. Mit der Einverständnis-Erklärung akzeptiert man allumfassend bereits mit der Installation der Software, dass man auf diesen Fall hingewiesen wurde und man sich der Entscheidung des Herstellers oder Publishers selbstlos ausliefert.

Warum ist es fast schon Natur-notwendig, dass diese Form ausstirbt? Mit immer größer werdenden Spielerzahlen entstehen vor allem bei MMOs mehr Kosten pro Spieler und dies allein schon durch die Infrastruktur. Obwohl die Hardware-Preise für den Privatmenschen stark am sinken sind, sind die Preise für Server-Hardware in der Relation noch hoch, aber nicht unbezahlbar. Verschärfend kommen jedoch die Wartungskosten durch Personal, die Kühlung der Anlage und Lokalisation der Serverfarmen hinzu. Genauso gibt es auch regelmäßige Backups und selbst bei vernünftigen Serverstrukturen hat man doch mindestens den 1,5fachen Bedarf an Speicherplatz, als die eigene Datenmenge überhaupt ausmacht. Durch Anmietung ist alles in einem Pauschalpreis enthalten, bei eigenen Techniken, wie es bei Guild Wars der Fall ist, fallen aber für die eigene Infrastruktur noch extra Verwaltungskosten für alle laufenden Vorgänge an.

Ein kurzer Exkurs: Natürlich ist Guild Wars hier kein Ideal-Beispiel, da es eine einzigartige Streaming-Technik benutzt und einen intelligenten Patcher verwendet. Auch spielt dem Entwickler die Instanzierung der Spielewelt in die Hände, was Aktualisierungen betrifft. Ich denke aber es sollte jedem klar sein, dass eigene Systeme, meist auch von den eigenen Mitarbeitern gewartet werden. Ein Leopard II wird ja schließlich ohne seinen deutschen Ingenieur auch nur halb so alt.

S4 League hat die klassischen Merkmale eines Peer-to-Peer Systems. Genau genommen stimmt dies aber nicht, da man vor dem Spielstart zu einem zentralen Account-Server verbindet. Darüber hinaus gibt es einen eigenen Server für den Ingame-Shop und die Spiele-Server sind in Regionen unterteilt, womit das Adjektiv ‘zentral’ auch wieder relativiert wird. Blenden wir diese Faktoren jedoch aus, erhalten wir das Bild einer reinen P2P Connection. Spieler A möchte gerne ein Spiel spielen, er bzw. sie erstellt einen neuen Raum. Spieler B tritt diesem Spiel bei. Beide Spieler laden die Daten der eingestellten Karte und ballern sich munter gegenseitig in ihrem eigenen kleinen Spiel um. Während des Spiels werden ständig Daten, wie Lebenspunkte und Position ausgetauscht: Downloads der Informationen des Gegenübers und Uploads der eigenen Daten. Durch den ständigen Wechsel, hat man zwar einerseits die Aufteilung der Gesamtlast, die sonst ein dedizierter Server an beide Parteien übermitteln sollte anders verteilt, andererseits bleibt jedoch eine Umschreibung ähnlich des Klient-Server-Systems vorhanden. Mit zunehmender Spieleranzahl multipliziert sich der Vorgang.

In meinen Augen ist dieses System wesentlich anfälliger für Fehler. Während bei der Beziehung zum Spieleserver Berechnungen angestellt werden, wie wahrscheinlich gelieferte Werte sind, ist es im P2P Netzwerk nicht ohne weitere Beanspruchung des empfindlichen Datenaustauschs möglich, diese Werte weiter nachzuprüfen. Hieraus ergeben sich zwei Konsequenzen: Ein Spieler hat entweder aus technischen (schwache Hardware, fehlerhafte Software, schwache Internetverbindung) oder niederen Gründen (Hacks oder Skripts etc.) Einfluss auf den normalen Spielablauf, abseits des vorgesehenen Spiels. In S4 League kommt es sehr oft vor, dass Verbindungsverzögerungen (lags) dafür sorgen, dass Spieler, die bereits hinter einer Deckung sind, noch getroffen werden, da ihr Ping zu schlecht ist. Dadurch können sie von Spielern mit besserer Verbindung längere Zeit getroffen werden, als es den Spielern selbst dargestellt wird. Im umgekehrten Extremfall ist die Situation allerdings noch schlimmer: Spieler mit besserer Internetanbindung haben das Problem, dass Spieler mit sehr schlechten Down- und Uploadraten weder an der aktuell angezeigten Position Schaden empfangen können, da der Client schon weiter gelaufen ist, noch ist es Spielern mit guter Anbindung möglich sich vor Schäden durch Lagger zu schützen. Der zuletzt genannte Fall kommt durch die Übermittlung des Treffens an der alten Position zum alten Zeitpunkt zu Stande. Hacker machen sich diesen Umstand durch das Einspeisen von Position und Lebenspunkten zu nutze, um damit eine erhöhte Bewegungsgeschwindigkeit oder volle Lebensanzeige vorgaukeln zu können. In meinen Augen sind Hacker aber seit der Einführung von Kick-Votings das geringere Problem geworden. Zwar sorgen sowohl Lagger als auch Hacker für eine Instabilität des Servers, ein Hacker lässt sich jedoch wesentlich leichter und vor allem eindeutig identifizieren. Sobald wir in unserem Beispiel die Teilnehmer ändern und einen internationalen Server vorliegen haben, können wir Scotland Yard um die ganze Welt spielen. Und auch hier beachten wir nur die Bandbreite und lassen sogar noch den Internet-Anbieter außen vor.

Viel mehr als der Anbieter oder die Bandbreite spielt jedoch noch die Hardware der Spieler mit in den Pool an Schwierigkeiten. Ein besser ausgestatteter Rechner lädt die Spielkarten ganz anders, sprich mit mehr Details und Effekten. Je prunkvoller die Darstellung einer Aktion ist, desto mehr kann mitunter ein Rechner der mit minimalen Details dies nicht berechnet, konstant weiterlaufen, während ein Gaming-PC plötzlich eine zusätzliche Komponente zu berechnen bekommt. Sprunghaft kann es also bei einem Spieler mit guter Schleuder und starkem Durchsatz zu einem kurzzeitigen Anstieg des Pings kommen, der natürlich wieder Einfluss auf den ganzen Server hat. Daran anhängend die Treiber für die Computer-Komponenten und nicht zuletzt die Einstellung der Firewall, des Routers und den damit einhergehenden NAT- oder Port-Regeln. Die häufigste Ursache für instabile Server in S4 League ist höchstwahrscheinlich eher eine falsche Konfiguration des Routers, als eine schwache Internetverbindung.

Auf reines P2P setzen die größeren Spielschmieden im Normalfall recht ungern. Um aber zusätzlich den Kosten einer Serverfarm entgegen zu wirken, stellt Electronic Arts beispielsweise für Battlefield 3 zwar eigene Server zum Spielen bereit, aber gibt auch an Dienstleistungs-Anbieter Lizenzen weiter um offizielle Server vermietbar zu machen. Die offiziellen Server werden dadurch besonders, dass man nur so das Suffix „ranked“ an den Server anhängen kann und die freischaltbaren Waffen, Gadgets und Fähigkeiten einzig und allein auf diese Weise zu erhalten sind. Durch die Beteiligung am Gewinn in Form der Verkäufe spart sich Electronic Arts zusätzlich also noch Verwaltungskosten für die Vermietung, was auch nicht ganz ungeschickt ist. Interessierte Clans und Spieler mieten sich also dedizierte Server, damit jene sich selbst refinanzieren, denn die Kosten sind ja nur vom normalen Betreiber zum Vermieter verschoben worden. Insgesamt also ein sehr anschauliches Beispiel, wie die Design-Elemente freischaltbaren Gegenstände, die achievements und der ePenis-Rangaufstieg dazu beitragen, dass sich das ganze System mit genügend Spielern selbst tragen kann. Der einzelne Spieler trägt bei Nicht-Beteiligung am Mieten keine weiteren Kosten, außer jenen für das eigene Spiel, ist aber in gewisser Hinsicht dennoch auf die Gunst der zahlenden Spieler für einen Server angewiesen. Dieser Umstand erinnert mich doch in den Grundzügen an das gute alte Free-to-Play System mit Cash-Shop. Lediglich die Verpackung ist hübscher und weniger penetrant.

Für den kooperativen Spielmodus verwendet man übrigens ein reines P2P System, da aufgrund des bescheidenen Umfangs wohl kaum Menschen einen Server nur für den Koop-Modus mieten würden. Im Coop werden die beiden Spieler mittels Battlelog, einem in den Browser ausgelagerten Server-Browser mit Facebook-Bedienoberfläche, synchronisiert. Erfolge in den Missionen werden nach Abschluss einer Mission an den Account-Server zurückgesendet. Alle Verbindungsverluste der Spieler untereinander führen dann auch logischer Weise zu einem Verlust der Daten für den Account-Server. Und auch hier noch der Einwurf: der reguläre MP von Battlefield 3 setzt auch stellenweise reine P2P Mechanismen ein. Um überhaupt Kartengrößen wie beim Add-on Back to Karkand möglich zu machen, werden Daten unter den Spielern auf „Sichtweite“ selbst auch ohne Server-Zwischenschaltung ausgetauscht. Diese Lücke sorgte in der Vergangenheit für viele Probleme mit Cheatern, da nicht übermittelte Pakete auch schlecht von den natürlichen Schutzmechanismen überprüft werden können.

Darum schließlich und endlich die Frage ans Publikum: Was würdet ihr euch für die Zukunft wünschen?
Wollt ihr eine durchgängige Hybrid-Lösung, die weiter geht, als bloß eine Verbindung zu einem Account-Server, während die eigentlichen Matches zwischen den Spielern geladen werden? Oder seid ihr mit den jetzigen Varianten zufrieden? Welche Methode würdet ihr euch für eines eurer Spiele wünschen oder bei welchem Spiel hat die Art der Verbindung dafür gesorgt, dass ihr es gar nicht mehr spielen konntet / wolltet?

Und noch einen Happen für die DRM-Feinde unter den Lesern:

Während der Trend der Publisher also einerseits dazu geht uns mit Plattformen zu binden und legale Käufe zu sichern, sorgt andererseits die verschachtelte P2P Lösung zur Kosteneinsparung im Multiplayer dafür, dass wir Spieler weit größere Probleme in einer Partie mit Eingriffen von außen bekommen (werden). Sei es nun aus technischen fast schon entschuldbaren Gründen (“Kauf dir Internet, du Lagger!” – “Geht nicht, ich wohn’ auf’m Dorf!”) oder niederen Beweggründen, wie Cheaten. Verliert der moderne Spieler also mal wieder doppelt?

« Vorherige Seite - Nächste Seite »