So trickst man stromhungrige Spiele-Computer aus
Im Lockdown hat diese Art der Freizeitgestaltung noch einmal einen Schub bekommen - mit Folgen für die Stromrechnung. Mit diesen Tipps sinkt der Verbrauch.
Computerspiele waren schon vor der Corona-Pandemie ungemein beliebt. Allein für Deutschland geht man davon aus, dass rund 34 Millionen Menschen regelmäßig zum „Zocken“ am Computer sitzen. Der durchschnittliche „Gamer“ ist dabei 37 Jahre alt, 15 Prozent der Spieler sind über 60 – es handelt sich also keineswegs um ein reines Jugendphänomen.
Und Corona hat wohl nicht nur in der Arbeitswelt, sondern auch bei der Freizeitgestaltung den Trend zur Digitalisierung nochmals verstärkt – sprich im Lockdown wird deutlich mehr am Computer oder an der Konsole gespielt. Damit dürfte auch der Stromverbrauch in diesem Bereich weiter gestiegen sein. Konkrete Zahlen, was das „Gaming“ hierzulande für den Energieverbrauch bedeutet, fehlen bislang.
Für Kalifornien gibt es eine Studie. Demnach gehen dort fünf Prozent des Stromverbrauchs und 1,5 Millionen Tonnen CO2 allein auf das Konto von Computerspielen. Immerhin gibt es Berechnungen, wonach ein Spieler in Deutschland, der täglich vier Stunden mit Computerspielen am PC verbringt, dafür 135 bis 170 Euro im Jahr für Strom ausgibt. Stellt sich die Frage, wie man als „Gamer“ die Stromkosten senken kann?
Geräte ziehen im Ruhezustand viel Strom
Einer der wichtigsten Tipps laut: Das Gerät wirklich ausschalten, wenn man gerade nicht spielt – auch wenn das manchmal schwerfällt, weil man häufig ein bestimmtes Level erreicht haben muss, um das Spiel speichern zu können. Aber oft ziehen die Geräte im Ruhezustand fast genauso viel Strom wie beim Spielen selbst. Will man während einer Spielpause seinen Rechner aus besagtem Grund nicht in den Ruhestand schicken, sollte man immerhin den Monitor abschalten.
Zudem raten Experten, das Gerät auf den eigenen Bedarf abzustimmen. Desktop-Computer ziehen meist deutlich mehr Strom als Konsolen, Laptops sind besonders effizient. Untersuchungen haben ergeben, dass der Stromverbrauch bei ein und demselben Spiel je nach verwendetem Endgerät um das 20-fache höher sein kann. Ebenfalls interessant in diesem Zusammenhang: besonders günstige Prozessoren oder Grafikkarten können auf längere Sicht ins Geld gehen, weil sie mehr Strom als teurere, aber energieeffizientere Komponenten verbrauchen. Beim Gerätekauf sollte man also unbedingt auf den Energieverbrauch schauen – auch beim Bildschirm: 4K-Monitore können den Stromverbrauch um 50 Prozent erhöhen.
Echte Energiefresser sind sogenannte Shader. Sie sorgen für eine realistischere Darstellung der Spielszene auf dem Bildschirm, lassen aber den Stromverbrauch in die Höhe schnellen. Daher gilt: Shader ausschalten. Schlecht in puncto Energiebilanz ist auch das Übertakten des Grafikprozessors zur Leistungssteigerung. Dadurch zieht das System bis zu 40 Prozent mehr Strom. Aus energetischer Sicht empfehlenswert ist dagegen der Einsatz von Softwarelösungen wie Radeon Chill. Damit wird die Bildfrequenz herunter geregelt, ohne dass das Spielvermögen darunter leidet. Wie bei den anderen Tipps kann man auch hier mithilfe eines Strommessgeräts, das an die benutzten Geräte angeschlossen wird, die Einsparpotenziale ermitteln. Die Ergebnisse sind meist eindrucksvoll.
Streaming kostet sehr viel Energie
Immer beliebter bei den Spielern werden Cloud-Games. Diese laufen nicht lokal auf einer Konsole, einem PC oder einem Laptop, sondern werden gestreamt. Doch was viele nicht bedenken: Der Stromverbrauch ist um ein Vielfaches höher, als wenn das Spiel heruntergeladen wird.
Manche Experten fordern inzwischen, dass vergleichbar mit Elektrogeräten auch Computerspiele durch Effizienzlabels gekennzeichnet werden. Das ist noch Zukunftsmusik. Generell kann man sich an folgender Aussage orientieren: Je aufwendiger die Animationen und je detaillierter die Grafik, desto mehr Strom zieht der Spiele-PC aus der Steckdose. Experten gehen mittlerweile davon aus, dass in Haushalten, in denen viel am Computer gespielt wird, dadurch mehr Strom als durch den Betrieb des Kühlschranks verbraucht wird.
Martin Sambale ist Geschäftsführer des Energie- und Umweltzentrums Allgäu, kurz eza!
Lesen Sie dazu auch:
Die Diskussion ist geschlossen.
Selten so viel Käse gelesen, der das Rechercheniveau dieser Zeitung leider bestätigt. Hier schreibt jemand eine Kolumne über ein Thema von dem er offensichtlich keine Ahnung hat bzw. mit welchem der/diejenige nichts zu tun hat. Man weiß überhaupt nicht, wo man anfangen soll.
A) Welcher "Experte" fordert Energielabels für Videospiele (nicht die Hardware ansich)? Das klingt ohne Quelle stark nach "Ausgedacht weil es schön ins Konzept des Artikels passt". Davon höre ich zum ersten mal und auch Google spuckt nichts dazu aus. Ist auch in der Praxis völlig unrealistisch und nicht umsetzbar, da Spiele auf dem PC in der Regel eine Vielzahl von Grafikeinstellungen haben welche den Verbrauch ändern können und dazu auf einer Vielzahl unterschiedlichster Hardwarezusammenstellungen laufen können, welche ebenfalls einen ganz unterschiedlichen Verbrauch aufweisen. Das ergibt TAUSENDE von Kombinationen mit unterschiedlichem Verbrauch, was unmöglich mit einem Label abgedeckt werden kann. Ein WIRKLICHER Experte auf dem Gebiet würde wohl kaum so ein Label für die Spiele selbst fordern. Die einzige Faustregel wäre wohl: Je grafisch aufwendiger, desto höher ist der Stromverbrauch im Schnitt. Aber dafür braucht man wahrlich kein Label.
B) Shader abschalten: Das hieße auf eine bessere Grafik verzichten. Das ist, als schlagen sie jemandem vor aus Gründen des Stromverbrauches doch abends bitte nur noch das Fernsehprogramm oder den gewünschten Film über einen Onlinestream auf dem kleinen Handydisplay anzuschauen, da der Stromverbrauch des Handys deutlich geringer ist als der des 55 Zoll Fernsehers. Machen sie das zuhause auch oder würden das jedem empfehlen? Grafik gehört nun mal für sehr viele zum Luxus eines Spieles, wie ein Fernseher zum Filmabend gehört. Klar, das trifft nicht immer zu, aber für die meisten ist eine zeitgemäße Grafik nun mal angebracht. Warum eigentlich ausgerechnet "Shader"? War das der erste Begriff den sie gelesen haben? Warum nicht die Auflösung reduzieren? Die Texturqualität runterschrauben? Schattenauflösung reduzieren? Umgebungsverdeckung ausschalten? Oder vielleicht doch das Antialiasing? Anisotrope Filterung? Was verbraucht da nun eigentlich den meisten Strom? Können sie das beantworten? Wenn nicht, ist der Vorschlag "Shader zu reduzieren" völlig aus der Luft gegriffen.
Das sind erstmal zwei Punkte, für mehr fehlt mir leider die Zeit, aber vielleicht findet sich hier noch jemand anderes, der den Rest dieses unterirdischen Artikels auseinander nimmt.