Nun liegt es schon rund ein halbes Jahrhundert zurück, als ich mir meinen ersten Computer noch selbst zusammen lötete. Ich habe die ganzen Stationen mitgemacht: Von der selbstgebastelten Recheneinheit über die Homecomputer, die PCs mit den verschiedenen DOS-Versionen, später mit Windows und im Einzelfall auch hier und da mit Linux. Heute stehe ich der modernen Computerwelt ausgesprochen kritisch gegenüber. Es ist nicht so, dass ich die Dinger ablehne – ganz sicher nicht! Sie sind eine Arbeitserleichterung und wenn man sich die Leistung in Relation zum Stromverbrauch mal ansieht dann ist das im Vergleich zu früher sogar ein Beitrag zum Energiesparen. Die Anzahl von Computern darf man dabei allerdings nicht berücksichtigen, denn da früher nur wenige Leute über derartige Geräte verfügten und heute meist mehrere Computer auf einen Nutzer kommen (Stichwort Smartphones!) kehrt sich das Energiesparen alleine schon aufgrund der schieren Geräteanzahl um.

Früher war es usus, dass man, um die Hardware zum Laufen zu bekommen, die Software noch selbst programmieren musste. Das änderte sich mit dem Aufkommen der Homecomputer. Es existierten zig Computerzeitschriften mit abgedruckten Programmlistings. Die wurden abgetippt und man hatte seine Software. Spätestens dann, wenn es an die Suche nach und die Beseitigung von Tippfehlern ging, begann man auch so nach und nach, die Programmierung selbst zu begreifen. Sicher, das war ein mühsamer und steiniger Weg – aber auch ein lehrreicher Weg. Damals wurde mit den abgedruckten Listings Kasse gemacht, und zwar in Form von Zeitschriften und Büchern. Allerdings handelte es sich dabei doch eher um Nischenprodukte. Das änderte sich mit dem Aufkommen der PCs und den auf Datenträgern bereitgestellten Programmen: Plötzlich war ein Markt da!

Galten die ersten PCs noch als nahezu unerschwingliche Statussymbole, so änderte sich das binnen knapp eines Jahrzehnts gravierend. Es handelte sich um das Jahrzehnt zwischen 1980 und 1990, in dem Unternehmen wie bspw. Microsoft groß wurden. Das Internet existierte noch nicht. Es gab DATEX-P, STN, BTX u. ä. Netzwerke. Man kaufte Hardware und Software getrennt und fügte das dann selbst zusammen. Die Rechner wurden überwiegend offline betrieben und was man gekauft oder programmiert hatte, das gehörte einem auch. Die Daten blieben beim Anwender; da hatte niemand Zugriff drauf. Kasse machten die Händler von Hard- und Software und mancher IT-Betrieb, der das Zusammenfügen und Warten beider Komponenten übernahm, wenn der Anwender damit überfordert wurde. Kasse machten auch die Programmierer der Software, denn solche Spezialisten gab es nicht viele.

Zu Anfang der 1990er Jahre wurde das Internet entwickelt, zunächst lediglich in den USA verfügbar und so um 1993 herum schwappte es auch nach Europa, wo es vorzugsweise seitens der Hochschulen und Universitäten zum Einsatz kam. Auf längere Sicht wurden nun neue Rechnerarchitekturen und neue Features fällig, denn mit den alten Offline-Rechnern erwies sich eine I-Net-Nutzung als problematisch. Windows 9x erschien in zwei Versionen und bot die erforderlichen Möglichkeiten. Wieder waren es Software- und Hardwarehersteller, die Kasse machten. Zusätzlich allerdings auch noch die Provider. Eins blieb aber beim alten: Die PCs waren nach wie vor grundsätzlich offline voll betriebsfähig und die Daten blieben beim Anwender.

Das begann sich ganz schleichend unmittelbar nach der Jahrtauendwende ab Windows XP zu ändern, denn XP musste online aktiviert werden. D. h. damit wurde Microsoft erstmals ein – wenngleich auch sehr eingeschränkter – Zugriff auf den zuvor „persönlichen“ Rechner eingeräumt, auch wenn XP-Rechner immer noch recht gut offline betrieben werden konnten. Bis Windows 7 kamen immer mehr Microsoft-Produkte, für die man extra zu zahlen hatte, online hinzu. Bei Windows 8 entschloss sich Microsoft dann zur Einführung eines Microsoft-Kontos – ursprünglich noch freiwillig nutzbar – und ab Windows 10 im Jahr 2015 wurde besagtes Konto verpflichtend. Anders ausgedrückt: Der marktbeherrschende Softwarekonzern wusste jetzt ganz genau, was auf welchem Rechner an Software lief und mit diesen Daten ließ sich zusätzlich Kasse machen, während der Kunde für die Hard- und Software bezahlte. Der „perönliche“ PC wurde auf diese Weise schon absolut nicht mehr wirklich persönlich.

Ergänzend kam um etwa 2010 noch das Cloud Computing (oder kurz „die Cloud“) hinzu, wobei Amazon, Google und Facebook die Vorreiter waren – allerdings für ihre eigenen Dienste. Allgemein verfügbar wurde die Cloud erst ab etwa 2015. Cloud Computing bedeutet, dass man seine Daten verteilt auf Rechner irgendwo in der Welt hochlädt, wo sie vermeintlich verschlüsselt und vermeintlich sicher vor unbefugtem Zugriff verwahrt werden. Beides aber kann keiner wirklich kontrollieren und nach den Enthüllungen von Edward Snowden sind Zweifel an der Verschlüsselung und am Schutz vor unberechtigtem Zugriff mehr als nur angebracht. Es versteht sich von selbst, dass auch mit Cloud-Diensten so richtig schön Kasse gemacht wird. Was aber bleibt von der Privatsphäre des Users noch übrig, wenn er gutgläubig seine Daten aus reiner Bequemlichkeit einem Dritten überlässt? Braucht man in dem Falle überhaupt noch einen „persönlichen“ Computer? Oder gerät der PC, der „personal“ Computer, nicht vielmehr zum IC, zum „impersonal“ Computer?

Microsoft wäre nicht Microsoft wenn man sich dort nicht längst schon die gleiche Frage gestellt hätte, verbunden mit der Frage, wie sich dadurch Kasse machen lässt. Da trifft es sich gut, dass heute kaum noch jemand Programmierarbeit für den eigenen Gebrauch leistet und die vorhandene Software derart komplex ist, dass die wenigsten Leute sie vollständig bedienen können. Hier bietet sich doch die KI als Lösungsmöglichkeit geradezu an und wenn man beides, nämlich IC und KI miteinander kombiniert, und das dann obendrein noch den Leuten als neuestes und erstrebenswertes Feature unterjubelt (Stichwort „Microsoft Recall“), verbunden mit einem Betriebssystem im Abo (Stichwort „Windows as a service“), dann hat man die endgültige Methode zum Kasse machen gefunden: Man nötigt die Verbraucher zum Kauf von Hardware, zu zig teuren Software-Abos, greift deren Daten ab und kann die auch nochmal vertickern! Mit anderen Worten: Man lässt die Leute dafür bezahlen, dass man sie zur Kasse bittet. So geht Raubtierkapitalismus! Oder, wie Bill Gates einst sagte: „Business is war!“

Es wird wohl nur wenige Anwender geben, die sich Gedanken über die Folgekosten eines Computers machen. Aber nehmen wir mal einen topmodernen Copilot+ PC. Der ist für eine Lebendauer von zwei Jahren gebaut. Hoffen wir, dass Microsoft keine Updates mit exorbitanten Hardware-Anforderungen mehr ausrollt (was im Übrigen jederzeit geschehen kann) und geben wir ihm großzügig drei Jahre. Wenn der einigermaßen leistungsfähig sein soll, dann muss man dafür schon mindestens 1.200€ hinblättern. Macht pro Jahr 400€. Kommen noch rund 100€ jährlich für einen guten Virenscanner hinzu. Für „Windows as a service“ hat Microsoft vorab rund 10€ monatlich in den Raum gestellt, was im Jahr 120€ sind. Kommen noch gut 50€ für Microsoft 365 (Family) pro Jahr oben drauf. Das wäre dann so die rudimentäre Grundausstattung: Die schlägt jährlich mit 670€ zubuche. Dafür kann man im Inland gut und gerne eine Woche Urlaub machen! Wenn man darüber hinaus noch spezielle Software benötigt dann kostet die nicht selten extra.

Ich glaube, wenn noch irgendjemand den Wunsch verspürt, diese Abzocke in mehrfacher Hinsicht inklusive des Verlustes jeglicher Privatsphäre nicht mitzumachen, dann ist jetzt der geeignete Zeitpunkt zum Wechseln gekommen. Die neuen Copilot+ PCs werden jetzt beworben. Sobald die auf dem Markt erhältlich sind, wird man ältere Geräte zu Schleuderpreisen verhökern; dabei darf es auch gerne ein Gebrauchtgerät sein. Das wird mit einer Linux-Desktop-Version bestückt. Davon gibt’s mittlerweile viele wirklich gute Varianten, und zwar kostenlos. Die Umstellung u. d. h. die Gewöhnung an Linux wird erfahrungsgemäß ein paar Wochen bis Monate in Anspruch nehmen, je nach vorhandenem Wissensstand des Anwenders. Aber noch gibt es die PCs, auf denen Linux laufen kann – und dann notfalls noch jahrelang läuft. Und genau darum geht es nämlich: Um das Spiel auf Zeit. Schaut man sich einmal die Statistiken bei Statcounter an, dann zeichnet sich ein eindeutiger Trend hin zu Linux auf Desktop-PCs ab. Daraus folgt, dass der Handel irgendwann in ein paar Jahren um Linux-PCs (oder um „nackte“ PCs ohne Betriebssystem) nicht mehr herum kommen wird – und die werden dann ganz sicher nicht auf Windows alleine „geeicht“ sein, weil das sie unverkäuflich machen würde. Genau so, wie es bereits vor 15 Jahren schon einmal der Fall gewesen ist.

Es gibt heute schon reine Internet- bzw. Online-PCs für wenig Geld – nämlich die auf Gentoo-Linux basierenden Chromebooks – die man mit wenig selbst installierter, kostenloser Software aus dem Google Play Store auch zum Offline-Betrieb „überreden“ kann. Ich weiß das weil ich es erfolgreich ausprobiert habe. Gleiches gilt für Alt-PCs mit Ubuntu, Linux Mint, Kubuntu, MX Linux u. a. Linux-Versionen. Etliche Linux-Programme gleichen den Windows-Programmen und werden auch gleich bedient (GIMP, diverse Browser, XnView MP, Darktable, LibreOffice, OnlyOffice usw.). Bei anderen muss man umlernen. Ich verwende aktuell zwei PCs als Produktivsysteme, nämlich einen mit Windows 10 (der mich vor drei Jahren im Angebot mal 500€ gekostet hat) und einen als Gebrauchtgerät mit Linux Mint (der mich bei Kleinanzeigen inklusive Porto 60€ gekostet hat). Beide zeigen durchaus vergleichbare Leistung. Der Windows-PC ist dabei den Win-spezifischen Programmen vorbehalten, für die ich bisher unter Linux noch kein adäquates Gegenstück finden konnte. Aber die kostenlosen Linux-Software-Angebote unter Snap Store und Flathub sind im ständigen Wachstum begriffen und deswegen meine ich, dass die Gegenstücke nur eine Frage der Zeit sind. Somit betrachte ich Windows mittlerweile als noch notwendiges Übel. Ist das jetzt technikfeindlich oder bin ich einfach nur altmodisch, wenn ich mich nicht abzocken lassen will?