Harald Werner - Alles was links ist
 

Künstliche Intelligenz als Herrschaftsinstrument

Wo auch immer sich die scheinbar grenzenlose Macht der Supercomputer entfaltet, wird sie von Menschen genutzt, die damit bestimmte Zwecke verfolgen. Und bevor man sich der Spekulation über sich verselbständigende Computersysteme hingibt, heißt die entscheidende Frage zunächst, wer diese Entwicklung mit welchen Absichten vorantreibt. Denn jede in der Menschheitsgeschichte entwickelte Produktivkraft hat nicht nur neue Herrschaftsverhältnisse geschaffen, sondern ist auch aus ihnen entstanden. Denn die Entwicklungsrichtung neuer Produktivkräfte ist weniger vom menschlichen Erfindergeist und den materiellen Gegebenheiten abhängig, als von den bestehenden und nach Erweiterung strebenden Herrschaftsverhältnissen. So konnten sich wichtigste technische Umwälzungen, wie etwa mechanische Steuerung, Hydraulik und Dampfmaschine, erst in der Breite durchsetzen, als sie die kapitalistische Ausbeutung menschlicher Arbeitskraft erhöhten oder die Kriegführung modernisierten. Auch die Entwicklung des Computers und des Internets hat nichts stärker beschleunigt als das Wettrüsten zwischen West und Ost und in neuerer Zeit der möglich gewordene Cyberkrieg.

Schon Heraklit erkannte, dass der „Krieg der Vater aller Dinge“ sei, ohne dabei an Kernkraftwerke zu denken, die letztlich nur eine Vorstufe der Produktion  von Atombomben sind oder an das Internet, mit dem sich die USA eine im Atomkrieg überlebensfähige Kommandostruktur aufbauen wollten. Und weil der Siegeszug des Computers von Anfang vom Drang nach Machtausübung und Kontrolle geprägt war, eignete er sich, ganz im Sinne von Heraklit, nicht nur für die Erweiterung militärischer, sondern auch gesellschaftlicher, das heißt kapitalistischer Macht. Ohne Computer und Internet wäre die neoliberale Modernisierung nicht mehr als eine skurrile und eigentlich lange schon vergessene Idee geblieben. Denn die Dominanz des Marktes über die Gesellschaft und die Deregulierung der ökonomischen und sozialen Strukturen verlangten einerseits nach einer zunehmenden Verwandlung gesellschaftlicher Handlungen in Waren und andererseits nach Technologien, die die dabei anfallende ungeheure Datenmenge, zeitnah erheben, speichern und verarbeiten konnten.

  „Bei der »Formatierung« des Denkens und Verhaltens kommt mittlerweile den Informationstechnologien eine zentrale Rolle zu: Neoliberalismus, Computer und Internet sind einen faustischen Pakt eingegangen.(…) Schaut man hinter die Kulissen, wird deutlich, dass Big Data vor allem als Erfassungs-, Selektions- und Formatierungsapparatur begriffen werden muss und der internetbasierten Informationstechnologie eine Hebelfunktion bei der Durchsetzung radikalisierter Kapitalverwertungsstrategien zukommt.“[1]

Wobei sich zwei Schwerpunkte abzeichnen. Einmal die Veränderung der Kapitalakkumulation, zum Beispiel im Finanzsektor, und zum anderen die Erschließung neuer Geschäftsfelder, wie etwa durch Internetdienste. So verbirgt sich hinter dem Begriff „Finanzindustrie“ wenig mehr, als zum Beispiel die Chance, durch Wetten auf fallende oder steigende Werte in kürzester Zeit gewaltige Profite zu erzielen oder den Wert eines Unternehmens explodieren zu lassen. Die Algorithmen der Supercomputer, einst für das Militär entwickelt, realisierten in Tausendstel Sekunden Finanzoperationen, für die die traditionellen Börsen Stunden gebraucht hätten.

Auf der anderen Seite aber ließen sich mit den neuen Technologien auch völlig neue Geschäftsfelder erschließen. Angefangen mit den ersten Heimcomputern und fortgesetzt mit dem Handy, bis hin zum internetfähigen smartphone, hat sich ein neuer und zudem globaler Markt erschlossen, der sämtliche Klagen über die Sättigung des Konsumgütermarktes verstummen ließ. Seit dem werden Produkte nicht mehr ersetzt, weil sie nicht mehr so recht funktionieren, sondern weil sie zum Beispiel nicht mehr funktionieren, weil die Software nicht mehr mit dem alten Betriebssystem oder die neuesten Apps nicht mehr dem alten smartphone bedienbar sind. Die Digitalisierung des Privatlebens kann in ihrer ökonomischen Wirkung durchaus mit dem Siegeszug des privaten Pkw zur Zeit des deutschen Wirtschaftswunders Schritt halten.

Profitträchtiger noch, als der funktionelle Verschleiß von Programmen und Hardware aber ist die flächendeckende Vernichtung der Privatsphäre. Suchmaschinen, Downloadportale, Bezahldienste, soziale Netzwerke und überhaupt alles, was der Mensch im Internet tut, wird von Big Data gespeichert und verarbeitet. Seine Gedanken, Neigungen und Gewohnheiten werden nicht mehr ausgespäht, sondern er liefert sie mit jedem Mausklick selbst frei Haus. Was da gesammelt und ausgewertet wird, lässt sich wiederum mit hohem Gewinn verkaufen. Google & Co sind zwar kostenlos aber ihre Nutzung ist nicht folgenlos. Der Datenhandel und die scheinbare Intelligenz der Großcomputer sind eine der profitträchtigsten Geschäftsfelder des modernen Kapitalismus, aber auch der graue Markt der Geheimdienste.   

 

Dumme Intelligenz und intelligente Kreativität

Inzwischen wird so ziemlich jedes technische Gerät als intelligent bezeichnet, wenn es sich über ein Computernetzwerk steuern oder mit anderen Geräten verbinden lässt. So leben wir heute in einer Umwelt aus „intelligenten“ Waschmaschinen, Autos und Rasenmähern. Wobei das Adjektiv intelligent seine Konjunktur vor allem der Tatsache verdankt, dass es für Intelligenz keine intelligente Definition gibt. Skeptiker der Intelligenzforschung sagen denn auch schon mal: „Intelligenz ist das was Intelligenztests messen“. Tatsächlich beschränken sich diese Tests auf ein Set von Fragen und Aufgaben, deren Bewältigung einen entweder hohen oder niedrigen Intelligenzquotienten – also IQ auswerfen. Und seit es diese Tests gibt, zweifeln die Forscher an ihnen, weil Probanden mit einem niedrigen IQ in der Praxis manchmal herausragende geistige Hochleistungen erbringen und welche mit hohem in ihrer Lebenspraxis versagen. Deshalb hat sich in der Forschung, auf Grund der unzureichenden Aussagefähigkeit der Intelligenztexts, der Begriff der Kreativität etabliert. Kreativ ist danach jemand, die oder der zu neuartigen und überraschenden Ergebnissen kommt, weil sie auf ungewöhnliche Weise nach Antworten suchen. Sie verlassen die breit getretenen Wege der vorherrschenden Logiken, stellen andere Fragen oder bedienen sich in Wissensbereichen, die scheinbar nichts mit dem bestehenden Problem zu tun haben. Die Liste der großen Entdeckungen, die nur möglich waren, weil jemand nicht der herrschenden Logik folgte, sondern eine ungewöhnliche Perspektive einnahm, ist ziemlich lang.

Das Problem des Computers ist, dass er das Ungewöhnliche nicht denken kann, weil es seiner Logik widerspricht. Er verfügt zwar über eine kaum vorstellbare Menge an Daten und auch über sich weiterentwickelnde Algorithmen, die aus diesen Daten Vorhersagen ableiten können, aber die in den Algorithmen aufgehobene Logik ist immer die von gestern. Anders gesagt, der Computer denkt mit den Erfahrungen der Vergangenheit. Welche Folgen das heben kann, hat die große Finanzkrise des vergangenen Jahrzehnts gezeigt. Am Ende mussten die Banker ihre Computersysteme blockieren, um zu verhindern, dass ihre ausgefeilten Algorithmen noch mehr Geld verbrennen.

Picasso wird das Zitat nachgesagt, dass Computer zu nichts taugen, weil sie nur antworten können. Doch das war vorgestern, heute können sie auch Fragen beantworten, aber wie kann man richtige Antworten geben, wenn man die Frage nicht versteht oder sie für unlogisch hält? Daran wird sich auch nichts ändern, wenn Computer auf sprachliche Befehle reagieren und selbst sprechen lernen, was der neueste Hype der Computerentwicklung sein wird.

 

Ist das menschliche Gehirn überholt?

Im Allgemeinen wird beim Vergleich zwischen menschlichem Gehirn und der Leistung von Supercomputern von der Rechenleistung der neuesten Maschinen ausgegangen, die in der Tat der entsprechenden Leistung des menschlichen Hirns nahe kommen. Wobei das große Problem eines solchen Vergleichs ist, dass die Wissenschaften zwar alles über Computer wissen, ziemlich wenig aber immer noch über die Funktionen des menschlichen Gehirns. Vor allem deshalb, weil man zu wenig über seine Arbeitsweise weiß. Denn entscheidender als der Vergleich der Rechenleistung zwischen Supercomputer und menschlichem Gehirn dürfte sein, dass das Gehirn zahllose Operationen gleichzeitig durchführt und dabei Gehirnregionen eingeschaltet werden, die nicht dem rationalen Denken folgen. Die Komplexität des menschlichen Gehirns, mit seinen 100 Milliarden Nervenzellen und den 100 Billionen Verbindungen zwischen ihnen, übersteigt selbst die Kapazität heutiger Supercomputer um das 30-fache.[2] Der Rechner müsste außerdem, um dem menschlichen Denken nahe zu kommen, pro Sekunde eine Milliarde mal eine Milliarde Rechenschritte ausführen können, ein Tempo, das Fachleute mit „Exaflop“ bezeichnen.[3] Diese Aufholleistung ist auch deshalb relativ unwahrscheinlich, weil das menschliche Gehirn für eine solche Leistung lediglich die Energie einer 10 – 15 Watt Glühbirne benötigt, während ein solcher Exaflop-Computer die Energie von zwei Kernkraftwerken benötigen würde. Schon Google verbraucht heute in seinem Zentralcomputer täglich so viel Strom wie eine mittlere Großstadt. Natürlich lässt sich einwenden, dass dies der gegenwärtige Stand der Technik ist. Aber immerhin ist diese Technologie von menschlichen Gehirnen geschaffen worden, was die Frage aufwirft, wieso nicht mehr in die Gehirne der jetzt lebenden Menschen investiert wird. Denn wenn der strukturelle Analphabetismus hierzulande im gleichen Maße wächst wie die Verwendung von PC und Smartphone, mangelt es uns weniger an digitaler Technik, als am natürlichen Lernen.

 

Kybernetischer Kommunismus?

Das Scheitern des ersten sozialistischen Versuchs hat viele und erschreckende Ursachen, war aber auch das Ergebnis des ökonomischen Irrtums, den Markt vollständig durch den Plan ersetzen zu können. Schon Lenin war anfänglich der Illusion zum Opfer gefallen, dass man die sozialistische Ökonomie nach den Prinzipen der Deutschen Post organisieren könne. Doch die Ersetzung des Marktes durch den Plan funktionierte nur so lange es um die beschleunigte Industrialisierung ging, nicht aber als die proportionale Entwicklung einer vielen Bedürfnissen gerecht werdenden Volkswirtschaft anstand. Unter den heutigen Bedingungen, wo es kein Bedürfnis und keine wirtschaftliche Aktivität gibt, die nicht bis ins Detail erfasst werden, wäre eine Planung möglich, die der Willkür des Marktes weit überlegen wäre. Und nicht nur das: Die marktwirtschaftliche Konkurrenz führt nämlich erst am Ende zu einer halbwegs proportionalen Entwicklung, produziert vorher aber Überkapazitäten und vergeudet sowohl Arbeit, als auch wertvolle Ressourcen. Und dieser prozessierende Widerspruch der kapitalistischen Marktwirtschaft hat sich durch ihre Digitalisierung und die Dominanz der Finanzmärkte nur noch zugespitzt.

Rein technisch gesehen wäre die Menschheit mit ihrer gewaltig gewachsenen Produktivkraft und den Möglichkeiten der modernen Computertechnik in der Lage, nicht nur jeden nach seiner Leistung am Genuss des gesellschaftlichen Reichtums teilhaben zu lassen, sondern diesen auch nach den bestehenden Bedürfnissen zu verteilen – worin Marx bekanntlich die Voraussetzung des Kommunismus sah. 

Anfänge dazu gab es bereits im Chile der 1970ern Jahre, als die von Allende geführte Regierung anhand einer computergestützten Organisation eine fortgeschrittene Variante der Planwirtschaft zu installieren versuchte: Die Sozialistische Regierung hatte zusammen mit dem Informatiker Stafford Beer an einer kybernetischen Planwirtschaft mit dem Namen CyberSin[4] gearbeitet. „Wie effizient dieser Versuch war, lässt sich leider nicht genau bemessen, denn das Experiment fand bekanntlich sein Ende im Putsch von Pinochet. Nichtsdestotrotz gibt es – gerade in kommunistischen Kreisen die Hoffnung – mit heutiger Technologie einen solchen kybernetischen Kommunismus durchführen zu können.“[5] Vor allem deshalb, weil der in Chile gestartete Versuch in einer sehr frühen Entwicklungsphase des Computers stattfand, dessen Rechenleistung und Speichermöglichkeit überhaupt keinen Vergleich mit den heutigen Computersystemen zulässt. Wobei vor allem das Internet fehlte, ohne das eine effektive Vernetzung der Daten kaum möglich ist.

Harald Werner 21.7.16  

 


[2] https://de.wikipedia.org/wiki/Tianhe-2

[3] Ebenda


[angelegt/ aktualisiert am  22.07.2016]