Computer says no

Essay —

Künstliche Intelligenz & Herrschaft

Screenshot aus Little Britain. Eine Frau mit langem braunen Haar und Brille sitzt an einem Schreibtisch und tippt etwas in einen Computer.

Dieser Text ist eine Begleitung zu meinem Vortrag Computer says no, gehalten auf der zweiten remote Chaos Experience. Die Aufzeichnung gibt es bei media.ccc.de.

Über die hier besprochenen Themen kann man Bücher schreiben, wurden Bücher geschrieben. Ich erhebe also keinen Anspruch auf Volständigkeit. Die Liste meiner Quellen habe ich separat veröffentlicht. Die Slides können auf Notist eingesehen werden. Eine (automatsich erstellte) englische Übersetzung ist verfügbar.


Im Folgenden werden wir sehen, wie die heute bestimmende Sicht auf Künstliche Intelligenz entstanden ist. Wir setzen uns mit den Auswirkungen algorithmischer Kontrolle auf dem Arbeitsmarkt auseinander und warum immer wieder der Vergleich mit der industriellen Revolution aufkommt. Inwiefern der Begriff der Zeit als zentraler Punkt in den Kämpfen der Arbeiter*innen vom 20. Jahrhundert bis zu Amazon Warenhäusern steht. Und warum die Roboter uns am Ende nicht die Arbeit wegnehmen, sondern uns gar nicht erst Arbeit bekommen lassen.

Im zweiten Teil werden wir sehen wie Künstliche Intelligenz zum Mittel staatlicher Herrschaft wird und untersuchen die individualsierende Tendenz der Überwachung. Wir sehen Drohnen am Himmel und zentralisierende Tendenzen in dem Zugriff auf die nötigen Produktionsmittel.

Abschließend werfen wir einen Blick auf Möglichkeiten und Bedingungen des Widerstands. Eine Bestandsaufnahme jenseits von Technooptimusmus oder Primitivismus. Und am Ende werden wir sehen, dass der Diskurs nicht Technik als Dreh-und Angelpunkt haben sollte, sondern die Solidarität.

Künstliche Intelligenz, oder was?

Ich werde im Folgenden verallgemeinernd von Künstlicher Intelligenz sprechen. Einigen meiner Leser*innen wird dies, zurecht, als grobe Kategorie vorkommen.

Es geht auf einer rein technischen Ebene vor allem um Machine Learning (ML), oder auch Deep Learning. Also um spezifische Subfelder von KI.

Im technisch-akademischen Diskurs ist diese Unterscheidung wichtig. Im Falle einer Betrachtung wie der hier anstehenden birgt diese vermeintliche Unschärfe auch Vorteile, wie Kate Crawford in der Einführung ihres Buches Atlas of AI beschreibt:

[T]he nomenclature of AI is often embraced during funding application season, when venture capitalists come bearing checkbooks, or when researchers are seeking press attention for a new scientific result. As a result, the term is both used and rejected in ways that keep its meaning in flux. For my purposes, I use AI to talk about the massive industrial formation that includes politics, labor, culture and capital. When I refer to machine learning, I’m speaking of a range of technical approaches (which are, in fact, social and infrastructural as well, although rarely spoken about as such).

Kate Crawford – Atlas of AI, p. 9

In diesem Sinne ist dies kein Text über Machine Learning, auch wenn es eine Rolle spielt. Es ist kein technischer Text. Es ist ein Text über die Welt, in der wir leben. Crawford bezeichnet KI als Verzeichnis von Macht. Wie wir im Folgenden sehen werden, fast dies die Lage treffend zusammen.

Eine andere Lücke, die ich noch ansprechen möchte, bevor es losgeht: Das Feld, das ich hier bespreche, ist riesig. Ich fokussiere mich deswegen auf einige Bereiche, die es erlauben ein schlüssiges Bild zu zeichnen. Nichtsdestoweniger kann ein Text von dieser Länge niemand hinreichen sein, alle Nuancen des Felds zu besprechen. Er will somit auch keine abschließenden Wahrheiten festhalten, sondern Richtungen, Anstöße des Denkens und der Diskussion.

ImageNet – wie Machine Learning sich für immer veränderte

Eine, auch nur halbwegs, ausführliche Geschichte des Auf und Abs der Künstlichen Intelligenz und verwandter Felder wäre ein eigener Vortrag. Ich werde mich hier deswegen auf einen einschneidenden Punkt der jüngeren Forschungsgeschichte konzentrieren: ImageNet.

Für alle, die noch nie von ImageNet gehört haben mögen: Was ist ImageNet eigentlich?

Man kann wohl ohne zu übertreiben behaupten, dass ImageNet einer der einflussreichsten Datensätze in der Geschichte des Machine Learning ist. Die Zusammenfassung der Daten mit aus den Internet zusammengeklaubten Bildern und die Anwendung des AlexNet-Algorithmus. um mit ihnen zu arbeiten, haben das Feld nachhaltig geprägt und prägen es bis heute.

Millionen von Bildern wurden in Handarbeit abertausenden von Begriffen zu geordnet. Die Forscherin Fei-Fei Li kam 2006 auf die Idee zu dem Datensatz. Die Grundlage wurde durch Bilder geschaffen, die ohne groß zu fragen aus dem Internet gesammelt wurden, etwa aus Googles Bildersuche. Das Internet und die immer leistungsstärker werdenden Computer führten hier zu einem perfekten Sturm.

Zehn Jahre vorher war es noch mit immensen Schwierigkeiten behaftet, Datensätze mit auch nur einigen zehntausend Einträgen zu bilden. ImageNet besteht aus circa vierzehn Millionen Bilder in zwanzigtausend Kategorien. PASCAL VOC, einer der Vorläufer ImageNets beinhaltet zwanzig Kategorien und 19.737 Bilder.

Die Kategorien, denen die Bilder in ImageNet zugeordnet wurden, wurden einem Datensatz namens WordNet entnommen. WordNet wurde in den 1980er Jahren George A. Miller entwickelt. Anhand der Worte in WordNet wurden Bildersuchen gescraped und die Ergebnisse gespeichert.

Nun ergab sich ein zentrales Problem: Wie kann sichergestellt werden, dass die gespeicherten Bilder auch beinhalten was gesucht wurde? Vor ImageNet war diese Arbeit der Klassifikation für Studienanfänger*innen reserviert. Jia Deng, einer der Mitforschenden an ImageNet kalkulierte, dass es neunzehn Jahre dauern würde, alle Bilder in ImageNet auf diese Art und Weise zu klassifizieren. Die Arbeit zu automatisieren war unmöglich. Es gab (und gibt) keinen Algorithmus, der diese Zuordnungen fehlerfrei vornehmen kann.

An dieser Stelle kommt Crowdworking ins Spiel, um genau zu sein Amazons Mechanical Turk Plattform.

On this new platform, anyone could construct a «Human Intelligence Task» to be completed by the workers on the platform who would be paid by each item they completed. This solution quickly solved their image annotation problem by allowing the problem to be broken down and distributed across 49 thousand workers from 167 countries.

Denton, E. et al. (2021) - On the genealogy of machine learning datasets: A critical history of ImageNet

Es gibt nur ein Problem: Durch diese Arbeit wird jeder Zusammenhang aus den Bildern entfernt und das menschliche Sehen als ein rein mechanischer Prozess verständen, der visuelle Intelligenz auf niedrigschwellige Mustererkennung reduziert.

Von solchen Problemen unbeeindruckt, weil nicht wahrgenommen oder nicht als Problem verstanden wurde, wurden die Ergebnisse gespeichert und ImageNet von 2010–2017 in der ImageNet Large Scale Visual Recognition Challenge zur wettkampfförmigen Erforschung freigegeben.

Es dauerte bis 2012 zur nächsten Revolution. In diesem Jahr gewannen Alex Krizhevsky und sein Team der Universität Toronto die Challenge in einem Tempo, das vorher unvorstellbar war. Ihr Geheimnis war nicht neu, aber wurde vorher nicht auf die Analyse großer Datensätze angewandt: Neuronale Netze. Unter dem Alias Deep Learning wurden diese Netze in den folgenden Jahren und bis heute einer der tonangebenden Paradigmen im Machine Learning.

ImageNet ist aber auf noch eine Art ein Vorreiter.

Wie wir gleich sehen werden sind die Punkte der unsichtbaren Arbeit, des Fehlen von Zustimmung derer, die im Datensatz auftauchen, und die Priorisierung großer Mengen Daten über gesellschaftliche Zusammenhänge Muster, die immer und immer wieder auftauchen werden.

Arbeit & Algorithmen

Im Zusammenhang mit Künstlicher Intelligenz sind im Allgemeinen drei Formen der Arbeit relevant:

Die erste ist völlig unbezahlte Arbeit. Diese wird in aller Regel nicht als solche wahrgenommen. Die User*innen von Websites, die CAPTCHAs für Googles Recaptcha-Dienst lösen, sind hier sicher das bekannteste Beispiel. Google verbessert damit seine eigenen Bilderkennungsalgorithmen.

Unsichtbare Arbeit

In der Einleitung zur Geschichte der KI haben wir ImageNet als erste große Bilddatenbank gesprochen und über Crowdwork als eine der Voraussetzungen für ihre Verwirklichung. Heutzutage ist Crowdwork eines der Standbeine der Erstellung von Algorithmen.

In regelmäßigen Abständen können wir Schlagzeilen lesen, in denen Algorithmen als vollkommen automatisiert verstanden werden. «KI hat dieses oder jenes gemacht». In Go gewonnen, Texte geschrieben, Proteine in ihrer dreidimensionalen Struktur wiedergegeben. Diese Schlagzeilen haben nur ein Problem:

Headlines like “AI discovered how to cure a type of cancer”. Of course it’s never AI that did this. It’s researchers, very hardworking researchers, who use AI machine learning tools like any other tool. It’s both demeaning to the researchers who did that work and creates massive confusion among the public when journalists attribute agency to AI. There’s no reason to do that, especially in headlines.

Arvind Narayanan in Fake AI, S. 24

Die Vorarbeit, in der Daten gesäubert und sortiert werden, nimmt rund 80% der Entwicklungszeit eines Machine Learning Models ein.

Training a machine-learning system requires large numbers of carefully labelled examples, and those labels usually have to be applied by humans. Big tech firms often do the work internally. Companies that lack the required resources or expertise can take advantage of a growing outsourcing industry to do it for them.

Ein Prozess, den Kate Crawford, in Anlehnung an die Potemkinschen Dörfer, als Potemkinsche KI bezeichnet:

We could think of this as a kind of Potemkin AI – little more than facades, designed to demonstrate to investors and a credulous media what an automated system would look like while actually relying on human labor in the background.

Kate Crawford – Atlas of AI, S. 65

Diese Menschen sorgen für den schönen Schein der Automatisierung. Es soll von außen so aussehen, als würde alles vollautomatisch passieren, auch wenn es eigentlich menschliche Arbeit ist.

Versuche der Konzerne an Daten zu kommen können auch anders aussehen. In Atlanta, Georgia, testete Google seine Gesichtserkennungssoftware. Im Austauch gegen fünf Dollar wurden gezielt Schwarze Obdachlose angesprochen. Die Gegenleistung? Ein 3D-Scans des Gesichts zu Google hochladen. Google kam vorher wiederholt in die Kritik, weil ihre Bilderkennunsgalgorithmen Schwarze Menschen für Gorillas oder ein Thermometer in einer schwarzen Hand für eine Waffe halten. Immer tut es Google sehr leid, was passiert ist. Bis zum nächsten Mal. 2021 schließlich macht Google Hochglanzwerbung damit wie gut die neuen Android-Telephone Schwarze Gesichter erkennen können.

Jenseits des Labeling von Datasets findet diese Geisterarbeit – ein Begriff Mary L. Gray und Siddharth Suri mit ihrem Buch «Ghost Work» prägten – heute an allen Ecken und Enden des digitalen Lebens statt. Die Verifizierung neuer Bankaccounts, die Moderation von Inhalten bei Facebook oder Twitter oder auf Plattformen wie Fiverr.

Dies alles führt vorerst nicht dazu, dass uns Maschinen uns die Arbeit wegnehmen. Wie Mary L. Gray im Interview mit dem Standard sagt:

Wir sollten uns nicht davor fürchten, dass Menschen durch Technologie ersetzt, sondern dass sie entwertet werden.

Eine Perspektive, die auch Simon Schaupp betont, wenn er von einer Abwertung der Arbeit mit einer einhergehenden Migrantisierung der Stellen spricht.

Es ist in dieser Ausbeutung, in der der Kapitalismus zu sich selber findet. Den größten Profit aus den Angestellten zu pressen, ist eine Grundbedingung der kapitalistischen Ökonomie per se. Die Systeme um KI & Co. bilden dort keine Ausnahme, sondern formulieren diese Ausbeutung unter dem Deckmantel der Zukunft neu.

Frühkapitalismus im digitalen Gewand

Am 25. März 1911 brannte in Manhattan die Triangle Shirtwaist Factory. 146 Arbeiter*innen starben in den Flammen, oder als sie aus dem brennenden Gebäude auf die Straßen sprangen. Die Ausgänge der Fabrik waren während der Arbeitszeit verschlossen, die Fabrik wurde zur Todesfalle. Die meisten der Toten waren Migrant*innen.

Am 10.12. tobe ein Tornado über Illinois. Amazon verlangte von seinen Angestellten zur Arbeit zu kommen. Abends wurde ein Amazon-Lagerhaus von einem Tornado getroffen. Jeff Bezos war damit beschäftigt an ein Leben im Weltraum zu denken, während das Lagerhaus kollabierte und sechs der Arbeiter*innen starben. Larry Vriden schrieb kurz vor seinem Tod seiner Freundin: «Well I’ll be home after the storm. Amazon won’t let us go.» Er kam nie wieder zu Hause an. Unfälle und Gesundheitsprobleme kommen bei Amazon immer wieder vor. In den USA lagen sie 2020 doppelt so hoch wie im Industriedurchschnitt.

Inwiefern haben sich die Arbeitsverhältnisse in den letzten 140 Jahren verändert? Was ist Arbeit eigentlich in einer algorithmisierten Welt und sollten uns die Roboter nicht schon längst die Arbeit wegnehmen?

Simon Schaupp beschreibt diese durch Algorithmen überwachten Arbeitsprozesse mit dem Begriff der «kybernetischen Verdichtung». Durch die fortschreitenden technischen Möglichkeiten kommt es zu einer systematischen Überwachung des Produktionsprozesses.

In extrem arbeitsintensiven Branchen wie Lieferdiensten oder Logistik führt dies dazu, dass das Gegenteil einer Vollautomatisierung passiert. Immer und immer mehr Menschen werden eingestellt, um die Prozesse aufrechtzuerhalten. Amazon hat seit Anfang 2020 670.000 Arbeiter*innen eingestellt, um mit dem gesteigerten Auftragsvolumen während der Pandemie mitzuhalten.

Die meisten dieser Jobs sind bis auf die Sekunde genau getaktet:

A swing of a second or two in the average time to complete a task can make the difference between getting kudos from a manager or a warning about job performance.

Neben der Überwachung sind Roboter auch im logistischen Betrieb integraler Teil der Infrastruktur.

Gleichzeitig gilt aber auch, dass es

Teil der Aufgabe des kybernetischen Proletariats [ist], sich selbst überflüssig zu machen.

Simon Schaupp – Future Histories Podcast S02E07

Dies passiert zum Beispiel in Logistikprozessen, die getracked werden, um sie durch eine KI zu ersetzen oder wenn Facharbeiter*innen die Systeme schreiben müssen, die sie schlußendlich abschaffen werden.

In der Zeit des Frühkapitalismus gab es schon Bestrebungen zur Automatisierung und damit einhergehenden Kontrolle der Arbeiter*innen. Aus Sicht des Kapitals waren Arbeiter*innen schon immer ein notwendiges Übel. Ohne geht’s halt nicht, aber mit wird der Profit eingeschränkt.

Engels’ zitiert schon 1844 Andrew Ure, dessen Hoffnung in die Produktivkraft der Maschine sich ohne Probleme auf die heutige Überhöhung der Robotisierung übertragen lässt:

In wenig Monaten schon war eine Maschine fertig, die dem Anscheine nach mit dem Denkvermögen, Gefühl und Takt des erfahrnen Arbeiters begabt war.

Andrew Ure – Philosophy of Manufactures

Die Tendenz des Kapitals von Fordismus über Taylorismus den Produktionsprozess effektiver und effektiver zu gestalten, stellte die Arbeiterbewegung Streiks und Organisierung entgegen. Nicht ohne Erfolg. Reduzierung der Wochenarbeitstunden, soziale Absicherung, unbefristete Arbeitsverträge usw. sind nur durch starke gewerkschaftliche Bewegungen und den Willen zum Widerspruch entstanden.

In der Gig-Economy und Amazons Warenhäusern sehen wir heute, dass all die Errungenschaften der Arbeiter*innenbewegung – inklusive des Rechts zur gewerkschaftlichen Organisierung – unter stetigem Angriff stehen und verteidigt bzw. zurückerobert werden müssen.

Nicht viel hat sich geändert, es scheint nur neu:

Doch was als radikal neue Form der Arbeit daher kommt, ist im Licht der historischen Entwicklung oftmals mehr eine Wiederkehr früherer Arbeitsverhältnisse. Denn die Nutzung der Arbeitskraft durch die Unternehmen nur bei tatsächlichem Bedarf, der Stücklohn und die Tatsache, dass die Arbeitenden ihre eigenen Arbeitsmittel zur Verfügung stellen müssen, sind keineswegs neu und vielmehr so alt wie der Kapitalismus selbst. Konkret gleicht die digitalisierte Kurierarbeit wie auch viele andere Arten der Plattformarbeit dem proto-industriellen Verlagssystem der frühen Industrialisierung, das bereits im 19. Jahrhundert mit dem Begriff der «prekären Arbeit» gekennzeichnet wurde.

Heiner Heiland – Zurück in die Zukunft

Diese Wiederkehr wird zur Farce, wenn Amazon, Apple oder Google sich berüchtigter Unternehmen wie den Pinkertons bedienen, um Angestellte und Umweltaktivist*innen zu überwachen oder das Textbuch Union Busting durchspielen.

Man muss die Pathetik nicht teilen, aber am Ende bleibt es wie Engels es voraussagte:

Die Arbeiter müssen sich also bestreben, aus dieser vertierenden Lage herauszukommen, sich eine bessere, menschlichere Stellung zu verschaffen, und dies können sie nicht tun, ohne gegen das Interesse der Bourgeoisie als solcher […] anzukämpfen.

Friedrich Engels – Die Lage der arbeitenden Klasse in England

Gig-Work und algorithmische Undurchsichtigkeit

Während der körperliche und geistige Tribut, den die Algorithmen in den Warenhäusern fordern, recht offensichtlich ist, gilt dies nicht in allen Bereichen des überwachten Arbeitens.

Bei Lieferdiensten etwa bleibt zum Großteil verborgen welchen Einfluss die Algorithmen haben. Die Arbeiter*innen wissen nicht, wie ihre Aktionen sich auf die zukünftige Arbeitseinteilung auswirken. Ein Beispiel hierfür ist die immer wiederkehrende These von Gig-Worker*innen bei Lieferando & Co., dass es schlecht sei Lieferaufträge nicht anzunehmen.

Beweise dafür oder dagegen kann es nicht geben, solange die Algorithmen und gesammelten Daten nicht zugänglich gemacht werden. In seinem Vortrag Die soziale Konstruktion von Algorithmen zitiert Heiner Heiland einen Manager eines Lieferdiensts, der sagt, dass der benutzte Algorithmus «sehr dumm» war und immer die nächste:n Fahrer:in gewählt hat. Aber selbst wenn der Algorithmus dumm war oder ist, gibt es keine Garantie, dass er es bleibt. Oder der Manager nicht von Anfang an gelogen hat.

Grund zum Zweifeln gibt es umso mehr, wenn andere Firmen Produktivität als Teil ihrer Algorithmen implementiert haben. Deliveroo wurde in Italien verurteilt, weil deren Algorithmus nicht zwischen «unproduktiven» Arbeiter*innen und jenen, die krank waren oder streikten, unterschied.

Man kann es nicht wissen, weil die Plattformen, wie sich nennen, die einzigen sind, die die Daten haben.

Data, as it is conceived of now, simply flows away from workers and to the platform, where it becomes proprietary, valuable, and “big.” While platforms enjoy the advantages of gathering and analyzing big data, current data protection laws function at a “smaller” scale and are based around individual rights.

Gig-Worker*innen auf der ganzen Welt fordern die Abschaffung dieses Ungleichgewichts. Einerseits indem sie selber Daten sammeln, und andererseits verlangen, dass Unternehmen ihre Technologien offenlegen.

Nur durch eine Kombination aus Rechenschaft und Organisierung wird sich die Lage ändern können.

Auf Digitaluhren schießen

Die zunehmende Überwachung und Kontrolle führt zu einer Verdichtung der Zeit. Das Kapital fordert noch die letzte Sekunde der Lebenszeit ein, die die Arbeiter:in hinter den Toren der Produktionsanlage verbringt.

Schon zu analogen Zeiten war das miteinander Reden an einzelnen Fließbändern verboten, der wachsame Blick des Vorarbeiters immer lauernd. Hier kommt es zu einer paradoxen Situation: während die Zeit immer weiter kontrolliert wird, bietet die Abwesenheit des Menschen Raum für Unterhaltungen, neue Vernetzungen.

Der Soziologe Simon Schaupp macht im Future Histories Podcast noch einen anderen Punkt: Algorithmen lernen durch die Daten der Vergangenheit. Diese Daten werden durch die Arbeiter*innen geschaffen. Es ist also möglich durch kollektive Aktionen der Verlangsamung den Algorithmus zu zähmen.

Diese Form der Selbstermächtigung ist nicht neu. Arbeiter*innen sind schon früh auf die Idee gekommen, dass eine Verlangsamung der Arbeit ein effektives Mittel des Arbeitskampfes ist.

Im Bummelstreik wird jede noch so kleine Anweisung penibelst ausgeführt, die Produktivkraft sinkt so ohne dass zur Arbeitsniederlegung aufgerufen werden muss.

Zeit spielt schon seit den frühesten Tagen der Industrialisierung immer wieder eine Rolle im Kampf gegen die Herrschaft.

Walter Benjamin berichtet über die Juni-Revolution in Paris:

Das Bewusstsein, das Kontinuum der Geschichte aufzusprengen, ist den revolutionären Klassen im Augenblick ihrer Aktion eigentümlich. […] Noch in der Juli-Revolution hatte sich ein Zwischenfall zugetragen, in dem dieses Bewusstsein zu seinem Recht gelangte. Als der Abend des ersten Kampftages gekommen war, ergab es sich, dass an mehreren Stellen von Paris unabhängig voneinander und gleichzeitig nach den Turmuhren geschossen wurde

Am Ende der 1920er Jahre baute Henry Ford eine Stadt mitten im brasilianischen Dschungel, um Kautschuk für seine Autos abzubauen. Das Projekt lief nie wirklich gut. Kautschuk wurde in Fordlandia nie angebaut. Im Dezember 1930 wurde während eines Aufstands neben allerlei Infrastruktur auch die Stechuhr zerstört.

All diese Formen der Auseinandersetzung erfordern eine Organisation, ein Bewusstsein dafür, dass, wie Engels es in Die Lage der arbeitenden Klasse in England sagte,

die Herrschaft der Bourgeoisie nur auf der Konkurrenz unter sich beruht, d.h. auf der Zersplitterung des Proletariats.

Es ist diese Zersplitterung des Proletariats, die in der Zeit der kybernetischen Verdichtung auf die Spitze getrieben wird. Organisierung soll so unterbunden werden, der einzige Zweck der Arbeiter:in ist es mehr und mehr Geld einzubringen.

Soviel erstmal zu den veränderten Arbeitsprozessen. Wie wir gesehen haben, nehmen uns die Roboter die Arbeit (vorerst) nicht weg, sondern verdichten sie zugunsten des Kapitals.

Die Roboter geben uns die Arbeit nicht

Neben einer Veränderung der Arbeit selber hat KI aber auch einen zunehmen Einfluss auf den Zugang zu Arbeit. Eines der Felder, in denen Algorithmen wie von Zauberhand alle Probleme lösen sollen, ist die Suche nach geeignetem Personal. Wie Reuters 2018 berichtete, musste Amazon einen Algorithmus einstampfen, der Bewerbungen analysiert hat. Weil in der Vergangenheit vor allem weiße Männer in Engineering-Stellen eingestellt wurden, kam der Algorithmus zum Schluss, dass Frauen ungeeignet seien. Als Amazon den Faktor Geschlecht ausgeschlossen hat, griff der Algorithmus auf Faktoren wie Teilnahme in einem Schachclub für Frauen oder Teilnahme in Frauenstudien.

Bis heute ist dies ein ungelöstes Problem. Deniz Erden hat sich in ihrem Beitrag KI und Beschäftigung in Wenn KI, dann feministisch ausführlich mit dem Thema beschäftigt, es war auch Fokus mehrerer Folgen des In Machines We Trust-Podcasts des MIT Technology Review.

Künstliche Ideologie

Im vorherigen Teil haben wir gesehen, wie menschliche Arbeit in die kapitalistischen Prozesse des Digitalen eingebunden wird, wie sie kontrolliert und überwacht wird. Diese Unterordnung der Arbeit, die Verklärung des technisch-mechanistischen in ein wesentlicher Teil der Künstlichen Ideologie.

Die Zuschreibung der Arbeit zu einem übergesellschaftlichen und körperlosen Wesen fügt sich ein in Erzählungen wie jener der Nerds, die im Alleingang die Welt verändern. Es ist aber, wie im Kapitel Unsichtbare Arbeit gezeigt, der Algorithmus, der im Alleingang verändert, so wenig wie es ein Steve Jobs oder Elon Musk getan haben oder tun.

Im Folgenden wird es darum gehen, wie technischer Fortschritt zu einem konkreten Mittel der Herrschaftsdurchsetzung wird, etwa in Krieg und dem Einsatz der Polizei, und wie unsere alltägliche Kommunikation sich dem Algorithmus aussetzt.

Wir sehen Teletubbies auf XTC und warum wir vor autonomen Waffensystemen weiterhin Angst haben sollten. Wie die Polizei versucht sich Gesichtserkennung zu Nutze zu machen und gleichzeitig die Klaviatur der Instagram-Algorithmen als Marketinginstrument bespielt. Und landen schließlich bei TikTok, der beliebtesten Website unserer Tage.

Öffentliche Daten, privates Geld

Analog zu den frühkapitalistischen Tendenzen in den Arbeitsprozessen sehen wir eine Nutzbarmachung angesammelter Datenmengen in den Rechenzentren der großen Techunternehmen. Ein Prozess, der sehr an jenen der «ursprünglichen Akkumulation» erinnert, in der der Industriekapitalismus sich neue Rohstoff- und Absatzmärkte erschlossen und der Kapitaldynamik unterworfen hat.

Der Rohstoff sind unsere Geschichten, zerschlagen zu Datenpunkten. Der Absatzmarkt Kontrolle und Hokuspokus. Die Innovation ist ein Grundmechanismus des nach Totalität strebenden kapitalistischen Wirtschaftens. Die Innovation ist alt und gammlig.

Selbst wenn die Daten frei zugänglich bleiben, geschieht die Wertschöpfung durch proprietäre Prozesse. Googles Übersetzung etwa bedient sich der Sprachen, also wesentlich einem öffentlichen Gut, der Prozess der Übersetzung ist aber Geschäftsgeheimnis. Der freie Zugang bleibt also dem Gutdünken der Unternehmen überlassen. Wie das çapulcu redaktionskollektiv bemerkt:

Der Übersetzungsassistent ist (derzeit) für alle ‹frei nutzbar› und dennoch machen wir uns mit seiner Nutzung von Google abhängig. Ein leichter Schritt für Google, in einer späteren Entwicklungsstufe die Nutzung der Software an Bedingungen zu knüpfen.

çapulcu redaktionskollektiv – De_lete!, S. 47

Eine Abhängigkeitsdynamilk, die in der Geschichte des Kapitalismus nicht unbekannt ist. Man muss sich nur an das «Too big to fail»-Narrativ der letzten Bankenkrise erinnern, in der Unsummen an Steuergeld ausgegeben wurden, um den Finanzkapitalismus am Laufen zu halten. Unterstützt von großen Investitionen in Lobbyismus agieren Google, Facebook & Co. auf einem ähnlichen Level der vermeintlichen Systemrelevanz und versuchen ihre Zerschlagung zu verhindern.

Wir User*innen und die Gesellschaft als solche sind nicht die einzigen, die von dem Wohlwollen der Immergleichen abhängig sind.

Ökonomische Abhängigkeiten

Auch für Forscher*innen wird es immer unmöglicher ihre Forschung zu betreiben, ohne auf deren immense Ressourcen im Bereich Rechenleistung und Datensammlung zuzugreifen.

Big tech’s domination over the infrastructure of AI research and development extends beyond providing “neutral platforms.” These companies control the tooling, development environments, languages, and software that define the AI research process—they make the water in which AI research swims.

Meredith Whittaker – The Steep Cost of Capture

Neben der Rechenleistung, sind auch die meisten Konferenzen abhängig von Sponsoren-Geldern.

Was für Konsequenzen diese Kontrolle für unabhängige Forschung hat, zeigt die Kündigung von Timnit Gebru. Gebru war bis Ende 2020 Co-Lead eines Google Teams, das an ethischer KI geforscht hat. Als eine der angesehensten Forscherinnen in ihrem Feld, wurde sie offiziell entlassen, weil sie eine Mail an Mailingliste geschickt hat. Gebru sagt, dass sie aufgefordert wurde, das Paper On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜 zurückzuhalten.

Das Papier untersucht die Auswirkungen von Large Language Models, KI-Modellen, die Sprache imitieren, auf die Umwelt und argumentiert, dass solche Modelle wie GPT-3 immer wieder Stereotype reproduzieren und toxische Sprache generieren, auch wenn die Inputs nicht toxisch sind.

We have identified a wide variety of costs and risks associated with the rush for ever larger LMs, including: environmental costs (borne typically by those not benefiting from the resulting technology); financial costs, which in turn erect barriers to entry, limiting who can contribute to this research area and which languages can benefit from the most advanced techniques; opportunity cost, as researchers pour effort away from directions requiring less resources; and the risk of substantial harms, including stereotyping, denigration, increases in extremist ideology, and wrongful arrest, should humans encounter seemingly coherent LM output and take it for the words of some person or organization who has accountability for what is said.

Dass das Google nicht in den Kram passt, verwundet kaum.

Im Februar feuerte Google schließlich Margaret Mitchell, offiziell wegen Verstößen gegen den firmeninternen Code of Conduct und Sicherheitsrichtlinien.

Dass führende Figuren in ihren Feldern nicht sicher sind, sendet ein klares Signal an den Rest der Forscher*innen: «Benehmt euch, oder ihr seid raus.»

In Die Lage der arbeitenden Klasse in England unternahm Engels den Versuch die «geschichtliche Bedeutung der Industrie» zu verstehen. Die Kohleminen und Fabriken waren die Industrie seiner Zeit. Er stellte fest:

[Die Zentralisierung] erfordert große Kapitalien, mit denen sie kolossale Etablissements errichtet und dadurch die kleine, handwerksmäßige Bourgeoisie ruiniert – und mit denen sie sich die Naturkräfte dienst macht, um den einzelnen Handarbeiter aus dem Markte zu schlagen.

Friedrich Engels – Die Lage der arbeiten Klasse in England

Die Arbeit und Produktion wurde an wenigen Orten gebündelt. Mit der Zentralisierung der Rechenleistung und Datensammlung sehen wir eine erneute Zentralisierung. Es sind nur nicht mehr die Kohlebarone und Pfeffersäcke, die sie antreiben.

In The Steep Cost of Capture zieht Meredith Whittaker Parallelen zwischen der momentanen Situation und dem Kalten Krieg. Sie argumentiert, dass der Wettlauf zwischen den USA und der Sowjetunion einen ähnlichen Einfluss auf die Forschung hatte wie die heutige Übernahme der Forschung durch Google & Co.

Technologie & Militär

Ein Teil dieser Geschichte ist auch, dass Geschäfte mit dem Militär für «proud patriotic companies» wie Google oder Palantir zum guten Ton gehören. Das nicht nur in den USA. In China, Israel, Russland und der EU läuft ein simultaner Wettkampf um die Hoheit im digitalen Wettrüsten.

Die Geschichte der Zusammenarbeit ist nicht neu. Das ARPANET, der Vorläufer des heutigen Internets, ist eine Ausgründung des im Kalten Kriegs gegründeten Advanced Research Projects Agency (ARPA) und des US-amerikanischen Verteidigungsministeriums. Das Internet ist keine Erfindung, die sich Militärs zunutze machen, es ist eine Erfindung des Militärs.

Für Google gehören Geschäfte mit amerikanischen Geheimdiensten, spätestens seit der Übernahme von Keyhole, zum Kerngeschäft.

Nicht ohne Widerstand. 2018 kam Google unter enormen Druck, als es mit dem Pentagon im sogenannten Project Maven zusammen autonome Waffensysteme entwickelt. Kurze Zeit später wurde bekanntgegeben, dass der Vertrag mit dem Pentagon nicht verlängert wird. Außerdem hat Google sich selber Auflagen zum Umgang mit künstlicher Intelligenz gesetzt. In den vergangenen drei Jahr hat Google nichtsdestoweniger fleißig mit dem US-Militär zusammengearbeitet.

Das Loch, das Google in Project Maven hinterlassen hat, wurde indes schnell gefüllt. Rebellion Defense, gegründet unter der Schirmherrschaft des früheren Google Chefs Eric Schmidt, Palantir, Amazon und Microsoft sprangen begeistert in die Lücke.

Kürzlich machte Daniel Ek, Gründer von Spotify, Schlagzeilen, als er mit seinem Investment Fund 100 Millionen Dollar in das deutsche Tötungs-KI Startup Helsing investierte. Während sie sich auf die Fahne schreiben die freiheitlich-demokratische Grundordnung verteidigen zu wollen, sind die Mitglieder ihres Boards gut vernetzt im militärisch-industriellen Komplex.

Solche eine Zusammenarbeit kann auch ohne explizite Absicht sich dem Militär anzudienen passieren. Etwa wenn das US-Militär die Standortdaten von Millionen von Muslim:a kauft, werden diese dadurch potentiellen Gefahren ausgesetzt [1] .

In Deutschland kümmert sich seit 2017 das Kommando Cyber- und Informationsraum (CIR) und die Digitalisierung der Truppe. Man befindet sich knapp zwanzig Jahre nach dem Web 2.o mittlerweile selber in Ausbaustufe 2.0. Das Internet ist für uns alle Neuland.

Aber mal ernsthaft: Die Entwicklung autonomer Waffensysteme unterliegt momentan keiner wirkungsvollen Kontrolle. Erst im Dezember 2021 scheiterten jahrelangen Verhandlungen. In der Logik von Ländern wie den USA, Großbritannien, Russland oder Israel sei es «zu früh» für ein derartiges Moratorium. Eine interessante Logik, die nur jenen einleuchtet, die finden es sei zu früh zu bremsen bevor man mit dem Auto in einen Baum rast.

Autonome Waffensysteme sind keine theoretische Möglichkeit, sondern nur ein Softwareupdate entfernt. Weltweit sind solche Systeme in Entwicklung begriffen. Im Juni 2021 wurde in Libyen der vermutlich erste Angriff mit einem solchen, vollautonomen System durchgeführt[2].

Die deutsche Bundesregierung unter Olaf Scholz begibt sich indes auf Messers Schneide. Man wolle zwar bewaffnete Drohnen für die Bundeswehr anschaffen, mit diesen aber ethisch töten. Wem das beruhigend erscheint, sei dran erinnert, dass durch die rot-grüne Regierung unter Gerhard Schröder der erste Angriffskrieg vom deutschen Boden seit 1945 geführt wurde.

Im Appell der AI Scientists for Peace, die sich gegen eine Bewaffnung der Bundeswehr mit Drohnen wenden, heißt es:

Bereits der Einsatz von vom Menschen gesteuerten bewaffneten Drohnen hat die Schwelle zum Einsatz militärischer Gewalt gesenkt und den Krieg weiter entgrenzt, Drohnenangriffe finden dauerhaft und häufig ohne Kriegserklärung statt. Die technologische Hochrüstung mit bewaffneten Drohnen hat militärisch und technologisch überlegenen Staaten wie den USA außergerichtliche Tötungen vereinfacht, die fast ausschließlich People of Colour treffen. Autonome Waffen würden die Möglichkeit globaler Überwachung und Tötungen als potentielle Gefahr definierter Menschen verstärken und die Kontrolle über die Elimination dieser Menschen nicht nur rechtlichen Normen sondern auch zunehmend menschlichem Einfluss entziehen.

Vor zwei Wochen hat die New York Times einen umfangreichen Bericht veröffentlicht, der im Detail zeigt, wie schief der Drohnenkrieg schon läuft, wenn Menschen zugucken. Die Erzählung eines «präzisen Kriegs» ist eine Lüge und die, die ihn führen, wissen das.

Das Pentagon hat zugegeben, dass eines der KI-Targeting-Systeme der US Air Force Ziele zu nur fünfundzwanzig Prozent erkannt hat. Gleichzeitig berichtete das System selber von einer neunzigprozentigen Genauigkeit.

Unkontrolliertes Datensammeln, wie im Fall von Muslim Pro, führt in der Logik kriegerischer Auseinandersetzung zu unkontrollierten Zugriffen. Wenn es die Daten gibt, und Behörden oder Militär ihrer habhaft werden wollen, werden sie es schaffen.

Insgesamt sind es aber keine Un- oder Einzelfälle, die hier zu kritisieren sind. Es ist die Logik von Gewalt und Unterordnung, die Existenzbedingung des Militärs ist.

Herrschaft durch Gewalt ist sowohl in die autonome Waffentechnologie als auch in den Rahmen des Denkens und der Politik eingemeißelt, welcher zu ihrer Entwicklung und ihrem potentiellen Einsatz führt.

Ray Acheson – Feminismus und automatisierte Waffensysteme; in Wenn KI, dann feministisch

Es reicht deswegen nicht gegen spezifische Waffensysteme oder Formen der Kollaboration zwischen Tech-Unternehmen und Militär anzukämpfen. Es sind Krieg, Patriarchat und Überwachung an sich, die kritisiert gehören.

Panoptikum in Digitalien

Während sich militärische Konflikte vorerst nach außen richten, blickt der Staat stetig nach innen. Vorausschauende Polizeiarbeit und Gesichtserkennung sollen hier stellvertretend für das Bestreben des Staates nach Gehorsam stehen. Der Angriff des Staates auf die Freiheitsrechte der Zivilgesellschaft erschöpft sich darin aber nicht, sondern zeigt sich auch in Projekten wie Staatstrojanern oder der Vorratsdatenspeicherung. Oft ergänzen sich solche Vorhaben gegenseitig.

Ein Beispiel hierfür ist eine Datenbank der Polizei Hamburg. Als 2017 der G20-Gipfel in die Hansestadt kam, war die Polizei schnell dabei eine noch die dagewesene Gefahr durch linksradikale Chaot*innen herbeizuphantasieren und einen der größten Polizeieinsätze in der Geschichte der Bundesrepublik zu rechtfertigen.

Um diese Chaot*innen auch im Nachhinein zu erfassen schaffte die Polizei das System Videmo 360 an. Der Hamburger Datenschutzbeauftragte Johannes Caspar vermutete, dass auf diese Weise die biometrischen Daten von hunderttausenden Menschen gespeichert wurden. Ohne jegliche Kontrollmöglichkeit.

Diese Daten wurden genutzt um Verfahren gegen vermeintliche Gewalttäter*innen einzuleiten.

Nach der Logik der Polizei reicht dabei mittlerweile die reine Teilnahme an einer Demonstration, um schweren Landfriedensbruch vorzuwerfen. In Hamburg läuft das sogenannte Rondenbarg-Verfahren, in dem fünf Jugendliche angeklagt sind, ohne dass ihnen etwas konkretes vorgeworfen wird.

Beim Überfall auf die unangenehmigte Demonstration kam es innerhalb von wenigen Sekunden zu massiver Polizeigewalt. Die Hamburger Feuerwehr musste mit 65 Einsatzkräften, 12 Rettungswägen und fünf Notärzten Versorgung leisten.

Der damalige Hamburger Oberbürgermeister und heutige deutsche Bundeskanzler Olaf Scholz resümierte:

Polizeigewalt hat es nicht gegeben.

Trotz mannigfaltiger gegenteiliger Beweise wurde bis heute kein einziger Polizist im Zusammenhang mit Übergriffen gegen Protestierende verurteilt.

Im Oktober 2019 hat das Verwaltungsgericht Hamburg den Einsatz von Videmo für rechtens erklärt. Wie schwierig es ist überhaupt zu wissen, welche Daten Polizeien über eine:n speichern zeigt der von netzpolitik.org dokumentierte Fall eines Bremer Fußballfans.

Die Polizei hat die angelegte Datenbank im Mai 2020 schließlich gelöscht, weil keine strafrechtliche Erforderlichkeit mehr bestehe. Das Gerichtsurteil bleibt aber bestehen, der Präzedenzfall für eine umfassende Erfassung Auswertung biometrischer Daten ist geschaffen. Der SPD-geführte Innensenat plante schnell Rache. In der Novelle des Polizeigesetzes soll dem Datenschutzbeauftragten seine Weisungsbefugnis vollends entzogen werden.

Derweil wird die bundesweite Infrastruktur für eine «Verfahrensübergreifende Recherche- und Analyseplattform» der deutschen Polizeien weiter vorangetrieben.

Das Vorhaben der deutschen Polizei Gesichtserkennung zu normalisieren, passiert gegen einen internationalen Backlash.

Seit Jahren zeigt die Forschung immer wieder, dass Gesichtserkennung gegen Schwarze diskriminiert, und selbst Mitglieder des US-amerikansichen Kongresses für Straftäter*innen hält. Forscher*innen warnen davor, dass Rassismus auch in der EU Teil automatisierter Prozesse ist.

2020 machten die Unternehmen Clearview und PimEyes internationale Schlagzeilen. Beide operieren mit riesigen Mengen an Daten, ohne Einverständnis aus dem Internet gewonnen.

Beide Unternehmen machen Gesichter suchbar. Während Clearview behauptet nur mit Strafverfolgungsbehörden zusammenzuarbeiten, war PimEyes’ Suchmaschine zu Beginn öffentlich zugänglich. Als ImageNet neu war, waren die Vierzeh Millionen gespeicherten Bilder eine Revolution. PimEyes dürfte über eine Milliarde Gesichter speichern.

Die Praktiken des massenhaftes Speicherns von biometrischen Daten geriet weltweit in den Fokus von Datenschutzbehörden. Clearview bemüht sich derweil ihre «Suchmaschine für Gesichter» in den USA zu patentieren.

Die Forderungen Gesichtserkennung komplett auszusetzen nimmt derweil Fahrt auf. In San Francisco wurde Gesichtserkennung im öffentlichen Raum schon 2019 verboten. Amazon, IBM und Microsoft haben sich in den USA dagegen entschieden Gesichtserkennung an Polizeibehörden zu verkaufen. In Europa kämpft die Kampagne Reclaim Your Face für ein Verbot solcher Technologien.

Das Polizeigesetz ist mittlerweile in Kraft und erlaubt der Polizei Hamburg auch sogenannte vorausschauende Polizeiarbeit (predictive policing). Neben Hamburg nutzen auch Berlin, Niedersachsen, Hessen, Nordrhein-Westfalen sowie die Städte Nürnberg und München predictive policing.

The Markup hat jüngst gezeigt wie solche Mittel der Polizeiarbeit  nicht zu guten Ergebnissen führen sondern im Gegenteil nur Bekanntes fortschreiben.

Overall, we found that the fewer White residents who lived in an area—and the more Black and Latino residents who lived there—the more likely PredPol would predict a crime there. The same disparity existed between richer and poorer communities.

Warum – oder besser wie – das in Deutschland nicht passieren sollte, kann niemand erklären.

Nach innen und außen wird durch Vorstöße von Militär, Geheimdiensten und Polizei versucht eine Infrastruktur des ständigen staatlichen Zugriffs auf private und biometrische Daten vorangetrieben.

Ein Komitee der UN warnte letztes Jahr:

The panel’s warnings add to deepening alarm among human rights bodies over the largely unregulated use of artificial intelligence across a widening spectrum of government, from social welfare delivery to “digital borders” controlling immigration.

U.N. Panel: Technology in Policing Can Reinforce Racial Bias

Ungeachtet dessen weitet die EU die Befugnisse der «Grenzschutzagentur» Frontex immer weiter aus. Zusammen mit Bestrebungen die digitalen Datensammlungen der Mitgliedsstaaten zu zentralisieren entsteht so ein immer dichteres Netz staatlicher Zu- und Übergriffe.

Taken together, the AI and algorithmic systems used by the state, from the military to the municipal level, reveal a covert philosophy of en masse infrastructural command and control via a combination of extractive data techniques, targeting logic, and surveillance.

Kate Crawford – Atlas of AI, p. 208

Firmen wie Palantir, die von der NSA, über Europol bis zu der hessischen Polizei verdinglichen die Gemengelage dieser Kontrollinfrastruktur. Überwachung ist nicht mehr nach innen oder außen gewandt, polizeilich oder geheimdienstlich.

Es muss nicht so sein. Palantir selber gibt zu, dass ein Diskurs im Privatsphäre und die Arten und Weisen, in denen KI-Systeme nicht zu Aufklärung und Gerechtigkeit beitragen, große Probleme bereiten können. Let’s do it.

Daten und Privatsphäre

Zwar werden wir alle von den Techniken der Datensammlung ins Visier genommen, aber sowohl auf ökonomischer als auch staatlicher Ebene trifft es Menschen unterschiedlich hart. Gegen die ökonomische Sammelwut der Werbenetzwerke kann man sich mit technischem Sachverstand zum Großteil wehren. Wenn man den Sachverstand hat, also die Zeit ihn sich anzueignen.

Die staatliche Sammelwut hingegen trifft von vornherein nicht alle gleich. Zwar ist zum Beispiel das Speichern von Fingerabdrücken in Deutschland seit dem Sommer 2020 verpflichtend, gegen die Offenbarungseide, die etwas Hartz IV-Bezieher*innen oder Geflüchtete ablegen müssen, verblasst dies aber beinahe zur Randnote.

Francesca Schmidt und Johanna Luise Mellentin folgern im Buch Wenn KI, dann feministisch:

Wenn wir von staatlichen Eingriffen in die Privatsphäre sprechen, sehen wir, dass die Intensität dieser Eingriffe mit dem Grad der Abhängigkeit vom Staat zunimmt. So müssen etwa Hartz-4-Empfänger*innen, Menschen mit Behinderung, Geflüchtete bzw. Asylsuchende mit wesentlich zahlreicheren und tiefergehenden Eingriffen rechnen, als Menschen die zu keiner dieser Gruppen oder anderen marginalisierten, stigmatisierten Gruppen gehören.

Überwachung ist ein Problem der von ihr betroffenen Individuen. Es ist aber kein individuelles Problem, sondern ein gesellschaftliches. Unsere Gesellschaft erzwingt ihre Daten ohne ihnen eine Möglichkeit des Entkommen zu lassen.

Der Kampf um die Daten und wie wir als Menschen in Daten gefasst werden, ist ein globaler Kampf, der Allianzen und Solidarität braucht. Salomé Viljoen schreibt in ihrem Essay Data Relations:

Thinking of datafication as the digital terms by which we relate to one another clarifies the kind of political interventions that are required. The point is not to define the terms of our individual datafication—by demanding our share of the pie, or shoring up resistance to being rendered legible against our will—but to define the terms of our collective datafication.

Wie wir oben gesehen haben, ist Gesichtserkennung eine der Praktiken, in denen dieser Kampf um gesellschaftliche Rechte geführt wird. Es muss allen möglich sein ohne Angst vor dem digitalen Panoptikum durch die Straßen zu laufen. Egal ob sie auf einer individuellen Ebene etwas zu verbergen haben oder nicht – oder das zumindest denken.

Das Problem liegt aber nicht alleine auf staatlicher Ebene oder bei Unternehmen wie Clearview. Im Dezember fragte die KI-Forscherin Sasha Luccioni auf Twitter:

What's a good example of an AI dataset gathered with proper consent?
Does that even exist?

Die Antworten waren ernüchternd. Nur Facebooks Casual Conversations Dataset wurde als Beispiel genannt, in dem die Datenansammlung einvernehmlich geschah.

Was tun?

Die Geschichte der Künstlichen Intelligenz ist eine Geschichte der Missverständnisse. Meistens jenes, das Computer für eine Form der Menschlichkeit hält. Dass sich die menschliche Wahrnehmung auf rein mechanische Prozesse reduzieren lässt.

Die Geschichte der Künstlichen Intelligenz ist außerdem eine von Rückschlägen und Triumphen. Die Begeisterung rund um Fortschritte ist immer wieder sogenannten «KI-Wintern» gewichen.

Nach einigen Jahren ging es wieder bergauf. In welcher KI-Jahreszeit wir uns gerade befinden ist eine gute Frage. Einerseits wird KI immer noch und gerne als Heilsbringer verstanden, sprießen Start-Ups für dieses oder jenes aus dem Boden. Andererseits sind die Auswirkungen auf Mensch und Umwelt immer wieder Gegenstand entschiedener Kritik. Vielleicht ist es mittlerweile soweit, dass wir keinen KI-Winter mehr erleben werden, aber auch keinen richtigen Sommer. Dass KI alltäglich geworden ist, und so angenommen aber auch kritisiert werden muss.

Es ist illusorisch zu denken, dass man weitere Fortschritte in der Entwicklung verhindern könnte oder dass die großen IT-Firmen sich plötzlich besinnen und ihre Möglichkeiten nur noch zu «guten» Zwecken einsetzen würden. KI beschreibt und codifiziert die uns umgebende rassistische, kapitalistische Welt und gibt ihr den Anschein mathematischer Neutralität.

Sie legt sich dabei wie eine Decke über die gesellschaftlichen Zusammenhänge, zerpflückt sie in Datenpunkte und fördert so ihre ideologische Verklärung. Dieses gilt es immer wieder zu verstehen und die Dinge unter der Decke zu fassen.

Wir können den technologischen Fortschritt nicht aufhalten, aber wir müssen ihn unserem Verständnis anpassen. Nicht alles was gemacht werden kann, sollte gemacht werden:

Our technology is accelerating at a frightening rate, a rate faster than our reflective understanding of its impact.

Tatiana Mac – Canary in a coal mine

Wir müssen Technologie aus der Herrschaft der Konzerne und ihrer vornehmlich männlich, weißen Vorstandsetagen entreißen, um zu dem Punkt zu kommen, an dem nicht immer wieder die Vergangenheit die Zukunft bestimmen soll, sondern wir die Zukunft gestalten können.

Contrary to big tech executives’ cold-war style rhetoric about an arms race, what truly stifles innovation is the current arrangement where a few people build harmful technology and others constantly work to prevent harm, unable to find the time, space or resources to implement their own vision of the future.

Timnit Gebru – For truly ethical AI, its research must be independent from big tech

Wir können die Probleme nicht lösen, ohne das Kapitalverhältnis an sich zu hinterfragen.

Die Probleme, die sich uns in der Auseinandersetzung mit Künstlicher Intelligenz zeigen, sind eingebettet in kapitalistische Herrschaft, in Sexismus, in Rassismus. Solange wir die Herrschaft der Menschen über die Menschen nicht in den Fokus unserer Kritik rücken, werden wir uns immer und wieder nur an den Symptomen dieser Herrschaft abarbeiten.

Eine Zukunft, die auf Solidarität und Rücksichtnahme statt auf bedingungsloser Konkurrenz aufbaut ist möglich.

Denn erst, wenn wir gut zu uns sind, können die Maschinen es auch sein.

Footnotes

  1. Muslim Pro hat den Vertrag mit X-Mode kurze Zeit später gekündigt. ↩︎

  2. Einen Überblick liefern die Blätter für deutsche und internationale Politik ↩︎

Filed under