Wie Systeme der Künstlichen ­Intelligenz die Arbeitsverhältnisse beeinflussen

Drecksarbeit bleibt Handarbeit

Die Einführung von KI-Systemen verändert die Arbeitswelt und schafft neue Tätigkeitsfelder, ersetzt aber menschliche Arbeit dort nicht, wo sie billiger ist als die Maschine. Klickarbeiter:innen entfernen für Hungerlöhne diskriminierende Inhalte aus den Vorgaben der Algorithmen, und KI-Systeme verschärfen die Trennung zwischen planender und ausführender Arbeit.

Digitalminister Volker Wissing (FDP) möchte nichts verbieten. Der Politiker sprach sich Anfang Januar gegen eine strenge Regulierung von Künstlicher Intelligenz (KI) aus. »Wir sollten nicht prohibitiv denken, also nicht überlegen, wie wir das möglichst zurückdrängen, einschränken oder gar verbieten können«, sagte er dem Spiegel im Anschluss an seine USA-Reise. Wissing hatte dort unter anderem das Unternehmen Open AI besucht, dessen Textgenerator Chat GPT (siehe Seite 18) derzeit für Diskussionen sorgt.

Diese sorglose Herangehensweise an die KI-Technologie führt in der Europäischen Union zu Debatten. Gerade verhandeln der Europäische Rat und das Europaparlament über den sogenannten AI Act. Dieses Gesetz soll im Bereich der EU den Einsatz von KI-Systemen in sämtlichen Lebensbereichen regulieren. Das ist ein beispielhafter Vorstoß: Bisher regeln verschiedene Rechtsvorschriften den Einsatz neuer Technologien in der EU. Die Datenschutz-Grundverordnung (DSGVO) regelt beispielsweise die Pflichten bei der Datenverarbeitung und die Rechte betroffener Person bei der Nutzung personenbezogener Daten. Der AI Act sieht nun Maßnahmen vor, die einen ­sicheren, ethischen und grundrechtskonformen Einsatz von KI garantieren sollen. Dazu gehören Risikomanagement-Systeme, technische Dokumentation, Aufzeichnungspflichten, Transparenz und Bereitstellung von Informationen für die Nutzer:innen und menschliche Aufsicht. Das Gesetz soll einheitliche Regeln für deren Entwicklung, Vermarktung und Verwendung innerhalb der EU schaffen, unabhängig davon, von wo die KI betrieben wird. Dafür ist die Einteilung der KI-Anwendungen in vier Risikostufen vorge­sehen: minimal, begrenzt, hoch und unannehmbar. Die Verhandlungen über den Gesetzentwurf sollen bis März abgeschlossen sein.

Arbeiter:innen in Kenia bekamen für das Sichten der teils traumatisierenden Inhalte beim Training des Chatbots einen Stundenlohn von 1,30 bis zwei US-Dollar.

Für den Einsatz von KI in der Arbeitswelt fordert der Deutsche Gewerkschaftsbund (DGB): Sowohl Systeme, »die für Entscheidungen, die die Anbahnung, Begründung, Durchführung und Abwicklung des Arbeitsverhältnisses« eingesetzt werden, als auch solche für »die Unterstützung bei kollektivrechtlichen Rechts- und Regelungsangelegenheiten« müssen »als Hochri­siko-KI-Systeme gelten«. Regeln und Rechtsvorschriften allein werden die Folgen der Automatisierung von Arbeit durch Künstliche Intelligenz für die Beschäftigten allerdings nicht berechenbarer machen. Da gelte es, in den Betrieben selbst Kompetenz und Handlungsmacht aufzubauen, so Florian Butollo. Er ist Leiter der Forschungsgruppe »Arbeiten mit Künstlicher Intelligenz« am Weizenbaum-Institut und betont diesen Aspekt. Denn ohne entsprechendes Wissen über die Technik sind Gesetze und Regeln nicht adäquat anwendbar. Verstöße im Arbeitsrecht können unentdeckt bleiben. Es müsse »Betriebsräte geben, die über die Technik und die Arbeitsqualität Bescheid wissen, die sich auch einschalten und im Zweifelsfall Stunk machen. Es braucht auch entsprechende Betriebsvereinbarungen«, sagt Butollo der Jungle World.

Durch den Einsatz von KI-Systemen lassen sich Arbeitsprozesse und Aufgabenausführung mit Hilfe von Algorithmen steuern, optimieren und verdichten. Werden die Interessen und Bedürfnisse der Beschäftigten dabei nicht einbezogen, wächst das Risiko einer übermäßigen Arbeitsintensivierung und Standardisierung von Arbeitsab­läufen; Kontrolle und Überwachung der Beschäftigten könnten überhandnehmen. Gewerkschaften versuchen das zu verhindern. Mit einer Klassifizierung, wie sie der Gesetzesvorschlag der EU vorsieht, wären eine starke Regulierung, Kontrolle und Einschränkung von KI-Nutzung zwar möglich, doch bis es überhaupt zu einer Klassifizierung kommt, kann KI auch ohne Risikoabschätzung im Betrieb eingesetzt werden. Dabei kann es sich um Chatbots für die Kundenbetreuung oder Ausfüllhilfen von Formularen handeln, um Gesichtserkennung oder um die Zusammenführung personenbezogener Daten aus verschiedenen Datenbanken.

Wenn Arbeitsämter, Polizei und Justiz, die europäische Grenzagentur Frontex oder der Versandhandel Amazon algorithmische Automatisierung betreiben, hat das weitreichende Folgen. Denn je nach Nutzung werden verschiedene Grundrechte tangiert (siehe Seite 4). So bringt die Bürgerrechtsor­ganisationen Algorithmwatch ihre Besorgnis darüber zum Ausdruck, dass die Algorithmen, von denen die KI abhängt, die Vorurteile ihrer menschlichen Urheber:innen reproduzieren. Der Besitz und die Kontrolle der von der KI gewonnenen Daten betreffen Fragen des Datenschutzes und der bürgerlichen Freiheit. Dass KI-Systeme je nach Trainingsdaten falsche und diskriminierende Schlüsse ziehen können, ist bekannt. Sie benach­teiligen weibliche Bewerberinnen bei der Arbeitsplatzsuche, verdächtigen Menschen, die nicht weißer Hautfarbe sind, vermehrt Straftaten zu begehen, oder verwehren Menschen, die wenig Geld verdienen, Kreditkarten.

KI-basierte Systeme sind soziotechnische Systeme, was heißt, dass sie »in einem bestimmten gesellschaftlichen Kontext eingesetzt werden, dessen Normen, Werte und strukturelle Ungleichheiten unweigerlich mit dem System interagieren und dessen Auswirkungen beeinflussen«, sagt Angela Müller von Algorithmwatch. »Folglich muss der Fokus auch darauf gelegt werden, auf welche Weise und zu welchem Zweck ein bestimmtes KI-System eingesetzt wird und in welchem Kontext dies geschieht – denn auch dies kann wesentlich zu ungerechten Auswirkungen beitragen.« KI-Systeme können also auch mit weitgehend bereinigten Trainingsdaten vorurteilsbasierte Nachteile generieren. Müller fordert eine Verpflichtung, »vor und während jedem neuen Einsatz eines KI-Systems eine Folgenabschätzung hinsichtlich der Auswirkungen auf Grundrechte durchzuführen – zumindest dann, wenn es sich um KI-Systeme mit hohem Risiko handelt«. Sie kritisiert: »Der Entwurf der KI-Verordnung konzen­triert sich zu sehr auf die Verpflichtungen der Anbieter:innen. Diese Lücke sollte vom EU-Parlament und den Mitgliedstaaten korrigiert werden«, so dass auch die Nutzer:innen, also die Arbeitgeber:innen, die diese Technologie einsetzen, in die Pflicht genommen werden.

Ob Arbeitsplätze durch KI-Systeme verlorengehen und sich Tätigkeiten nachteilig verändern, hängt auch davon ab, ob die Arbeitnehmer:innen an Entscheidungen beteiligt sind. Zudem verschärft KI häufig den Gegensatz zwischen planender und ausführender Arbeit. Der Soziologe Simon Schaupp forscht zu Fragen von Macht im Zusammenhang mit Digitalisierung und ökologischer Krise. Der Jungle World sagt er: »Man kann sich die algorithmische Arbeitssteuerung vorstellen wie eine Trennwand. Auf der einen Seite der Wand wird die Arbeit aufgewertet, weil es anspruchsvolle Ingenieurs- und Managementtätigkeiten sind, auf der anderen Seite wird sie abgewertet. Das ist also eine Polarisierung.«

Am Beispiel des neuen Bots Chat GPT ist diese Polarisierung bereits festzustellen. Während die einen auf Unterstützung beim Texten, Programmieren und Recherchieren hoffen können, arbeiten im Hintergrund von Chat GPT menschliche Aufpasser, die »toxische Daten« aus den Trainingsdaten des Bots filtern. Für einen Hungerlohn sichten sie die Daten nach Inhalten wie Kindesmissbrauch, Mord, Suizid und Folter und kennzeichnen sie. Wie wichtig diese Arbeit ist, zeigt GPT-3, die Vorgängerversion des Chatprogramms. Die KI wurde mit frei aus dem Internet beziehbaren Daten trainiert und äußerte sich daraufhin sexistisch und rassistisch. Eine Recherche des Magazins Time ergab, dass das Filtern der Trainingsdaten für Chat GPT nach Kenia ausgelagert wurde. Dort hätten die Arbeiter:innen für das Sichten der teils traumatisierenden Inhalte einen Stundenlohn von 1,30 bis zwei US-Dollar bekommen, so der Bericht.

Butollo geht nicht davon aus, dass dort, wo menschliche Arbeit billiger ist als eine Maschine, Erstere ersetzt wird: »Das betrifft weite Strecken von gering qualifizierten Arbeiten, die nicht klar standardisiert sind. Ganz viel manuelle Arbeit«, so Butollo. Historisch ge­sehen seien das auch die Bereiche, die am ehesten in Entwicklungsländer ausgelagert wurden; oft handelt es sich dabei um von Frauen ausgeübte Tätigkeiten.

Ein Unternehmen, das Open AI oder andere Kunden aus dem Silicon Valley, wie Google, Meta und Microsoft, mit billigen Arbeitskräften aus Kenia, Uganda oder Indien versorgt, um Daten zu kennzeichnen, heißt Sama und ist in San Francisco ansässig. Sama bezeichnet sich selbst als ein »ethisches KI-Unternehmen« und behauptet, mehr als 50 000 Menschen aus der Armut geholfen zu haben. Für die Annahme, dass der technische Fortschritt mit dem sozialen Hand in Hand gehe, gibt es jedoch kaum stichhaltige Anhaltspunkte. »KI-Projekte sind effizienzgetrieben und haben das Ziel, Produkti­vität zu steigern. Sie werden auch nur dann umgesetzt, wenn das betriebswirtschaftliche Kalkül aufgeht. KI ist keine Humanisierungsagenda«, sagt Butollo der Jungle World. KI-Systeme rationalisieren Arbeitsprozesse, die un­ter kapitalistischen Bedingungen selbst­verständlich nach wie vor auf Ausbeutung konkreter menschlicher Arbeitskraft beruhen.