Ein Algorithmus entscheidet in Österreich über Bedürftigkeit

Digitalisiertes Patriarchat

Ein Algorithmus des österreichischen Arbeitsmarktservice wird dafür kritisiert, Frauen bei der Gewährung von Fördermaßnahmen strukturell zu benachteiligen.
Networld Von

Auf den ersten Blick haben EU-Kommissionspräsidentin Ursula von der Leyen (CDU) und der österreichische Arbeitsmarktservice (AMS) nicht viel miteinander zu tun. Auf den zweiten Blick kann man von der Leyen als so etwas wie die personifizierte Kritik am System des AMS betrachten.

Der Algorithmus teilt Arbeits­suchende anhand ihrer Lebensläufe in die Kategorien A (gute Chancen), B (mittlere Chancen) und C (geringe Chancen) ein.

Der AMS ist ein Unternehmen öffentlichen Rechts, dessen Kompetenzen denen der bundesdeutschen Arbeitsämter vor den Hartz-Reformen ähneln. Seit 2015 tüftelt er an einem Algorithmus, der seine Mitarbeiterinnen und Mitarbeiter entlasten soll. Welche Förderungen ein Arbeitsloser bekommt, soll ab Mitte 2020 ein Computer entscheiden. Trotz teils heftiger Kritik hat der Verwaltungsrat des AMS das Verfahren Mitte September vergangenen Jahres ­genehmigt – auch weil sich Arbeitnehmervertreter bei der Abstimmung enthalten hatten.

Anzeige

Der Grund für die Aufregung in der Art und Weise, wie der Algorithmus zu seiner Entscheidung kommt. Er verarbeitet Daten über den Arbeitsmarkt vergangener Jahre, um Prognosen über die Chancen einer Person am zukünftigen Arbeitsmarkt treffen. Dazu teilt der Algorithmus Arbeitssuchende anhand ihrer Lebensläufe in die Katego­rien A (gute Chancen), B (mittlere Chancen) und C (geringe Chancen) ein.

Von Ursula von der Leyen wäre der AMS-Algorithmus vermutlich wenig begeistert. Denn »der Algorithmus spiegelt die reale Situation am Arbeitsmarkt wider«, sagt Beate Sprenger, Pressesprecherin des AMS, der Jungle World. Zu dieser »realen Situation« gehört auch, dass Angehörige sogenannter Drittstaaten sowie Frauen, insbesondere jene mit Betreuungspflichten, am österreichischen Arbeitsmarkt struk­turell benachteiligt werden. Die Daten, die dem Algorithmus als Basis für seine Einschätzung dienen, bilden diese Benachteiligung ab.

In der Praxis bedeutet das: Betreuungspflichtige Frauen oder Arbeistsuchende aus Drittländern bewertet der Algorithmus automatisch schlechter. Von der Leyen, weiblich, sieben Kinder, hätte wahrscheinlich Schwierigkeiten, von dem System vermittelt zu werden. Welche Fördermaßnahmen ein Arbeitsloser oder eine Arbeitslose vom AMS bekommt, hängt nämlich davon ab, in welche der drei Kategorien eine Person eingeteilt wird.

Sarah Spiekermann, Professorin am Institut für Wirtschaftsinformatik und Gesellschaft an der Wirtschaftsuniver­sität Wien und eine der lautstärksten Kritikerinnen des Verfahrens, urteilt im September 2019 in einem Beitrag in der Tageszeitung Der Standard: In 100 Jahren werden sich die Menschen rückblickend auf den heutigen Umgang mit Künstlicher Intelligenz (KI) in manchen Fällen »an den Kopf greifen«. Der Versuch des AMS, Arbeitssuchende per Algorithmus zu kategorisieren, werde dabei »ganz besonders in die Geschichte eingehen«. Der aktuelle Stand der Technik, die Forschung im Bereich KI, sei noch lange nicht so weit, um derart weitreichende Aufgaben zu bewältigen. Eine Entscheidung wie die über die berufliche Zukunft eines Menschen einer nicht ausgereiften Tech­nologie zu überlassen, sei fahrlässig, kritisierte Spiekermann. Eine solche KI solle man nicht »auf österreichische Bürger loslassen«.

Auf Nachfrage erklärt das AMS, die »Treffergenauigkeit« des Algorithmus liege bei 85 Prozent – »das ist die höchste Trefferquote aller von den anderen Arbeitsmarktverwaltungen der EU-Staaten bisher eingesetzten Algorithmen«. 15 Prozent der Fälle werden also falsch kategorisiert – nicht wenig in Anbetracht der Tragweite der Entscheidung. AMS-Sprecherin Sprenger stellt aber auch klar: »Die letzte Entscheidung über die Arbeitsmarktchancen der Kundinnen und Kunden liegt bei den Beratern und Beraterinnen.« Arbeits­suchende seien also nicht der Willkür eines Algorithmus ausgeliefert. Vielmehr werde dank der technischen Nachrüstung wertvolle Zeit gespart, die in die persönliche Beratung fließen könne, so Sprenger.
Spiekermann will das so nicht gelten lassen. Es gebe genug Forschung, die belege, dass Menschen generell an die objektive Richtigkeit einer computerbasierten Entscheidung glaubten – und meist dementsprechend handelten. Spiekermann hegt Zweifel an der These, dass AMS-Mitarbeiterinnen und -Mit­arbeiter genug Einblick in die Materie hätten, um nötigenfalls zuverlässig ­gegenzusteuern.

Die Gewerkschaften waren zunächst als lautstarke Kritiker des Projekts aufgetreten – enthielten sich aber dann in der entscheidenden Abstimmung. »Die Kritik des Österreichischen Gewerkschaftsbundes (ÖGB) am Verfahren bleibt nach wie vor bestehen«, sagte Andreas Berger, der Pressesprecher des ÖGB. Aber mit Antritt der ÖVP-FPÖ-Regierung im Dezember 2017 änderten sich auch die Mehrheiten im AMS-Verwaltungsrat. Auch wenn die Arbeitnehmervertretung geschlossen gegen die Reform gestimmt hätte – am Resultat hätte das nichts geändert. Also, so erläutert Berger, habe man versucht, zumindest für Verbesserungen zu sorgen. Durch die Stimmenthaltung habe man immerhin »noch einige Dinge hineinverhandeln können«.

Es konnte unter anderem erreicht werden, dass AMS-Beraterinnen und -Berater die Computerentscheidungen ändern können und sogenannte Beratungs- und Betreuungseinrichtungen (BBEN) aufgebaut werden sollen. Diese sollen Arbeitslosen mit schlechten Vermittlungschancen Beratungsleistungen jenseits der klassischen Arbeit des AMS anbieten, wie zum Beispiel im ­Bereich medizinischer oder persönlicher Betreuung.

Doch abseits dieser pragmatischen Fragen stellt sich eine generelle, viel entscheidendere Frage: Welche Rolle soll KI künftig überhaupt spielen? Welche Entscheidungen sollen Computer übernehmen, welche Sachbearbeiterinnen und Sachbearbeiter und worüber entscheiden Bürgerinnen und Bürger selbst?

In ihrem Beitrag stellt Spiekermann die Frage nach der Würde des Menschen. Wollen wir zukünftig Individuen nur noch in Cluster und Kategorien eingeteilt wissen?

KI ist wie alle Technik zunächst einmal neutral. Sie interessiert sich nicht für Gerechtigkeit, Werte und Moralvorstellungen. Wie wir mit Technik um­gehen, wo und wie wir sie einsetzen, welche Folgen sie hat und welche Entscheidungen sie für uns trifft, obliegt ihren Nutzern und denen, die sie mit den Informationen versorgen, auf deren Grundlage die Maschine dann entscheidet.