Technik

Künstliche Intelligenz verursacht Sozialhilfe-Chaos

von Carsten Fischer

Ein Lehrstück zur Gefahr Künstlicher Intelligenz: In Australien hat eine neue Software Tausenden Sozialhilfeempfängern den Schock ihres Lebens beschert.

Auf einem Schreibtisch liegen ein Smartphone, ein Laptop und eine Maus. Auf dem Laptop liegt eine Brille
Kein Durchblick: In Australien sollten plötzlich tausende Menschen Sozialhilfe zurückzahlen – die Künstliche Intelligenz hatte sich geirrt. Foto: CC0: Unsplash/Jesus Kiteque

Das erfahren Sie gleich:

  • Warum die künstliche Intelligenz sich so schlimm verrechnet hat
  • Welche Sozialhilfe-Empfänger besonders stark betroffen waren
  • Wieso die Fehlersuche so schwierig war

Künstliche Intelligenz als Gefahr

Ein katastrophaler Fehler hat in Australien für ein mittelgroßes Chaos gesorgt: Ursache des Ganzen war ein Problem mit der erstmals in diesem Sektor eingesetzten Künstlichen Intelligenz.

Seit Sommer 2016 verwendet das australische Ministerium für Soziales (Department of Human Services) eine neue Software zur Überprüfung der Rechtmäßigkeit von Sozialleistungsbezügen. Laut Regierung soll sie Arbeitskräfte in der Verwaltung sparen und so den Steuerzahler entlasten.

Die Neuheit heißt Centrelink und ist ein von Finanz- und Computerexperten entwickelter Algorithmus, der automatisiert Rechnungen an Sozialhilfeempfänger verschickt.

Anfangs verlief das Experiment gut, aber schlagartig nahmen die Beschwerden überhand. Tausende Empfänger von Sozialleistungen sollten plötzlich Rückzahlungen in ungewohnter Höhe leisten. Obwohl ein Großteil der Forderungen offensichtlich haltlos war, pochte das Ministerium auf die Richtigkeit der maschinell erstellten Schreiben.

Unschuldig zu Nachzahlungen verurteilt

In den neun Monaten nach Inbetriebnahme der neuen Software gingen rund 200.000 automatisierte Mahnschreiben raus. Laut dem britischen Guardian waren etwa 20.000 davon fehlerhaft: In 13.000 Fällen war die Schuldenlast weitaus niedriger als vom System errechnet. Bei weiteren 7.000 Sachverhalten gab es keinerlei gesetzliche Grundlage für die von Centrelink eingeforderten Rückzahlungen.

In den australischen Medien kursiert seit der Häufung der Vorfälle der Begriff der Robo-Debt (Roboter-Schulden), und auf Twitter gibt es unter dem Hashtag #notmydebt weitere unglaubliche Geschichten.

Eine alleinerziehende Mutter sollte über 15.000 Euro Schulden zurückbezahlen – die sie in Wahrheit gar nicht hatte.

Besonders hart traf es eine alleinerziehende Mutter. Sie erhielt beispielsweise einen Bescheid, laut dem sie dem australischen Staat 24.000 Australische Dollar (etwa 15.300 Euro) schuldete. Von einem Tag auf den anderen hatte sie infolgedessen mit kräftezehrenden Existenzängsten zu kämpfen.

60 Dollar der frei erfundenen Schulden sollte sie pro Woche zurückzahlen, was sie in siebeneinhalb Jahren schuldenfrei gemacht hätte – für die Geringverdienerin absolut unmöglich.

Ein pensionierter Grundschullehrer erhielt ein Schreiben mit einer Forderung über 4.500 Dollar (etwa 3.000 Euro). Im Zuge einer intensiven mehrmonatigen Überprüfung durch einen menschlichen Sachbearbeiter kam heraus, dass seine tatsächlichen Schulden gerade mal 63 Dollar betrugen. Wie die fehlerhafte Berechnung zustande kam, konnte im Nachhinein nicht geklärt werden.

Bei Künstlichen Intelligenzen verhält es sich so, dass die Handlungsweise für den Menschen nicht zu einhundert Prozent durchschaubar und nachvollziehbar ist. Neurale Netzwerke erhalten große Datenmengen als Input und erlernen daraus, Lösungen selbstständig zu erstellen – wie genau sie das im einzelnen machen, bleibt für die Programmierer unklar. Wichtig ist einzig, dass die Ergebnisse nach dem Prozess stimmen.

Sozialhilfe als Vermögen angerechnet?

Erst als man im Ministerium endgültig davon überzeugt war, einem Fehler aufgesessen zu sein, machte sich eine Gruppe von Experten an dessen Lokalisierung. Der erste Gedanke war, dass Centrelink den Beschuldigten die bis dato ausgezahlte Sozialhilfe als Vermögen angerechnet hatte.

Ganz so einfach war des Rätsels Lösung dann aber doch nicht: Viel eher war es die Tatsache, dass die Software die Berechnung auf Basis veralteter Daten durchführte – teilweise nutzte sie die durchschnittlichen und nicht aktualisierten Einkommen der vergangenen Jahre.

Lesen Sie auch

Nachhaltigkeit bei Audi

Nachhaltigkeit bei Audi

Elektrische Antriebs­technologien im Mittelpunkt

Eine weitere Fehlerquelle waren möglicherweise falsche Angaben zum Arbeitgeber. Tippfehler im Namen erweckten unter Umständen den Eindruck, jemand gehe zeitgleich zwei Beschäftigungen nach.

Wirklich zufrieden ist mit dieser fragwürdigen Erklärung niemand – weder die Beschuldigten noch die Mitarbeiter des Ministeriums. Genaue Informationen über die Arbeitsweise des Programms wurden der Öffentlichkeit bis heute nicht preisgegeben – aber die ist möglicherweise nicht einmal den Schöpfern des ihr zugrunde liegenden Algorithmus bekannt.

Updates

Bleiben Sie zum Thema Technik immer informiert.

Auch interessant

Diese Website verwendet Cookies, um die Nutzerfreundlichkeit zu verbessern. Durch die weitere Nutzung der Website stimmen Sie dem zu. Um mehr über die von uns verwendeten Cookies zu erfahren und wie man sie deaktiviert, können Sie unsere Cookie-Richtlinie aufrufen.