Künstliche Intelligenz in der sozialen Sicherheit: Hintergründe und Erfahrungen

Künstliche Intelligenz in der sozialen Sicherheit: Hintergründe und Erfahrungen

Der zunehmende Einsatz Künstlicher Intelligenz (KI) durch Institutionen der sozialen Sicherheit hat proaktivere und stärker automatisierte Dienstleistungen der sozialen Sicherheit hervorgebracht. Der KI Einsatz birgt jedoch auch viele Herausforderungen, und die Institutionen versuchen zu verstehen, wie sie konkret am besten von dieser neuen Technologie profitieren können. Dieser Artikel enthält eine kurze Einführung in die KI und beschreibt einige Anwendungserfahrungen in der sozialen Sicherheit, die während des ISSA European Network Webinar: Artificial intelligence for social security institutions (Webinar des Europäischen Netzwerks der IVSS: Künstliche Intelligenz für Institutionen der sozialen Sicherheit) und in weiteren Dokumenten erörtert wurden.

Hintergründe der KI – Mythen, Realität und Risiken

1950 stellte Alan Turing in seinem bahnbrechenden Aufsatz die einfache Frage: „Können Maschinen denken?“ Wenn eine Maschine denken kann, dann zeigt sie intelligentes Verhalten und kann vielleicht eines Tages die Intelligenz ihrer menschlichen Schöpfer überflügeln. Diese Vorstellung einer „Superintelligenz“ hat seither viele Science-Fiction-Erzählungen inspiriert.

Warum KI? Warum nicht KI?

Es gibt einen internationalen Wettbewerb, den Loebner-Preis, mit dem jedes Jahr die Programmierer der menschenähnlichsten Computerprogramme ausgezeichnet werden. Bislang gab es noch keinen Preisträger, dessen Programm den Test tatsächlich bestanden hat, und die Wissenschaft ist noch weit entfernt davon, eine künstliche Superintelligenz zu schaffen. Es könnte in der Tat noch Jahrzehnte dauern, bis wir in der Lage sind, eine Allgemeine Künstliche Intelligenz (AKI), also eine menschenähnliche KI, hervorzubringen. Die aktuellen Ansätze werden gemeinhin als „schwache KI“ bezeichnet. Es sind Systeme, die als intelligent gelten, nicht weil sie menschliche Intelligenz reproduzieren können, sondern weil es ihnen gelingt, Aufgaben zu lösen, die normalerweise menschliche Intelligenz, menschliche Zeit und menschliche Anstrengungen in einem nicht umsetzbaren Umfang benötigen würden. Diese KI-Algorithmen werden heute bei der Problemlösung durch Computer vermehrt ergänzend und als Ersatz für herkömmliche Algorithmen eingesetzt.

Die algorithmischen Prozesse der KI unterscheiden sich von herkömmlichen Prozessen und können viele Probleme effizienter lösen. Anstatt dass für jede einzelne Aufgabe ein Programm geschrieben wird, sammelt die KI Beispiele korrekter (oder inkorrekter) Outputs für bestimmte Inputs. KI-Algorithmen erstellen dann aus diesen Beispielen ein Programm, das Ergebnisse liefern kann. Dieses Programm soll schließlich auch auf andere Fälle angewendet werden. Ändern sich die Eingangsdaten, wird sich auch das Programm verändern, wenn es mit den neuen Daten trainiert wird. Für solche Aufgaben steht mittlerweile eine enorme Rechenleistung zur Verfügung, so dass die KI letztlich kostengünstiger ist, als wenn jedes Mal aufgabenspezifische Programme geschrieben werden müssen.

Diese Skalierbarkeit und die Möglichkeit, aus Daten Erkenntnisse zu gewinnen, haben die KI auch zu einem wichtigen und ergänzenden Instrument für politische Entscheidungsträger und Dienstleistungsanbieter gemacht, die sich für das Wohl der Gesellschaft einsetzen. KI-Instrumente werden mittlerweile in so unterschiedlichen Bereichen eingesetzt wie Krisenreaktionen, wirtschaftliche Emanzipation, Ausgleich von Bildungsherausforderungen, Eindämmung von Umweltproblemen, Sicherstellung von Gleichheit und Inklusion, Gesundheitsförderung, Bekämpfung von Hunger, Informationskontrolle und -validierung, Infrastrukturmanagement, öffentliche Verwaltung und Soziales und sogar im Sicherheitsbereich und in der Justiz.

Der multidisziplinäre Charakter der KI

Die KI von heute gilt zwar noch als „schwache KI“, aber KI-Algorithmen versuchen weiterhin, das menschliche Denken nachzubilden. Dabei wird auch modelliert, wie Menschen tatsächlich denken und wie sie handeln. Für die Entwicklung von KI-Algorithmen ist es deshalb erforderlich, das menschliche Denken und Handeln besser zu verstehen, und man modelliert auch, wie ein idealer Mensch denken und handeln sollte. Hier geht es um die Untersuchung rationalen und ethischen Denkens. Eine moderne KI weiß also, wie sie „handeln sollte“. Beurteilt wird der Erfolg dieser Algorithmen anhand von Leistungskriterien aus Statistik, Physik, Mathematik, Philosophie, Wirtschaftswissenschaften, Sozialwissenschaften, Neurologie und kognitiven Wissenschaften. Darum wird für die Entwicklung eines umsetzbaren KI-Algorithmus oft ein interdisziplinärer Ansatz verfolgt, und dieser setzt sich auch immer mehr durch.

Der Oberbegriff KI vereint verschiedene Einzeldisziplinen. So gibt es ganz unterschiedliche Fragestellungen: Können Computer sprechen? Können sie Sprache erkennen? Können sie Sprache verstehen? Können sie lernen und sich anpassen? Können sie sehen? Können sie planen und Entscheidungen fällen? Im Versuch, diese Fragen zu beantworten, sind verschiedene Unterdisziplinen der KI entstanden: natürliche Sprachverarbeitung, computerbasiertes Sehen, maschinelles Lernen, Data Mining und viele andere mehr. In den letzten Jahren sind neue Methoden und Verfahren aufgetaucht, beispielsweise die Convolutional Neural Networks, die anhand großer Datenmengen eine sehr hohe Leistungsfähigkeit ermöglichen. Diese Algorithmen bauen meist auf einem bestimmten Ablauf von Prozessen auf, angefangen mit Datensammlung sowie Datenbereinigung, Datenspeicherung und Datenmanagement über Datenaufbereitung und -auswahl, visuelle Analysen, iterative Modellierungsprozesse, Performance-Messung und Monitoring bis hin zu einem Endergebnis. Für diese Prozesse werden die Daten in verschiedene Datensätze aufgeteilt, mit denen die Modelle trainiert, validiert und anhand konkreter Beispiele getestet werden. So ähnlich gehen übrigens auch Menschen mit Informationen um.

Risiken

KI-Algorithmen durchlaufen mehrere Einzelprozesse. Deshalb sollte auf einige wichtige Punkte geachtet werden, beispielsweise auf das sogenannte Overfitting: Manchmal passt der entwickelte Algorithmus so gut auf den Datensatz, mit dem er trainiert wird, dass bei der anschließenden Anwendung auf reale Situationen nur schwer aussagekräftige Ergebnisse erzielt werden können. Außerdem können AI-Systeme durch ungeeignete Daten, ungeeignete Algorithmen und ungeeignete menschliche Eingriffe beeinträchtigt werden. Die Computer werden mit enormen Datenmengen gefüttert, in denen sie bestimmte Muster erkennen sollen. Unstrukturierte Daten aus dem Internet, aus sozialen Medien, von mobilen Geräten, Sensoren oder intelligenten Geräten (Internet der Dinge) können das Einlesen, die Verknüpfung, die Sortierung und die Verarbeitung der Daten erheblich erschweren. Werden die Datensätze nicht sorgfältig gepflegt, können sie unvollständige oder fehlende Daten enthalten oder ungenau oder verzerrt sein. Es kann sogar zu einer ungewollten Offenlegung sensibler Daten kommen, wenn nicht sorgsam darauf geachtet wird, dass alle Personenbezüge aus den Datensätzen entfernt werden.

KI-Systeme sind überdies anfällig für algorithmische Verzerrungen. Einige Algorithmen verwenden nur bestimmte Datenarten und geben so ein verzerrtes Bild der Wirklichkeit wieder. Zudem sind die Algorithmen stark von ihren Entwicklern und von der Art abhängig, wie sie umgesetzt und schließlich auch angewendet werden. Viel hängt davon ab, wie ein Problem betrachtet wird. Schon bei der Beschreibung eines Problems legen die Wissenschaftler fest, was sie mit ihrem lernenden Algorithmus letztlich erreichen wollen. Ein Algorithmus beispielsweise, der die Kreditwürdigkeit von Kreditnehmern ermitteln soll und nach Maßstäben der Gewinnmaximierung und nicht der Maximierung der Anzahl Kredite programmiert wird, kann schließlich dazu führen, dass rücksichtslos minderwertige Kredite (Subprime Loans) vergeben werden. Sogar die Zusammensetzung des Entwicklerteams kann zu Verzerrungen führen. Das Problem Framing ist abhängig davon, wer den Algorithmus entwirft, wer über die Umsetzung entscheidet, wer den zulässigen Genauigkeitsgrad festlegt und wer jedes Mal entscheidet, ob eine Anwendung der KI in diesem Fall ethisch ist oder nicht. Da diese Fragen oft nicht ausreichend berücksichtigt worden sind, haben wir heute viele ungute Algorithmen, die diktieren, welche politische Werbung die Menschen sehen, nach welchen Kriterien Personalverantwortliche Bewerber prüfen und sogar in welchen Vierteln Sicherheitskräfte eingesetzt werden.

Auf dem Weg zu einem ethischen Einsatz der KI

Obwohl die Wissenschaft der Künstlichen Intelligenz schon alt ist, wird sie erst in letzter Zeit intensiv in technischen Anwendungen eingesetzt. Deshalb gibt es nicht wenige Marktführer, die hinsichtlich der Risiken für Einzelne, Gesellschaften und Organisationen noch nicht das nötige Feingefühl und Arbeitswissen entwickelt haben. Einige tendieren dazu, Gefahren zu übersehen, andere überschätzen die Möglichkeiten der Risikoeindämmung. Außerdem ist man sich unter Entscheidungsträgern weitgehend uneins, welche Risiken nun zu beachten seien. Zahlreiche Unternehmen erklären, sie hätten die erforderlichen Vorkehrungen getroffen, da sie Trainingsdaten mit mehr Wiederholungen sammeln, regelmäßig auf unbeabsichtigte Tendenzen prüfen und Folgenabschätzungen für bestimmte Zielgruppen vornehmen würden. Ethikexperten im Bereich KI weisen jedoch oft darauf hin, dass viele KI-Algorithmen mit veralteten Daten trainiert werden. Ein Algorithmus, der für einen alten Datensatz akzeptable Ergebnisse bringt, kann auf die Realität angewendet vollkommen versagen. Die Ethik ist deshalb innerhalb der KI zu einem zentralen Forschungsfeld geworden.

Anwendungserfahrungen in der sozialen Sicherheit

In der sozialen Sicherheit wird die KI immer häufiger eingesetzt, vor allem zur Verbesserung des Kundenerlebnisses durch die Automatisierung von Kundendienstleistungen mit einem Front-End-Support rund um die Uhr und jüngst auch zur Automatisierung von Back-End-Prozessen (siehe Abbildung 1).

Abbildung 1. Arten von KI-Anwendungen in Institutionen der sozialen Sicherheit
Abbildung 1

Verschiedene Institutionen der sozialen Sicherheit setzen intelligente Chatbots ein, um den Online-Kundendienst zu verbessern, indem für verschiedene Zweige und Leistungsarten Dienstleistungen hoher Qualität rund um die Uhr bereitgestellt werden. Intelligente Chatbots können menschliches Verhalten simulieren und sind in der Lage, selbstständig auf die Fragen von Nutzern zu antworten. Sie stehen rund um die Uhr zur Verfügung und passen sich flexibel an die Präferenzen der Nutzer an.

Das argentinische Aufsichtsamt für Arbeitsunfälle und Berufskrankheiten (Superintendencia de Riesgos del Trabajo – SRT) hat einen intelligenten Chatbot mit dem Namen Julieta eingeführt, der Fragen über Arbeitsunfallleistungen beantworten kann. Dieser automatisierte und individuell ausgerichtete Kundendienst liefert nicht nur Antworten auf die häufigsten Fragen, sondern er fragt auch nach Kundeninformationen wie dem Status der Registrierung und der Leistungsanträge. Zu den wichtigsten Erfolgsfaktoren gehören die Pflege einer Wissensdatenbank hoher Qualität und ein ständiges Trainieren des Chatbots durch ein interdisziplinäres Team.

Der intelligente Chatbot der Norwegischen Arbeitsmarkt- und Wohlfahrtsbehörde (NAV) wurde hingegen zur Bewältigung des gestiegenen Informationsbedarfs im Kontext der COVID-19-Krise eingesetzt. Konkret beantwortete der Chatbot im Zeitraum von März bis Mai 2020 täglich über 8 000 Fragen, verglichen mit 2 000 Auskünften in der Zeit vor Ausbruch der Coronakrise. Die wichtigsten Erfolgsfaktoren waren das Trainieren des Chatbots mit einer täglich aktualisierten Wissensdatenbank, die Konzentration auf ein bestimmtes Thema und die ständige Kontrolle des Chatbots durch einen menschlichen Experten. Der Chatbot wird nun auch für andere Themenbereiche trainiert, insbesondere zur Unterstützung von Arbeitgebern und Selbstständigen.

In Uruguay betreibt die Bank für Sozialversicherung (Banco de Previsión Social – BPS) einen intelligenten Chatbot, der auf Erkundigungen von Arbeitgebern über das Programm für Hausangestellte antwortet. Dank natürlicher Sprachverarbeitung und einem Dialogmanagementsystem kann der Chatbot die Intention der Kunden ermitteln und entsprechende Maßnahmen vorschlagen. Der Chatbot wurde im Januar 2019 eingeführt und beantwortet heute ungefähr 97 Prozent aller Fragen; für die restlichen 3 Prozent werden menschliche Experten eingesetzt. Die Einführungsphase dauerte etwa ein Jahr, sechs Monate davon wurden für das Trainieren und Testen aufgewendet. Die wichtigsten begünstigenden Faktoren, die ermittelt wurden, sind die ständige Aktualisierung der Wissensdatenbank und die Involvierung eines interdisziplinären Teams für Entwicklung und Betrieb.

Die Allgemeine Anstalt für Sozialversicherung Saudi-Arabiens (General Organization for Social Insurance – GOSI) hat versuchsweise mit dem Einsatz intelligenter Chatbots im Kundenservice begonnen. Ziel war es, eine intelligente Struktur zu schaffen, die auf Kundenfragen reagieren kann und bestimmte Dienstleistungen und Transaktionen vereinfacht. Der Chatbot tritt mit den Kunden über verschiedene Chats und Anwendungen sozialer Netzwerke in Verbindung.

Einige Institutionen setzen die KI auch zur Verbesserung von Back-End-Prozessen ein, vor allem zur Verarbeitung großer Datenmengen, die sowohl herkömmliche Datenbanken als auch unstrukturierten Text und Bilder digitalisierter Papierdokumente umfassen.

Das kanadische Ministerium für Beschäftigung und soziale Entwicklung (Employment and Social Development Canada – ESDC) verwendet die KI zur Ermittlung von Leistungsempfängern des Garantierten Einkommenszuschusses, einer Geldleistung für ältere Menschen mit niedrigen Einkommen. Innerhalb von zwei Monaten haben Modelle durch maschinelles Lernen über 2 000 gefährdete Kanadierinnen und Kanadier ausgemacht, die Anspruch auf den Garantierten Einkommenszuschuss haben. Dazu wurden über 10 Millionen Dokumente mit unstrukturiertem Text eingelesen. Um möglichst viele gefährdete Personen zu erreichen, gestalteten die Businessexperten des Einkommenszuschuss-Programms das Modell sehr inklusiv und akzeptierten auch falsch positive Ergebnisse, die manuell nachgeprüft werden mussten.

Die Erfahrung hat gezeigt, wie wichtig es ist, repräsentative Daten zu verwenden und Nuancen zu erfassen, aber auch die geeigneten Genauigkeitsgrade und Grenzwerte für den jeweiligen Geschäftsbedarf festzulegen. Dies gelang meist nur dadurch, dass der Datensatz für das Trainieren des Modells zusammen mit Businessexperten zusammengestellt wurde. Als eine Lehre aus den Erfahrungen nannte das ESDC, dass die Qualität der zugrundeliegenden Daten entscheidend ist, und dass KI-Projekte durch interdisziplinäre Teams mit Datenspezialisten und Businessexperten geleitet werden sollten. Als größte Risiken sah man die Auswahl der richtigen Instrumente und das mangelnde Verständnis für KI Zusammenhänge beim Personal der Institution.

Die finnische Sozialversicherungsanstalt hat damit begonnen, KI auf zwei Ebenen einzusetzen: (i) zur Verbesserung der Kundendienstleistungen durch die Verknüpfung elektronischer Dienstleistungen mit intelligenten Chatbots und (ii) durch den Einsatz einer KI-basierten Bilderkennung zur Automatisierung von Verwaltungsprozessen bei der Dokumentenerfassung.

Ähnlich nutzt die brasilianische Landesanstalt für soziale Sicherheit (Instituto Nacional do Seguro Social – INSS) einen intelligenten Chatbot mit dem Namen Helô, der rund um die Uhr automatisch auf Fragen von Kunden zu den personenbezogenen elektronischen Dienstleistungen des Portals Meu INSS antwortet. Eine erste Version, die im Mai 2020 aufgeschaltet wurde, hat bereits etwa eine Million Erkundigungen abgearbeitet. Die INSS setzt die KI auch ein, um schneller zu erkennen, wenn Leistungsempfänger verstorben sind, so dass unrechtmäßige Zahlungen frühzeitig gestoppt werden können.

Ebenso hat die belgische Hilfszahlstelle für Arbeitslosenunterstützungen (Caisse auxiliaire de paiement des allocations de chômage – CAPAC) versuchsweise eine KI Anwendung eingeführt, um Papierformulare durch eine optische Buchstabenerkennung zu verarbeiten, was allerdings keine zufriedenstellenden Ergebnisse brachte. Trotz dieser Schwierigkeiten stehen KI Anwendungen weiterhin auf der Agenda der CAPAC, und die Hilfszahlstelle plant, einen intelligenten Chatbot zu entwickeln.

Der Dachverband der österreichischen Sozialversicherungsträger (SV) setzt die KI für unterschiedliche Zwecke ein. Dazu gehört ein intelligenter Chatbot, OSC Caro, der die Kunden in verschiedenen Bereichen wie Kinderbetreuungszulagen, Krankengeld und Rückerstattungen digital unterstützt. Zudem wird das Callcenter durch ein Spracherkennungssystem unterstützt, mit dem die Kundenfragen automatisch an die entsprechenden Stellen weitergeleitet werden. Das KI-Sprachmodell wurde so trainiert, dass es auch bestimmte Fachbegriffe erkennt. Des Weiteren wird die KI eingesetzt, um den eingehenden E-Mail-Verkehr an die entsprechenden Abteilungen weiterzuleiten, und sie erzielt dabei eine Trefferquote von bis zu 93 Prozent. Schließlich wird in einem laufenden Projekt eine halbautomatische Rückerstattung der Kosten medizinischer Dienstleistungen auf der Grundlage von KI-Algorithmen umgesetzt. Hier werden verschiedene Aufgaben durch die KI automatisiert, etwa die Erkennung der eingereichten Dokumente, die Codierung der Diagnose nach der Klassifikation ICD-10 und die Zusammenstellung der für die Rückerstattung erforderlichen Daten (wie Rechnungsbetrag, IBAN). Die halbautomatische Verarbeitung hat die Rückerstattung beschleunigt und das beteiligte Personal entlastet.

Auf staatlicher Ebene gibt es verschiedene Länder, die nationale Strategien zur Künstlichen Intelligenz definiert haben. Die estnische Strategie beispielsweise hat das Ziel, proaktive staatliche Dienstleistungen umzusetzen, die nach Lebensereignissen gestaltet sind, sowie dank intensivem KI-Einsatz vollkommen unbürokratisch individuelle elektronische Dienstleistungen anzubieten.

Der estnische Ansatz KI-basierter digitaler öffentlicher Dienstleistungen wird durch #KrattAI in die Praxis umgesetzt. Dabei handelt es sich um ein interoperables Netzwerk von KI-Anwendungen, das den Bürgerinnen und Bürgern erlaubt, öffentliche Dienstleistungen über eine sprachgestützte Interaktion mit virtuellen Assistenten zu nutzen. Die über 70 laufenden Projekte im Rahmen dieser Strategie, von denen bereits 38 in Betrieb sind, decken ein breites Spektrum von Bereichen wie Umweltanwendungen, Notfall-Unterstützung, Cybersicherheit und soziale Dienstleistungen ab. Insbesondere unterstützt im Rahmen der Arbeitslosenversicherung ein intelligenter Chatbot den Kundenservice und die Bearbeitung von Fällen mit einem Lanzeitarbeitslosigkeitsrisiko.

Zu den Lehren, die aus diesen Erfahrungen gezogen wurden, zählen, dass die Qualität und der Datenschutz der verwendeten Daten sichergestellt sein müssen, dass Metadaten benötigt werden, und dass die KI basierten Anwendungen dank einer Cloud-Infrastruktur und geeigneter Beschaffungspläne skalierbar sein müssen. Zudem müssen die Grenzen dahingehend, wo im öffentlichen Dienst automatisiert werden soll und wo nicht, korrekt festgelegt sein.

Schlussfolgerungen und wichtigste Erkenntnisse

Künstliche Intelligenz wird für die Institutionen der sozialen Sicherheit immer mehr zu einer Schlüsseltechnologie, die eine Erhöhung der administrativen Effizienz durch vollautomatisierte Prozesse und durch die Unterstützung menschlicher Entscheidungen erlaubt.

Obwohl es positive Entwicklungen zu vermerken gibt, stellen sich auch Herausforderungen, insbesondere hinsichtlich der Grenzen und Risiken der KI und der Abwägung zwischen Prozessautomatisierung und menschlicher Kontrolle. Zudem stellt der methodisch unterschiedliche Ansatz zwischen der KI und herkömmlicher Softwareentwicklung diejenigen Institutionen, die solche Projekte umsetzen, vor nicht unbedeutende Herausforderungen.

Kritische Faktoren sind vor allem die Verfügbarkeit und die Qualität der Daten, die für ein ordnungsgemäßes Trainieren der KI-Systeme benötigt werden. Für diesen Datenbedarf ist eine Strategie innerhalb der Organisation nötig, so dass sowohl interne Daten als auch diejenigen externer Organisationen genutzt werden können. Außerdem müssen stets die Datenschutzbestimmungen eingehalten werden.

Für die Einführung von KI-Systemen braucht man besondere institutionelle Kapazitäten. Die Institutionen müssen eine genaue Vorstellung ihres Projektziels haben und sorgfältig Daten auswählen, die für die reale Welt repräsentativ sind. Sie müssen einfache Lösungen suchen, die den verwendeten Algorithmen zugrundeliegenden Betrachtungsweisen beachten und Modelle auswählen, die nicht nur gute Ergebnisse liefern, sondern auch hochentwickelte Fairness-Standards einhalten. Schließlich müssen sie auf eine volle Transparenz achten, damit die Rechenschaftspflicht gewährleistet ist.

Darüber hinaus haben Institutionen, die KI-Lösungen bereits nutzen, darauf hingewiesen, wie wichtig es ist, dass an der Projektentwicklung interdisziplinäre Teams mit Geschäftsprozess- und Datenspezialisten beteiligt sind. Ein entscheidender Faktor ist deshalb auch die Vertrautheit des Personals mit KI-Systemen. Führungskräfte und Projektmanager müssen genau verstehen, welche Implikationen der Einsatz der Künstlichen Intelligenz hat, damit sie festlegen können, welche Prozesse automatisiert werden können und welche Entscheidungen besser weiterhin Menschen überlassen werden.

Die IVSS bedankt sich bei Moinul Zaber, Senior Academic Fellow, Abteilung Policy-Driven Electronic Governance der Universität der Vereinten Nationen (UNU-EGOV), für seine fachliche Expertise, die er in diesen Artikel eingebracht hat.

Referenzen