Die Software identifiziert mit Hilfe von künstlicher Intelligenz die unterschiedlichen Faktoren bei einer Entscheidungsfindung. Laut David Kenny, Senior Vice-President of Cognitive Solutions bei IBM, geht es vor allem um das Sichtbarmachen von Entscheidungsprozessen. „Wenn die Software eine Schlussfolgerung zieht, dass etwa eine Person eine Kreditzusage erhalten soll und dass eine andere sie nicht bekommen soll, dann stellt sich die Frage, wie sie zu diesem Schluss gekommen ist“, wird David Kenny in E&T zitiert. „Der Konsument und das Kreditinstitut wollen wirklich verstehen können, wie künstliche Intelligenz arbeitet.“
Bereits andere IT-Lösungen wie etwa Bilderkennungssysteme konnten mit Hilfe von Algorithmen nachweisen, dass in Entscheidungsprozessen Vorurteile beispielsweise gegen Frauen oder ethnische Minderheiten ausschlaggebend waren. Deshalb legen IBM-Kunden Wert darauf, dass die ethnische Herkunft und das Geschlecht nicht als Merkmale in Entscheidungsprozesse einbezogen werden.
Mit „AI Fairness 360“ bietet das IT-Unternehmen jetzt ein Produkt an, das unter Einsatz von Machine-Learning Transparenz und Nachvollziehbarkeit innerhalb von Entscheidungsprozessen schafft. Die Cloud-basierte Software lässt sich als Open-Source-Lösung gut in bestehende IT-Architekturen integrieren. Sie arbeitet mit gebräuchlichen Bausteinen und Rahmen für die Entwicklung von Algorithmen. Nutzer können über ein visuelles Dashboard herausfinden und verfolgen, wie ihre Algorithmen Entscheidungen treffen und welche Faktoren bei Entscheidungsempfehlungen den Ausschlag geben.
Objektive Bewertungen auf der Basis einer vordergründig diskriminierenden Differenzierung
Wie gelingt es nun, dass die Software objektive personenbezogene Entscheidungen fällt? Dafür muss die Machine-Learning-Lösung zunächst diskriminierend vorgehen, indem sie bestimmte privilegierte Personengruppen mit einem systematischen Vorteil versieht und bestimmte benachteiligte Gruppen mit einem systematischen Nachteil, wie Kush Varshney, Principal Research Staff Member und Manager bei IBM Research, erläutert.
Die vorliegende erste Version von „AI Fairness 360“ enthält neun verschiedene Algorithmen, die darauf ausgerichtet sind, ungewünschte Tendenzen abzuschwächen. Ihre breite Einsatzmöglichkeit für die Zwecke verschiedener Branchen will IBM durch die Anlage in Scikit-learn, einer freien Software-Bibliothek zum maschinellen Lernen für die Programmiersprache Python, sicherstellen.
Die Software enthält drei Tutorials für die Funktionen Kreditwürdigkeit, gesundheitsbezogene Prognose und Klassifizierung von Gesichtsbildern, getrennt nach Geschlechtern. Die Bedienung ist interaktiv und für individuelle Einsatzzwecke leicht zu spezialisieren.
Fehlschläge bei Anwendungen künstlicher Intelligenz in der US-amerikanischen Polizei
Das Beispiel von „AI Fairness 360“ zeigt, dass Algorithmen selbst noch Zeit brauchen, um Menschen objektiv bewerten und Entscheidungen herbeiführen zu können. Der Hersteller IBM erwartet, dass der Einsatz von künstlicher Intelligenz und Machine-Learning bei Unconscious Bias in den kommenden fünf Jahren große Entwicklungssprünge machen wird – und machen muss. Demnach wird künstliche Intelligenz bis 2023 neue Rollen beispielsweise bei der Kontrolle der Wasserqualität und dem Einsatz der Blockchain-Technologie für die Aufdeckung von Betrugsfällen in Versorgungsketten übernehmen.
Dabei werden nach IBM-Prognose nur solche Algorithmen und IT-Systeme am Markt bestehen können, die in der Lage sind, vollkommen unbefangen zu bewerten und zu entscheiden. Fehlende Transparenz und Unvoreingenommenheit hat in den vergangenen Jahren gerade in den USA immer wieder Kritik an den Anbietern von Algorithmen für die Koordinierung von Polizeieinsätzen in Gebieten mit einer höheren Kriminalitätsprognose hervorgerufen. Dabei werteten Kritiker vermehrte und größere Polizeieinsätze in bestimmten Vierteln als Stigmatisierung dieser Wohngebiete.
2016 wurde der Fall von Compas, einen Programm auf der Basis von Algorithmen, bekannt. Das Tool prognostizierte die Rückfallrate von Verurteilten und wies dabei afroamerikanischen Tätern ein unproportional höheres Rückfallrisiko auf. Ein ähnliches Beispiel ist die jüngst aufgedeckte Kooperation zwischen der Kooperation der Polizei von New Orleans und Palantir, einem IT-Anbieter aus dem Umfeld der CIA, der künstliche Intelligenz nutzt.
Künstliche Intelligenz sollen menschliche Entscheidungen unterstützen, nicht ersetzen
IBM zieht angesichts solcher fehlerhaften Lösungen anderer Anbieter die Konsequenz, Softwareprogramme so anzulegen, dass sie unter Einsatz von künstlicher Intelligenz menschliche Unbeständigkeiten erkennen, verstehen und in Entscheidungsprozesse einbeziehen müssen. Nur die Erkenntnis, dass Menschen Neigungen und Vorurteile haben und danach handeln, kann dazu führen, dass Softwarelösungen für künstliche Intelligenz unparteiischer und objektiver entscheiden. Und letztlich sollen Softwareprodukte wie „AI Fairness 360“ dazu dienen, die Entscheidungen von Menschen zu unterstützen und zu verbessern, sie aber nicht ersetzen. <