>

Fairness, Transparenz und menschliche Mitbestimmung: Die ethische Seite von künstlicher Intelligenz

Feature

Relevant, zuverlässig und verantwortungsvoll soll die künstliche Intelligenz sein, die SAP in Lösungen und Produkte einbettet – so hat man es sich beim Walldorfer Softwarekonzern auf die Fahnen geschrieben. Um die verantwortungsvolle Seite der KI-Anwendung bei SAP kümmert sich die Abteilung AI Ethics, geleitet von Dr. Sebastian Wieczorek.

Das Bewusstsein, dass künstliche Intelligenz wichtige Fragen nach Ethik und Verantwortung aufwirft, gab es bei SAP von Stunde Null an.

„Bei SAP war das Thema Ethik von Anfang an Bestandteil unserer Forschung und Entwicklung zu künstlicher Intelligenz“, berichtet Sebastian Wieczorek, Head of AI Ethics bei SAP SE. „Jede Entwicklung im Bereich KI orientiert sich strikt an den Werten, die SAP vertritt.“

Die Anfänge künstlicher Intelligenz bei SAP

Wieczorek war bereits 2014 Teil der ersten KI-Abteilung bei SAP. „Neben den technischen und Produktaufgaben haben wir von Anfang an auch den ethischen Aspekt unserer Arbeit mitgedacht“, sagt er.

SAP war die erste europäische Firma, die Leitsätze für den Umgang mit KI definiert und ein entsprechendes Beratungsgremium aufgesetzt hat. Wieczoreks Arbeit hatte immer einen technischen Fokus, aber daneben war er unter anderem Mitglied des Steering-Komitees für KI-Ethik bei SAP, Mitglied der Enquête-Kommission zu KI im deutschen Bundestag und hat beim EU-Parlament über Einsatzmöglichkeiten künstlicher Intelligenz berichtet.

Generative KI: Führ mich zum Schotter!

Auch intern bei SAP wurden frühzeitig Prozesse angestoßen, um einen Ansatz zu ethisch unbedenklicher KI zu formulieren, aus der letztlich die SAP AI Policy hervorging.

Um ethische Fragen zu adressieren, werden Experten gebraucht, die sich in der Tiefe mit KI-Technologie auskennen, sich aber auch mit philosophischen Fragen, Moral und der juristischen Seite von Technologie befassen können und wollen.

„Man kann bei unserer Arbeit im Bereich AI Ethics von einer Übersetzungsleistung sprechen“, sagt Wieczorek. „Von technologischen Gegebenheiten und Möglichkeiten in die Themen der Philosophie, Gesellschaft und Recht. Die Ergebnisse müssen dann rückübersetzt werden in technologische Anforderungen, so dass ein steter Austausch zwischen beiden Bereichen zustande kommt.“

Die Rolle des Menschen

Derzeit können KI-Systeme jedoch keine eigene Motivation oder eine Vorstellung von sich selbst oder der Welt entwickeln – geschweige denn aus eigenem Antrieb Überlegungen anstellen, wie sich diese Welt am besten optimieren ließe.

„Es sind Systeme, deren Zweck und Aufgaben Menschen bestimmen“, betont Wieczorek. „Was Menschen nicht mehr machen, ist die genaue Umsetzung der Aufgabe zu definieren.“

Wie immer, wenn Aufgaben delegiert werden – ob nun an Maschinen oder andere Menschen –, muss sichergestellt werden, dass bei der Ausführung bestimmte Spielregeln hinsichtlich Fairness, Transparenz und menschlichem Mitbestimmungsrecht eingehalten werden.

„Wir wissen weniger darüber, wie die Entscheidung einer KI letztlich zustande kommt, als bei herkömmlicher Software“, sagt Wieczorek. „deshalb müssen wir uns die Möglichkeit offenhalten einzugreifen, wenn diese Automatisierung in bestimmten Fällen nicht funktioniert.“

Wie dieses Eingreifen im Einzelfall aussieht, kann ganz unterschiedlich sein, da hierbei die Software als Ganzes und nicht nur einzelne Komponenten betrachtet werden muss.

Das wohl bekannteste Beispiel für Diskriminierung durch intelligente Software ist der Ausschluss historisch unterrepräsentierter Gruppen in Bewerbungsverfahren. Die historischen Daten, mit denen die KI trainiert wird, spiegeln unter Umständen die vorurteilsbelasteten Auswahlkriterien der Vergangenheit wider. So kann es theoretisch passieren, dass die KI diese Vorurteile für den eigenen Auswahlprozess übernimmt und reproduziert.

„Seiteneffekte dieser Art können durch das hohe Automatisierungspotenzial von KI-Software relativ schnell großflächig auftreten“, sagt Wieczorek. „Wir müssen deshalb hohe Maßstäbe an die Art und Weise der Automatisierung anlegen und Möglichkeiten haben, Seiteneffekte zu begrenzen und möglichst effizient wieder rückgängig machen.“

Richtlinien für die Trainingsdatensätze sind dabei weder der einzige Hebel noch sind sie ein Garant größtmöglicher Fairness.

„Es ist eine Kette von Dingen zu beachten“, sagt Wieczorek. „Das System als solches muss Garantien dafür abgeben können, dass die Bewertung fair ist, d. h., sein Verhalten muss der Gesamtbetrachtung nach einwandfrei sein.“   

Überprüft wird dies bei SAP durch Einzelfallbetrachtungen.

Für jeden KI-Anwendungsfall eine Ethik-Prüfung

„In der SAP AI Policy ist festgeschrieben, dass alle unsere Produkte und Lösungen, die KI verwenden, unter ethischen Gesichtspunkten überwacht werden müssen – sowohl während der Entwicklungsphase als auch später, wenn die Produkte bereits am Markt sind“, sagt Wieczorek.

Mensch sein im Zeitalter von KI

Jeder KI-Anwendungsfall ist Gegenstand einer gesonderten Überprüfung, die mindestens Erklärungen der Produktteams beinhaltet, in welcher Art und Weise sie den Richtlinien der SAP AI Policy entsprechen.

Bei ihrer Definition durchlaufen alle Anwendungsfälle zunächst eine Klassifizierung. Wenn Anwendungsfälle jedoch beispielsweise automatisierte Entscheidungen treffen, die Menschen betreffen, gelten sie automatisch als sensibel und werden als High Risk Use Cases eingestuft.

„Solche Anwendungsfälle durchlaufen dann zwingend einen Reviewprozess, der durchgehend von Experten beispielsweise aus meinem Team begleitet wird“, sagt Wieczorek. „So wird jeder einzelne Fall systematisch auf Risiken überprüft, um dann gegebenenfalls zu entscheiden, welche Maßnahmen zu ergreifen sind, um die ethischen Standards, die SAP vorgibt, umzusetzen.“

Begrenzt der Einsatz von KI menschliche Verantwortung?

Routineaufgaben werden einer KI automatisiert gestellt und müssen nicht jedes Mal neu erdacht werden. In dem Maße wie individualisierte Aufgaben von der KI übernommen werden, z. B. durch Chatinteraktionen, wächst jedoch die Verantwortung der Benutzer.

Wieczorek sieht eine geteilte Verantwortung zwischen dem KI-Entwickler und dem Benutzer. „Speziell bei Aufgaben, die Menschen betreffen und menschliche Konsequenzen haben, werden wir die Verantwortung nicht auf Produkte abwälzen“, betont er.

Wer eine KI-Anwendung zur Verfügung stellt, ist in der Pflicht, über deren Verhalten Transparenz herzustellen und klarzumachen, wofür es konzipiert wurde beziehungsweise wofür nicht.

Das ermöglich es wiederum den Nutzern, ihre eigene Verantwortung wahrzunehmen: Gestellte Aufgaben müssen ethischen Grundsätzen entsprechen und die Ergebnisse überprüft statt einfach übernommen werden.

Besonders wichtig ist dabei, dass Menschen immer noch in die Arbeitsweise der Systeme eingreifen können für den Fall, dass sich über die Zeit doch noch ein unerwünschter Seiteneffekt wie etwa unfaires Verhalten des Systems zeigt.

„Es muss stets gewährleistet sein, dass der Mensch die von der KI getroffenen Entscheidungen infrage stellen und gegebenenfalls rückgängig machen kann“, sagt Wieczorek. „Das liegt in der Verantwortung der Hersteller von KI-Systemen, wie in der SAP AI Policy niedergelegt.“

Abonnieren Sie den SAP News Center Newsletter