Der Einsatz von „künstlicher Intelligenz“ (KI) stößt bei vielen Menschen auf Skepsis. Zu unvorhersehbar scheint der Einfluss auf den Arbeitsmarkt, zu groß die Gefahr des menschlichen Kontrollverlusts. SAP-Innovator Guido Wagner erklärt, wie sich Risiken eingrenzen lassen und welche Rolle eine digitale Ethik dabei spielt.
Visionäre Köpfe wie der kürzlich verstorbene Physiker Stephen Hawking warnten vor dem Einsatz von KI. 2016 entwickelte ein Chatbot innerhalb kürzester Zeit eine rassistische Ausdrucksweise.
Angesichts solcher Berichte fürchten viele Menschen den Einsatz künstlicher Intelligenz. Zu Recht?
Die Warnungen von Hawking bezogen sich auf mögliche Langzeitauswirkungen potenzieller Super-Intelligenzen. Bei SAP hingegen konzentrieren wir uns insbesondere darauf, bei Interaktion zwischen Anwender und System den Menschen in den Mittelpunkt zu stellen sowie spezifische Geschäftsprozesse zu verbessern. Aber natürlich lassen solche Dinge aufhorchen. Das Risiko, dass KI-Systeme Fehler machen, besteht wie in jedem – auch von Menschen gesteuerten – Prozess zweifellos. Allerdings tragen dafür nicht die Systeme die Verantwortung, sondern die Menschen, die sie einsetzen, sie programmiert und angelernt haben. Denn wir geben unsere Vorlieben, Werte und teilweise auch Vorurteile über den Lernalgorithmus und über die Qualität der zum Lernen benutzten Daten an die KI weiter. Intelligente Systeme können zwar mühelos Muster in unstrukturierten Datenmassen erkennen, realitätsverzerrende Ungleichgewichte in einer Datenbasis (Bias) aber bislang ohne menschliche Hilfe nicht immer richtig und wertfrei einordnen.
Wie lässt sich die KI verbessern?
Zunächst einmal sollten alle Entwickler von KI daran arbeiten, dass die von ihren Algorithmen autonom getroffenen Entscheidungen allgemein so nachvollziehbar und transparent wie möglich bleiben – und bei Bedarf in letzter Instanz durch den Menschen korrigiert werden können. Das allein reicht aber nicht aus. Mindestens genauso wichtig ist das Ziel, bei der Entwicklung und dem Einsatz künstlicher Intelligenz moralische Werte einzubringen. Intelligente Systeme, die “wertfrei” aufs Gewinnen getrimmt sind, werden nur dieses Ziel verfolgen.
Algorithmen haben von sich heraus kein Gespür dafür, ob durch ihr Handeln womöglich Menschen benachteiligt oder geschädigt werden. Menschen dagegen wissen, dass eine faire Gesellschaft Regeln braucht, und fällen Entscheidungen deshalb auch auf Basis ethischer Gesichtspunkte. Wer will, dass KI-gesteuerte Strukturen sich nach menschlichen Maßstäben korrekt verhalten, muss sie mit entsprechenden Grundlagen versorgen. Anders gesagt: KI kann nur das widerspiegeln, was wir ihr in der Programmierung, Trainingsphase und im Laufe ihrer Nutzung vermitteln. Daher müssen alle KI-Anbieter weiter an ethischen Aspekten sowie an den diversen technischen Herausforderungen arbeiten.
Vielerorts sind KI-Lösungen bereits im Einsatz. Wurde da vielleicht der zweite Schritt vor dem ersten gemacht?
Bisherige Systeme liefern zwar Analysen und Vorschläge, greifen in der Regel aber nicht autonom in ein Geschehen ein. Hier können wir aus früheren Erfahrungen lernen: Beispielsweise wurde das Thema Cybersecurity lange allgemein unterschätzt. Erst als Viren, Trojaner und Datendiebstahl weltweit Schäden in Milliardenhöhe anrichteten, wurde Internetsicherheit zum Business Case. Umso wichtiger, dass wir als Gesellschaft es in Sachen KI gar nicht erst so weit kommen lassen. Als führendes europäisches Softwareunternehmen übernimmt die SAP dabei eine große Verantwortung. Schließlich ebnen wir mit zahlreichen innovativen Produkten den Weg zum intelligenten Unternehmen. Wir sorgen deshalb aktiv dafür, dass die Mitarbeiter und die Geschäftsmodelle unserer Kunden geschützt bleiben, und werden dies auch in Zukunft tun.
Was bedeutet das konkret?
Einerseits spielt die Qualität der Eingangsdaten bei der Entscheidungsfindung eine wichtige Rolle. Es gilt, Verzerrungen auszuschließen und eine zuverlässige Entscheidungsbasis herzustellen. Auch deswegen entwickelt die SAP neue Lösungen gemeinsam mit Kunden und Co-Innovationspartnern. Projekte ohne ausreichende Datenbasis werden von uns nicht weiterverfolgt. Andererseits muss die Industrie weiter daran arbeiten, dass KI-Systeme Entscheidungen verlässlich, nachhaltig und eben auch verantwortlich und unter Berücksichtigung ethischer Aspekte treffen. Um dies zu gewährleisten, braucht es entsprechende Leitplanken für die Entwicklung und den Umgang mit KI-Systemen. Erst dann kann ein Unternehmen davon ausgehen, dass die vom System vorgelegte Entscheidungsgrundlage auch auf den aktuellen Unternehmenswerten fußt.
Wie trägt die SAP zur Entwicklung entsprechender Standards bei?
Aktuell arbeiten wir beispielsweise an Leitgedanken für das Design und die Entwicklung von KI-basierten Lösungen. Diese sollen zeigen, wie wir als SAP mit solchen Fragestellungen umgehen, und so das Vertrauen unserer Kunden in KI-Systeme stärken – zum Beispiel, indem wir uns gemeinsam mit akademischen Forschungspartnern mit Themen wie Datenschutz und Privatsphäre beschäftigen. In einer Arbeitsgruppe zum Thema Unternehmensverantwortung entwerfen Vertreter aller involvierten Geschäftsbereiche Vorschläge, die auch über die SAP hinaus Bestand haben. Das ist aus meiner Sicht enorm wichtig. Denn in Zeiten der Globalisierung müssen ethische Leitplanken für künstliche Intelligenz und maschinelles Lernen auf einem gemeinsamen, unternehmensübergreifenden Nenner basieren. Dieser kann durch die Gesetzgebung und durch industrielle Selbstorganisation erzeugt werden. Gelingt das, wird digitale Ethik langfristig vielleicht sogar dazu beitragen, kulturelle und gesellschaftliche Grenzen zu überwinden.
Dieser Beitrag erschien zuerst in der Computerwoche.
Bild via Shutterstock