Das Richtige tun: Der Aspekt der Ethik im Zeitalter des Intelligent Enterprise

Ist von Ethik die Rede, denken viele an die Prinzipien, die das moralisch richtige Handeln von Personen oder Unternehmen beschreiben. Das Thema Ethik mag abstrakt erscheinen – eher etwas für die Philosophen der Antike als für moderne Unternehmenslenker und IT-Verantwortliche. Doch mit intelligenten Technologien wie KI lassen sich Geschäftsprozesse optimieren.

Doch gerade für die Entscheidungsträger von heute ist Ethik ein wichtiges Thema, das größte Sorgfalt erfordert. Angesichts der rasant voranschreitenden Entwicklung künstlicher Intelligenz (KI) und anderer intelligenter Technologien ist Ethik mehr als eine philosophische Frage. Ethik ist heute eine Form des Risikomanagements und sollte deshalb nicht außer Acht gelassen werden.

In den Nachrichten findet man viele Beispiele dafür, dass ethische Skandale und Probleme zu einer erdrückenden Last für die betroffenen Firmen werden können. Unternehmen wie Enron, Siemens und Volkswagen haben auf schmerzhafte Weise gelernt, dass Verstöße gegen ethische Normen sich negativ auf das Unternehmensergebnis auswirken können. Viel härter als die Geldstrafen traf die Firmen der damit verbundene Imageschaden, der zu Umsatzverlusten und in einigen Fällen sogar zur Insolvenz führte.

Durch angemessene Steuerung ethischer Risiken können Unternehmen ihr allgemeines Risikomanagement verbessern. Wie die meisten operativen Probleme dieser Größenordnung ist die Steuerung ethischer Risiken jedoch keine Aufgabe, für die nur einzelne Personen verantwortlich sein sollten. Zwar wünscht man sich nur „ehrliche“ Mitarbeiter im Unternehmen, aber das reicht nicht aus. Ethik und Integrität müssen fest im Unternehmen verankert sein. Daher gilt es, Unternehmensrichtlinien und -standards festzulegen, die im Detail beschreiben, welche Verhaltensweisen erwünscht sind und gefördert werden und welche inakzeptabel sind und vielleicht sogar einen Kündigungsgrund darstellen oder rechtliche Schritte nach sich ziehen könnten.

Eine ausgewogene Perspektive durch Nutzung von KI

Mit intelligenten Technologien wie KI lassen sich Geschäftsprozesse optimieren. Aber durch die Nutzung von KI steigt auch die Zahl verschiedener ethischer Risiken. Umfragen und Stimmungsanalysen in sozialen Medien haben gezeigt, dass die Menschen dem Einsatz dieser Technologien skeptisch gegenüberstehen. Sie fragen sich, ob KI-Algorithmen so programmiert wurden, dass sie inhärente Vorurteile übernehmen. Außerdem sorgen sie sich um Datenschutz, Sicherheit und Hackerangriffe.

Die Technologie selbst ist für die meisten Menschen eine Black Box – selbst für diejenigen, die technisch versiert sind. An unserem Institut haben wir viele Fälle gesehen, bei denen die Ergebnisse von KI-Prozessen nicht immer nachvollziehbar waren, auch nicht für die Programmierer. Und die meisten Führungskräfte wissen nur wenig bis gar nichts über die KI-Ethik.

Um diese Wissenslücken zu schließen, haben Experten eine Reihe von allgemeinen, abstrakten Prinzipien für KI-Ethik definiert. Trotz dieser wertvollen Anstrengungen, ist es an der Zeit, dass Unternehmen konkretere Leitlinien aufstellen. Gemeinsam mit Ingenieuren, Programmierern und Unternehmern müssen wir im Detail erläutern, wie diese Technologien funktionieren und wie sie die Unternehmensethik beeinflussen.

Am Institut für Ethik in der Künstlichen Intelligenz nehmen wir immer Vertreter der technischen Seite sowie der Ethik oder Soziologie in unsere Forschungsgruppen auf. Gemeinsam erarbeiten wir konkrete, umsetzbare ethische Leitlinien für bestimmte KI-Systeme – zum Beispiel solche, die im Finanzsektor oder im Gesundheitswesen eingesetzt werden könnten.

Viele Führungskräfte haben uns gefragt, was sie tun müssen, um sicherzustellen, dass das Thema Ethik in ihrem Unternehmen angemessen berücksichtigt wird. Sie möchten wissen, ob sie neue Abteilungen oder Stellen schaffen sollten, die für Ethik zuständig sind. Für jedes Unternehmen die richtige Antwort parat zu haben ist schwierig.

Vor allem müssen sich Unternehmen darauf konzentrieren, Ethik in ihren KI-Entwicklungsteams zu verankern. Es kann also hilfreich sein, neue Personen einzubinden oder neue Kompetenzen zu entwickeln, um die ethischen Auswirkungen moderner Technologien wie künstliche Intelligenz besser zu verstehen.

Gute Geschäftsaussichten: Künstliche Intelligenz beschleunigt Prozesse

Da intelligente Systeme Informationen schneller und detaillierter bereitstellen als je zuvor, wird sich die Art der Arbeit verändern. KI verspricht, viele Prozesse zu beschleunigen, auch wenn größere Datenmengen verarbeitet werden. Dank dieser neuen Effizienzsteigerungen werden Mitarbeiter weniger Zeit mit der Bewertung von Informationen verbringen und mehr Zeit mit der Umsetzung von Maßnahmen.

In manchen Abteilungen könnte dies zu Personalabbau führen. Banken oder Versicherungen würden dann vielleicht weniger Analysten benötigen. Dies bedeutet jedoch nicht, dass in Zukunft für die Menschen nicht mehr genügend zu tun bleibt.

Das Hauptaugenmerk wird stärker auf die Schnittstellen zwischen Arbeitnehmern und KI-Systemen gelegt werden. Für dieses Thema haben wir an unserem Institut eine Forschungsgruppe gegründet, weil wir der Meinung sind, dass es an Bedeutung gewinnen wird. Die Präferenzen der Anwender, die KI-Systeme nutzen, werden oft nicht ausreichend berücksichtigt. Programmierer müssen intelligente Technologien entwickeln, die sich flexibler an die Wünsche und Bedürfnisse der Menschen anpassen können.

Eine weitere Herausforderung stellen die Kommunikationsschnittstellen zwischen der KI und dem Anwender dar. Im Gesundheitswesen stellt sich zum Beispiel die Frage: Wie soll die Software Patientenergebnisse kommunizieren ohne gegen die ethischen Grundsätze des Gesundheitsdienstleisters zu verstoßen? Im Personalwesen nutzen einige Unternehmen bereits Software auf Basis von KI, um die Lebensläufe von Bewerbern zu prüfen und den Personenkreis, der zum Gespräch eingeladen wird, möglichst klein zu halten.

Mit diesen Anwendungen sind gewisse ethische Risiken verbunden – aber sie bieten auch Chancen. Wir wissen zum Beispiel, dass autonomes Fahren mit Gefahren verbunden ist. Die Systeme können aber so programmiert werden, dass sie im Vergleich zu menschlichen Fahrleistungen die Zahl der Unfälle, Personen- und Sachschäden deutlich reduzieren können und das wird häufig nicht erwähnt. Das ist ein ethisches Ziel, das wir mithilfe der Technologie erreichen können.

Im Gesundheitswesen können durch die Einführung neuer Technologien Leben gerettet und Leiden gelindert werden. Zwei Beispiele aus der medizinischen Praxis für eine ethisch vertretbare Nutzung von KI sind Telemedizin- und robotergestützte Chirurgie. Menschen machen viele Fehler, weil sie sich auf ihr Bauchgefühl verlassen oder sich immer wieder unvernünftig verhalten. In einigen Bereichen könnte die KI uns helfen, bessere Entscheidungen zu treffen und Maßnahmen zu ergreifen, die den Menschen helfen – wenn wir die richtigen ethischen Regeln in die Software einbauen.

Ethik in die Designphase integrieren

Die Anforderungen an eine ethisch vertretbare KI bereits in der Designphase zu integrieren, ist ein noch ausgestaltungsfähiges Konzept  Wir müssen Ethik in den Code einbauen und das ist machbar. Doch es gibt noch andere Aspekte, die berücksichtigt werden sollten. Im Bereich des maschinellen Lernens müssen wir darauf achten, wie die Trainingsdaten ausgewählt werden.

Es gab schon viele Beispiele für KI-Systeme, die voreingenommen waren, weil ein Unternehmen nur die bereits gesammelten Daten verwendet hatte. Wir können dies korrigieren, indem wir mehr Sensibilität gegenüber Ethikproblemen sicherstellen. Bei einigen Anwendungen müssten weitere Daten hinzugefügt werden. Oder sie sollten eine Art künstliche Daten enthalten, anhand derer die Algorithmen trainiert werden. Für die Unternehmen wird dies in Zukunft ein großes Problem sein.

Darüber hinaus verlagert sich die Verantwortung, sicherzustellen, dass die Informationen korrekt verwaltet und aktuell gehalten werden. In vielen Teilen der Welt trägt laut Gesetz der Fahrer die Schuld, wenn es zu einem Zusammenstoß kommt. Dies wird sich ändern müssen. Bei einem autonom fahrenden Auto ist nicht mehr der Fahrer verantwortlich, sondern der Fahrzeughersteller oder Softwareanbieter.

Aus Sicht der Nutzer müssen die Technologie und auch die Daten vertrauenswürdig sein. Und möglich ist dies nur, wenn die richtigen Schnittstellen zwischen Mensch und Technologie geschaffen werden. Wenn Menschen mit einer Art Black Box konfrontiert sind, die Ergebnisse liefert, trägt dies nicht dazu bei Vertrauen zu schaffen. Denken Sie an einen Fahrer, die sich von einem Navigationssystem den Weg weisen lassen, diesen dann aber ignoriert, weil er davon ausgeht, dass er die Straßen besser kennt. In der Regel ist das System besser informiert. Aber der Fahrer muss dem System erst vertrauen, um den erwarteten Wert realisieren zu können.

Rechtliche Ordnungsrahmen könnte uns helfen, den Übergang zu ethisch korrekteren und humaneren intelligenten Technologien zu vollziehen. Aber diese Vorschriften werden – je nach Anwendung – zu unterschiedlichen Zeitpunkten in Kraft treten. Für das autonome Fahren gibt es bereits einige gut ausgearbeitete Vorschläge. In anderen Bereichen, wie Finanzdienstleistungen und Gesundheitswesen, brauchen wir noch etwas mehr Zeit, um geeignete Vorschriften auszuarbeiten.

Wir müssen jedoch vorsichtig sein, die Technologie nicht durch zu strenge oder zu frühe Vorschriften aufs Spiel zu setzen. Ethik kann der Industrie dabei helfen, zum richtigen Zeitpunkt die richtigen Regeln zu entwickeln. Organisationen wie das Büro für Informations- und Kommunikationstechnologie der Vereinten Nationen arbeiten bereits an internationalen Standards für KI und schaffen damit eine Grundlage für die Entwicklung dieser neuen Technologien.

Damit intelligente Systeme zu den gewünschten Ergebnissen führen, müssen sie die Folgen für die Nutzer berücksichtigen. Meinen Studenten sage ich gerne: „Ohne Ethik kann KI nicht fliegen.“ Unternehmenslenker und IT-Verantwortliche sind sich dessen bewusst und können ethische Aspekte gleich zu Beginn ihrer Technologieinitiativen berücksichtigen. Das Risiko, dass später Probleme auftreten, lässt sich dadurch verringern.