Soccer team in a huddle

Künstliche Intelligenz: Warum neuronale Netze noch „humpeln“

Feature | 17. Juli 2017 von Andreas Schmitz 1

Plattformen und ihre Services gelten heute bereits als etabliert. Jetzt kommt die künstliche Intelligenz. „Es gibt skalierbare Systeme und komplexe System lassen sich schnell trainieren“, sagt Wolfgang Wahlster aus dem DFKI. Trotzdem gibt es Herausforderungen.

Schätzungen von Beratungshaus McKinsey zufolge investierten technologische Konzerne im vergangenen Jahr zwischen 20 und 30 Milliarden US-Dollar in künstliche Intelligenz (KI) – dreimal mehr als noch vor drei Jahren. 90 Prozent davon fließen in Forschung und Entwicklung sowie praktische Anwendungen, zehn Prozent in KI-Akquisen. Entsprechende Initiativen wirken sich positiv auf die Marge in diversen Branchen aus. So kann etwa ein Autokonzern, der auf KI setzt, mit sieben bis acht Prozent Marge rechnen, während Unternehmen aus dieser Branche, die keine KI-Initiativen angeschoben haben, froh sein können, Profit zu machen. Auch für Finanzdienstleister (12 Prozent Marge gegenüber minus zwei Prozent) und das Gesundheitswesen (17 Prozent Marge gegenüber minus einem Prozent) lohnt sich der Studie zufolge der Einsatz von KI.

Von Smart Services zu künstlicher Intelligenz (KI)

Am Rande des Digital-Gipfels in Ludwigshafen unterhielt sich acatech-Präsident Henning Kagermann mit dem Vorsitzenden der Geschäftsführung des Deutschen Forschungszentrums für künstliche Intelligenz (DFKI) Wolfgang Wahlster über die Fortschritte der künstlichen Intelligenz. Erst kürzlich auf der Cebit 2017 übergab Kagermann den Abschlussbericht des Fachforums „Autonome Systeme“ an Bundeskanzlerin Angela Merkel. Für den acatech-Präsidenten Kagermann ist KI eine logische Fortsetzung der Aktivitäten im Rahmen der Smart Service Welt, in der es vor allem um den Einsatz von Plattformen und deren Services ging.

Henning Kagermann und Wolfgang Wahlster gingen beim Digital-Gipfel der Frage nach: Wie weit haben es die KI und das maschinelle Lernen inzwischen gebracht?

Wolfgang Wahlster: Der Durchbruch im maschinellen Lernen kam im vergangenen Jahr. Neu war nicht die Erkenntnis, dass Software lernen kann. Denn dazu war sie schon lange fähig. Was fehlte war die Skalierbarkeit. Bei genauerem Hinsehen stellten sich die großen Erfolgsbeispiele eher als Mickey-Maus- und Legolandwelten heraus. Wir hatten Systeme geschaffen, die in einer ganz speziellen Domäne – klein aber fein – sehr gute Ergebnisse lieferten, überspitzt gesagt „Fachidiotensysteme“. Mit dem maschinellen Lernen, das auf riesigen Datenmengen beruht, ist nun eine Skalierbarkeit möglich, mit der sich nun wirklich große Probleme angehen lassen. Jetzt kann man nicht nur „Ende zu Ende“ lernen und maschinelles Lernen nutzen, sondern auch in Echtzeit Aktionen planen. Mit Hilfe der Aktionsplanung und dem neuronalen Lernen haben wir zudem das Sprach- und Bildverstehen entscheidend verbessert. Hinzu kommt, dass durch Big Data nun genügend Trainingsdaten zur Verfügung stehen. Nicht zuletzt der Durchbruch bei leistungsfähigen Grafikkarten und deren Programmierung hat uns sehr leistungsfähige Systeme ermöglicht, sodass wir heute schon innerhalb von 20 bis 30 Minuten komplexe Systeme trainieren können.

Wir können komplexe Systeme heute in 20 bis 30 Minuten trainieren. (Wolfgang Wahlster)

Henning Kagermann: Amazon verkauft seit kurzem in Deutschland über Amazon Fresh Lebensmittel und prüft jede Erdbeere vor der Auslieferung auf Haltbarkeit. Niemand braucht sich mehr über angefaulte Erdbeeren ärgern …

Wahlster: Das Bildverstehen ist inzwischen derart schnell geworden, dass man mehr und mehr davon wegkommt, nur Stichproben zu nehmen. Der Qualitätscheck kann heute für jede einzelne Instanz gemacht werden. In Pakistan beispielsweise gibt es riesige Mango-Plantagen. Allerdings dürfen die Früchte nicht in die Europäische Union eingeführt werden, da einige von ihnen Fadenwürmer enthalten. Mit Hilfe von maschinellem Lernen und Infrarotkameras haben wir nun einen Weg gefunden, jede einzelne Mango zu prüfen. Ein solches Verfahren könnte die Mangos also letztlich erheblich günstiger für uns machen, sollten sie eingeführt werden dürfen.

Kagermann: Ein viel diskutiertes KI-Thema ist das autonome Fahren, das auch im DFKI erforscht wird. Es ist so leicht, Trainingsdaten einzufordern. Dabei kennen wir doch gar nicht alle Varianten, die es im Verkehr gibt. Da müsste man jahrelang durch die Straßen gehen und Filme machen. Deshalb erzeugt das DKFI nun künstliche Daten …

Wahlster: Das ist ganz wichtig. Denn ein großes Problem bei künstlicher Intelligenz und maschinellem Lernen liegt derzeit darin, dass Massendaten gerade für sehr gefährliche Situationen fehlen. Wenn etwa der Hirsch nachts vor das Auto springt, gibt es keine Youtube-Videos, die dem System beibringen könnten, wie ein Fahrzeug hier reagieren sollte. Es fehlt hinten und vorne an Massendaten, die nötig sind, damit das Auto lernen kann. Die Idee ist, synthetische Daten zu erzeugen und Fahrzeuge auf dieser Basis lernen können. Ich rechne damit, dass wir mit diesem Ansatz in den nächsten zwei, drei Jahren entscheidende Schritte nach vorne machen werden.

Es fehlt hinten und vorne an Massendaten, die nötig sind, damit das Auto lernen kann.(Wolfgang Wahlster)

Kagermann: Beim autonomen Fahren wird es darum gehen nachzuweisen, dass dadurch ein signifikanter Sicherheitsgewinn möglich werden wird. Sind wir schon so weit?

Wahlster: Es ist essenziell, dass solche Systeme auch eine Erklärungskomponente enthalten. Doch ist es mit den heutigen maschinellen Lernverfahren noch nicht möglich, Systeme dazu zu bringen, dass sie uns die Entscheidung erläutern. Wir können sie für „Klassifikationsaufgaben“ wie bei den Erdbeeren und Mangos einsetzen, sogar um einen Fußgänger von einem LKW zu unterscheiden. Bei komplexen Entscheidungen ist das heute jedoch noch nicht möglich. Doch gibt es noch ein weiteres Problem: Ein selbstlernendes System ist nicht in der Lage, einmal gelernte falsche oder überholte Daten wieder zu löschen. Sie bekommen dieses Wissen aus dem neuronalen Netz kaum wieder heraus. Beim Menschen hingegen gibt es das „Extinktionslernen“. Wer sich etwa durch Schmerzen eine Fehlhaltung beim Gehen angewöhnt hat, muss sein neuronales Netz etwa über Physiotherapie neu trainieren, um wieder normal gehen zu können. Das macht das neuronale Netz einer Maschine nicht. Es „humpelt“ weiter.

Kagermann: Wie kann garantiert werden, dass ein auf Statistiken basierendes selbstlernendes System sich an ethische Regeln hält?

Wahlster: Es muss das oberste Gebot sein, dass das System diese Regeln einhält. Anhand eines Standardszenarienkatalogs, den der Ethikrat erarbeitet hat, muss das überprüft werden. Ohne, dass ein Auto diese Regeln umsetzt, darf es nicht fahren. Es wird eine TÜV-Abnahme geben, die überprüft, ob ein Fahrzeug anormale Situationen beherrscht. Klar ist: Ein Selbstlernen ist im Auto in den nächsten Jahren noch nicht sinnvoll und auch nicht ethisch vertretbar.

Weitere Informationen:

Erfahren Sie mehr über das Thema “Machine Learning”.

Foto: A. Schmitz, 2017; Henning Kagermann (li.) und Wolfgang Wahlster

Tags: , ,

Leave a Reply