Soccer team in a huddle

Smart Data Innovation Lab: Drei Fragen an …

28. Oktober 2014 von Andreas Schmitz 0

Wilfried Juling. Den Professor am Karlsruhe Institute of Technology (KIT) treibt die Mission, aus Big Data Wissen zu generieren. Im Smart Data Innovation Lab (SDIL) bündelt er  Technologien und Ideen und demonstriert, was gemeinsam geht.

Herr Professor Juling, Sie haben mit den 11 SDIL-Partnern aus Wissenschaft und Wirtschaft so genannte Data Innovation Communities geschaffen, in denen mehr als 50 weitere Partner zusammenarbeiten. Worum geht es darin?

Wir sind vor neun Monaten mit dem Ziel gestartet, aus Big Data Smart Data zu machen. Unser konkretes Ziel ist es, neue Algorithmen und Analysewerkzeuge für die Industrie zu entwickeln. Inzwischen haben wir einen von allen Seiten unterzeichneten Konsortialvertrag, so dass auch geklärt ist, wer Zugriff auf Daten und Analysen bekommen darf. In den ersten vier Data Innovation Communities Industrie 4.0, Energie, Smart Cities und Medizin laufen bereits erste Piloten. Es geht uns darum, Daten aus Wissenschaft, dem öffentlichen Bereich und der Industrie für die Erprobung von Algorithmen miteinander zu verknüpfen und zu analysieren. Und zwar auf Basis der Plattformtechnologien der am SDIL beteiligten Softwareunternehmen.

Worum geht es in den Pilotprojekten?

Prinzipiell geht es in allen Projekten darum, Industrie-Knowhow mit dem Grundlagenwissen der Forschung zusammenzubringen und in praktischen Szenarien einzusetzen. Die Software spielt eine wichtige Rolle, unterstützt von modernen und schnellen Datenbanken. So bringen wir in einer Kooperation von SAP und dem KIT Stromnetz- und Strommarktdaten zusammen und prognostizieren mithilfe von Algorithmen, wie sich Angebot und Nachfrage im Stromnetz und auf dem Markt dynamisch ausregeln. Für den Werkzeughersteller Trumpf geht es in einem Projekt darum, über die Analyse diverser Sensordaten in den Maschinen Anomalien zu entdecken, die darauf hinweisen, dass Bauteile ermüden und ausgewechselt werden müssen. Wir nutzen also die vernetzten Daten für „predictive maintenance“. Darüber hinaus erproben Katastrophenschützer die Technologie zusammen mit dem SDIL – und zwar für die Vorhersage des Wasserstands am Rhein. Die Kölner Hochwasserschutzbehörde hat das Ziel, schon lange vor etwaigen Überschwemmungen möglichst präzise zu wissen, wie hoch das Wasser wohl steigen und eine eventuelle Gefährdung entwickeln wird. Diese Methode der „Verkehrsflussteuerung“ ist auch für andere „Smart-City“-Projekte interessant. Last but not least analysieren wir Hirnscans zusammen mit dem Forschungszentrum Jülich. Ziel ist es, aus den zusammengesetzten (digital vorliegenden) Schnittbildern Abweichungen zu erkennen und so sehr frühzeitig Indizien für Erkrankungen bei Patienten zu finden.

Es sollen weitere 30 Pilotprojekte auf den Weg gebracht werden. Inwieweit profitieren auch andere Unternehmen von Ihren Ergebnissen?

In jedem Projekt entstehen Algorithmen, die für die einzelnen Szenarien entwickelt wurden. Ziel ist es, besonders dem Mittelstand eine Serie an Standardalgorithmen zur Verfügung zu stellen, gesammelte generische Algorithmen gewissermaßen, die ihnen den Einstieg in das Thema Big Data erleichtern. Denn gerade der Mittelstand bringt oft keine ausreichenden Ressourcen für derartige Projekte mit. Zudem vergleichen wir die Datenbanksysteme der Softwarehersteller miteinander. Es wird ein Benchmark entstehen, der mehr und unabhängige Transparenz über die Systeme schafft. Übrigens ist es wirklich bemerkenswert, dass hier Wettbewerber ihr Wissen miteinander austauschen und vergleichbar machen.

Mehr zur Arbeitsgruppe 6: “Bildung und Forschung für die digitale Zukunft”.

Mehr zum Smart Data Integration Lab der Arbeitsgruppe 6.

Bild: EIT ICT Labs Germany GmbH / Eventbildservice / Daniel Reinhardt

Tags: ,

Leave a Reply