>

Während es in vielen Ländern weiterhin strenge Ausgangsbeschränkungen gibt, um die Ausbreitung des neuartigen Coronavirus zu verlangsamen, macht in wissenschaftlichen Kreisen der Begriff Folding@home (dt.: zu Hause Falten) die Runde.

Gemeint ist damit nicht etwa eine neue Methode zur Bekämpfung des unaufhaltsam wachsenden Wäschebergs, sondern ein äußerst spannendes Technologieprojekt, das Wissenschaftler bei der Suche nach Wirkstoffen zur Behandlung von COVID-19 unterstützen soll.

Nach wissenschaftlicher Definition bestehen Proteine aus linearen Ketten chemischer Stoffe – den Aminosäuren –, die sich zu kompakten Strukturen „falten“, um ihre biologische Funktion ausüben zu können. Die Funktion eines Proteins wird dadurch bestimmt, wie sich die einzelnen Moleküle bewegen und anordnen. Auch Viren besitzen Proteine, mit denen sie unser Immunsystem unterdrücken und sich selbst vermehren.

Wissenschaftler und Ärzte müssen zunächst die Funktionsweise bzw. „Faltung“ des viralen Proteins verstehen, um die Vermehrung und Ausbreitung von Viren mit entsprechenden Wirkstoffen stoppen zu können.

Schnittstelle von Big Data und Epidemiologie

Und genau das ist die Schnittstelle von Big Data und Epidemiologie. Mittels Computersimulationen möchten Forscher mehr über die beweglichen Teile von Proteinen erfahren und so die Entwicklung von Medikamenten und Impfstoffen beschleunigen.

„Nie zuvor haben mehr Experten gemeinsam zu einem Thema geforscht“, erklärt Michael Schmidt, der als Architekt im Bereich Converged Cloud bei SAP arbeitet.

Für die Ausführung der unzähligen Simulationen, die hierfür erforderlich sind, wird jedoch massive Rechenleistung benötigt. Und hier kommen Unternehmen und Privatpersonen ins Spiel. Indem sie nicht genutzte Rechenleistung für Forschungszwecke zur Verfügung stellen, können die Simulationen und damit auch die Suche nach geeigneten Wirkstoffen beschleunigt werden.

Big Data Meets Epidemiology

Click the button below to load the content from YouTube.

Big Data Meets Epidemiology

Einen deutlichen Schub erhielt die Initiative, als NVIDIA Gamer weltweit aufforderte, das Projekt zu unterstützen.

„Gaming-PCs sind extrem leistungsstark“, erläutert Michael Schmidt. „Vor der Krise haben viele Gamer ihre ungenutzte Rechenkapazität für das Mining von Kryptowährungen genutzt und sich so etwas dazuverdient. Doch nun stellen sie ihre Grafikprozessoren (GPUs) in den Dienst der Wissenschaft.“

Auch SAP beteiligt sich an der Initiative. Um die ungenutzten Kapazitäten schnell zur Verfügung stellen zu können, hat das DevOps-Team von Michael Schmidt die Bereitstellung automatisiert. Die vorhandenen überschüssigen Rechenkapazitäten werden dabei ganz nach Bedarf skaliert. Diese Kapazitäten stehen auf der Vorzeigeplattform SAP Converged Cloud Enterprise Edition bereit, über die auch die Systeme zahlreicher SAP-Kunden gehostet werden. Im Zuge der Corona-Krise beschloss das Team, diese Implementierung zu nutzen, um die Bereitstellung einer Folding@home-CPU und -GPU über diese Plattform dynamisch zu planen und zu skalieren. Sind überschüssige Kapazitäten vorhanden, so können diese für das Projekt genutzt werden; werden sie für andere Nutzlasten benötigt, stehen entsprechen weniger Kapazitäten für Folding@home zur Verfügung.

Cloud-Kapazität für die Wissenschaft nutzen

„Was unsere Cloud wirklich gut kann, ist die Last auf die vielen Computer in unseren Rechenzentren verteilen“, führt Michael Schmidt aus. „Wir können die Systemlast in Echtzeit messen und die Kapazitäten, die wir Folding@home zur Verfügung stellen, bei Bedarf schnell verringern, damit es zu keiner Beeinträchtigung der Produktivsysteme kommt.“

Da SAP immer zusätzliche Kapazitäten für Kunden vorhält, wurden außerdem einige der überschüssigen physischen SAP-Server mit GPUs für das Projekt reserviert. Dabei handelt es sich zwar nur um einige wenige dedizierte Server, doch können sie umfangreiche Datensätze berechnen, sodass enorme Rechenleistung für sehr rechenintensive Simulationen zur Verfügung steht. Das Team war dadurch in der Lage, die für das Projekt Folding@home bereitgestellte Rechenleistung auf durchschnittlich 19 PetaFLOPS zu erhöhen. Das entspricht der Leistung von rund 50.000 CPUs und dazugehörigen GPUs aus den überschüssigen Cloud-Kapazitäten.

Die Last ist auf drei Kontinente und neun Regionen verteilt. Team SAP gehört derzeit zu den 200 größten Unterstützern des Projekts und stellt mehr Rechenleistung zur Verfügung als andere Softwareunternehmen. Michael Schmidt zeigt sich begeistert über dieses Ergebnis, betont aber auch, dass es sich nicht um einen Wettbewerb handelt. „Wir sitzen alle im selben Boot, und ich bin froh, dass andere Unternehmen sich ebenso sehr engagieren.“

Hören Sie für einen ausführlichen Bericht von Michael Schmidt das vollständige Interview:

IN FOCUS PODCAST: Big Data Meets Epidemiology

Click the button below to load the content from YouTube.

IN FOCUS PODCAST: Big Data Meets Epidemiology