Die Datenflut zähmen

Ein bevorstehender Daten-Tsunami droht, riesige datenreiche Forschungsprojekte auf solchen Gebieten zu überwältigen, die vom winzigen Neutrino bis zu einer explodierenden Supernova reichen, sowie die Geheimnisse tief im Gehirn.

Wenn LIGO ein Gravitationswellensignal von einer weit entfernten Kollision von Schwarzen Löchern und Neutronensternen aufnimmt, beginnt eine Uhr zu ticken, um das frühestmögliche Licht einzufangen, das sie begleiten könnte: Zeit ist in diesem Rennen von entscheidender Bedeutung.

Daten, die von elektrischen Sensoren gesammelt werden, die die Gehirnaktivität überwachen, übersteigen die Rechenkapazität. Die Informationen der zertrümmerten Teilchenstrahlen des Large Hadron Collider (LHC) werden bald 1 Petabit pro Sekunde überschreiten.

Um diesen herannahenden Datenengpass in Echtzeit zu beheben, hat ein Forscherteam aus neun Institutionen unter der Leitung der University of Washington, darunter das MIT, 15 Millionen US-Dollar für den Aufbau des Accelerated AI Algorithms for Data-Driven Discovery (A3D3) Institute erhalten.

Das Forschungsteam vom MIT umfasst Philip Harris, Assistenzprofessor für Physik, der als stellvertretender Direktor des A3D3-Instituts fungieren wird; Song Han, Assistenzprofessor für Elektrotechnik und Informatik, der als Co-PI von A3D3 fungieren wird; und Erik Katsavounidis, Senior Research Scientist am MIT Kavli Institute for Astrophysics and Space Research.

A3D3 wird mit diesem fünfjährigen Harnessing the Data Revolution Big Idea-Stipendium unterstützt und gemeinsam vom Office of Advanced Cyberinfrastructure finanziert. Durch die Anreicherung von KI-Algorithmen mit neuen Prozessoren versucht A3D3, KI-Algorithmen zur Lösung grundlegender Probleme in der Colliderphysik, Neutrinophysik, Astronomie, Gravitationswellenphysik, Informatik und Neurowissenschaften zu beschleunigen.

Ich freue mich sehr über die Möglichkeiten des neuen Instituts für die Forschung in der Kern- und Teilchenphysik“, sagt Boleslaw Wyslouch, Direktor des Labors für Nuklearwissenschaften.

Moderne Teilchendetektoren produzieren eine enorme Datenmenge, und wir suchen nach außergewöhnlich seltenen Signaturen. Der Einsatz extrem schneller Prozessoren, um diese Datenberge zu sichten, wird einen großen Unterschied in dem machen, was wir messen und entdecken werden.“

Die Saat für A3D3 wurde 2017 gesät, als Harris und seine Kollegen am Fermilab und am CERN beschlossen, Echtzeit-KI-Algorithmen zu integrieren, um die unglaublichen Datenraten am LHC zu verarbeiten. Durch E-Mail-Korrespondenz mit Han baute das Team von Harris einen Compiler, HLS4ML, der einen KI-Algorithmus in Nanosekunden ausführen konnte.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *