..
Suche
Hinweise zum Einsatz der Google Suche
Personensuchezur unisono Personensuche
Veranstaltungssuchezur unisono Veranstaltungssuche
Katalog plus

Mit der Rechenleistung von 7300 Laptops

OMNI, der neue Hochleistungsrechner der Universität Siegen geht in Betrieb. Das HPC-Team berät, unterstützt und vernetzt die Nutzer des Clusters.

Im Dezember nahm mit dem OMNI-Cluster ein neuer Hochleistungsrechner den Betrieb an der Universität Siegen auf. Der Name OMNI (englisch für: Onsite Multipurpose Number Crunching Infrastructure) spielt auf den lateinischen Begriff „omni“ (dt. „alle“) an, denn die Bandbreite der Verwendungsmöglichkeiten ist sehr groß. Vereinfacht gesagt handelt es sich bei Clustern wie OMNI um große Computer, die aus vielen kleineren Computern zusammengeschaltet wurden. So sind enorme Leistungen möglich. Umgerechnet hat das Cluster eine Rechenleistung von etwa 7.300 aktuell handelsüblichen Laptops.

OMNI löst das bisherige System HoRUS ab. Während der Umstellung laufen beide Systeme im Parallelbetrieb, danach ersetzt das neue Cluster das alte komplett. Der Start war eigentlich schon deutlich früher geplant, doch machte unter anderem die Corona-Pandemie den Mitarbeitern des Zentrums für Informations- und Medientechnik (ZIMT) einen Strich durch die Rechnung. So verschob sich durch Lieferschwierigkeiten die Installation des Clusters von Ende Februar bis in den Oktober. Fast eine Woche arbeiteten das ZIMT und die Firma Megware, um das Cluster in acht Schränken im Datenzentrum NDC am Hölderlin-Campus aufzustellen. Dann kamen die Integration in das Uninetzwerk und Softwareinstallationen. Bevor das Cluster genutzt werden kann, muss es erst auf Herz und Nieren geprüft werden. Auch Lasttests stehen auf dem Programm, denn OMNI bringt das NDC fast an die Grenze seiner Strom- und Kühlungskapazitäten.

Das OMNI-Cluster teilt sich in sogenannte Knoten auf, die jeweils einen eigenen Arbeitsspeicher und eine bestimmte Anzahl Prozessoren haben. Das Cluster verfügt über 434 solcher Knoten, die mit je zwei AMD-CPUs vom Typ EPYC 7452 sowie 256 GB RAM ausgestattet sind. Dazu kommen noch 10 Knoten mit insgesamt 24 GPUs vom Typ Tesla V100 sowie weitere Knoten für spezielle Zwecke. Ebenso gigantisch sind die Speicherkapazitäten: 1 Petabyte primärer Festplattenplatz, zusätzlich eine schnelle, 32 Terabyte große Zwischenspeicherschicht (Burst Buffer) sowie 48 Terabyte Datenspeicher (Object Storage). Das flexible Konzept erlaubt es, in Zukunft bei Bedarf die Größen dieser Speicher-Komplexe untereinander zu verschieben.

„Das Cluster steht allen MitarbeiterInnen und Studierenden der Uni kostenlos zur Verfügung und wird momentan schon von verschiedenen Fachbereichen genutzt. Vom Maschinenbau über die Chemie und Physik bis hin zu Big Data Anwendungen in der Marktforschung“, erklärt ZIMT-Mitarbeiter Jan Steiner. Im Maschinenbau etwa verwenden Wissenschaftler das Cluster unter anderem zur Entwicklung und Anwendung von Verfahren in den Schwerpunkten numerische Strömungsmechanik, numerische Mechanik und Werkstoffkunde. Im Bereich Chemie werden Fragestellungen aus der organischen und der Quantenchemie untersucht. „Weitere Themen sind die Auswertung von Satellitenmessungen des Gravitationspotenzials der Erde, um Aufschluss über die innere Beschaffenheit der Erde zu erlangen, sowie die Analyse von energiedispersiven Röntgenstrahlen“, so Steiner. Im Bereich Big Data werden mittels Analyse von sozialen Netzwerken Softwaretools für die Marktforschung entwickelt. Disziplinenübergreifend wird außerdem an der Verbesserung der Effizienz und Parallelisierbarkeit von numerischen Verfahren sowie der Simulation auf Grafikprozessoren (GPUs) geforscht. Die Liste der möglichen Verwendung des Clusters ließe sich beliebig fortsetzen.

Das ZIMT hat in den vergangenen Jahren auch die Beratungs- und Schulungsangebote rund um das Cluster ausgebaut. So können Neulinge eine Sprechstunde besuchen sowie an regelmäßigen Schulungen zur Cluster- und Linux-Nutzung teilnehmen – sowohl auf Englisch als auch auf Deutsch. „Je früher wir ins Gespräch kommen, desto besser können wir helfen und desto weniger Fehler und vertane Rechen- und Arbeitszeit“, so Steiner. Erfahrenere NutzerInnen können Hilfe bei der Parallelisierung und Optimierung ihrer Software in Anspruch nehmen. Auch bei der Vermittlung von externen Schulungen sowie bei Rechenzeitanträgen auf größeren Systemen berät das ZIMT.

Eine der Nutzerinnen des Hochleistungsrechners ist Kathrin Stahl. Sie promoviert am Institut für Fluid- und Thermodynamik (IFT) und beschäftigt sich mit strömungsinduziertem Schall, wie er beispielsweise bei Windkraftanlagen auftritt. Ihr Ziel ist es, die Schallemission dieser Anlagen zu reduzieren. Hierzu hatte sie am IFT Experimente am umströmten Tragflügel im Windkanal durchgeführt und führt ihre Arbeit jetzt numerisch mit dem Cluster fort, indem sie den umströmten Tragflügel simuliert. Zuvor hat sie an vom ZIMT angebotenen Schulungen teilgenommen. „Diese haben mir essentiell geholfen mich auf dem Cluster zurechtzufinden und eine gute Grundlage für den Umgang mit dem Cluster geschaffen“, so Stahl. Aber auch über die Schulungen hinaus unterstützt das ZIMT sie bei der Arbeit mit dem Cluster, berichtet die Doktorandin. „Zum einen durch das Ticketsystem, aber auch durch persönliche Ansprechpartner des HPC-Teams. Darüber hinaus unterstützen mich die Mitarbeiter durch Überarbeitung meines Batchskriptes und geben Hilfestellung bei Fragen im Umgang mit dem Cluster.“ Auch die von ihr für die aeroakustischen Simulationen verwendete Software wird durch das HPC-Team auf dem Cluster installiert und aktualisiert.

Der Hochleistungsrechner wird auch in Bereichen angewendet, an die man in diesem Zusammenhang vielleicht erst einmal nicht denkt. So führte die Germanistin Isabelle Gauer auf dem Cluster Datenberechnungen für ein Forschungsprojekt von Prof. Dr. Friedemann Vogel durch, das zum Ziel hatte, eine Onlineplattform zur Analyse juristischer Semantik aufzubauen. Hierbei wurden Wortfrequenzen innerhalb großer Textmengen in Zusammenhang mit den Texteigenschaften berechnet. Die Arbeit mit dem Cluster brachte der Forschungsgruppe einen enormen Zeitgewinn und lief vollkommen unkompliziert ab. „Im Prinzip habe ich das Team kontaktiert, und sie haben mich als Anfänger durch alle Schritte geleitet. Nachdem wir herausgefunden hatten, wie lange und wie viele Knoten wir benötigen, konnte ich einen Job für mein Programm erstellen und sobald genügend Knoten zur Verfügung standen, wurde dieser gestartet“, berichtet die Doktorandin. „Das Team stand bei Fragen immer zur Verfügung. Wir hatten mehrere Treffen und Testläufe im Vorfeld, bei denen wir eine Abschätzung der Laufzeit gemeinsam erarbeitet haben.“

Ermöglicht durch die Drittmittelprojekte HPC.NRW und SES-HPC konnte das Supportangebot ausgebaut werden. Das Team bestehend aus Gerd Pokorra, Jan Steiner, Monika Harlacher und Verena Betge berät, unterstützt und vernetzt Nutzer des Clusters und weiterer Rechensysteme. Dazu wird dienstags um 14:00 Uhr online eine Sprechstunde angeboten, aber auch darüber hinaus ist das Team über die Support-Mailadresse zu erreichen. Das Team betreibt außerdem eine Website rund um das Cluster und das Thema wissenschaftliches Rechnen. Hier finden Nutzerinnen und Nutzer alle Termine zu Schulungen, Informationen über die installierte Software und deren Benutzung, sowie alle Neuigkeiten rund um das Cluster.