HLRN-Systeme

Cookies und Tracking helfen uns, Ihnen auf unserer Website ein besseres Erlebnis zu ermöglichen.
21 Racks Die Knoten der Phase 1 sind in 10 Racks in einem luftgekühlten Bereich aufgestellt und die 11 Racks der Phase 2 werden mit einer Warmwasserdirektkühlung betrieben.
1.423 Rechenknoten 449 Rechenknoten gehören zur Phase 1 und sind mit Intel Xeon Gold 6148 SKL-SP CPU's bestückt. Die weiteren 974 Rechenknoten der Phase 2 sind mit Xeon Platinum 9242 CLX-AP CPU's bestückt.
111.464 CPU Kerne Diese sind verteilt über die Phase 1 mit 17.960 Kernen und der Phase zwei mit 93.504 Kernen.
100 Gbit/s Interconnect Ein 100 Gbit/s Intel Omni-Path Netzwerk bietet mit einer Fat-Tree Topologie niedrige Latenzen sowie hohe Bandbreiten und vereint die zwei Phasen von Emmy mit zwei 896 Port Director Switches in einer einzigen Fabric.
5,95 PetaFlop/s Dieses Ergebnis wurde während des LINPACK benchmarks erzielt, womit Emmy auf Platz 47 der Top 500 Liste von November 2020 liegt.
478 TB RAM Verteilt über alle 1.423 Knoten stehen 478 TB an Arbeitsspeicher zur Verfügung
8,4 PiB Speicher Insgesamt stehen 8,4 PiB an Speicherkapazität auf globalen parallelen Dateisystemen zur Verfügung, wobei sich dies in 340TiB für das GPFS-basierte Home und 8,1 PiB für das Lustre-basierte Work Dateisystem aufteilt.
6,4 PiB Bandspeicher Zur Archivierung ihrer Ergebnisse stehen den Nutzern insgesamt 6,4 PiB an Bandspeicher mit einem 120 TiB großen Festplattencache zur Verfügung.
Icons made by Freepik from www.flaticon.com
 
Icons made by phatplus from www.flaticon.com

Dienste

Informationen und Hilfestellung zur Nutzung des HPC-Angebotes für die Universität und die MPG (SCC und GöHPC-Systeme).

HPC am Campus

HPC-Systeme im Betrieb der GWDG auf dem Göttingen Campus.

Im Rahmen ihrer Aufgaben als gemeinsames Rechenzentrum der Universität Göttingen und der Max-Planck-Gesellschaft betreibt die GWDG das Scientific Compute Cluster (SCC), um allen Forschenden den Zugang zu einem lokalen HPC-System zu ermöglichen. In dieser Funktion betreibt die GWDG aber auch institutseigene HPC-Systeme im Rahmen der GöHPC-Kooperationen in einem integrierten Betriebskonzept.

Zusätzlich betreibt die GWDG zukünftig auch zwei externe Systeme, bereits jetzt den Göttinger HLRN-IV-Komplex und ab Ende 2020 den Göttinger Standort der DLR-HPC-Initiative.

Wissenschaft und Forschung

Forschung, Lehre, Ausbildung und Beratung zu HPC am Göttingen Campus.

Neben dem IT-Betriebs liegt eine der Hauptaufgabenbereiche der GWDG in Forschung und Wissenschaft. Dies wird durch die verschiedenen Projekte und die Lehrstühle von Prof. Dr. Ramin Yahyapour und Prof. Dr. Philipp Wieder unterstrichen. Auch das HPC-Team engagiert sich in der Förderung des wissenschaftlichen Nachwuchses durch die Unterstützung in der Lehre und der Betreuung von Master- und Promotionsarbeiten.

Die GWDG und insbesondere das HPC-Team stehen im engen Austausch mit den Forschenden, die auf den HPC-Systemen der GWDG rechnen. Hierdurch ergeben sich verschiedene methoden- sowie anwendungswissenschaftliche Synergien und Projekte, die unter dem Label GöHPC zusammengefasst werden.

Contact Us

 

Schreibe eine E-Mail an: hpc@gwdg.de

Oder chatte mit uns auf Rocket.Chat