hosting
Die GWDG bietet drei verschiedene Betriebsmodelle zum Hosten von HPC Systemen dritter:
- Die eigene Hardware soll in eigener Verantwortung bei der GWDG betrieben werden. Dafür wird ein eigener Netzbereich notwendig. Der Betrieb erfolgt in Eigenverantwortung, somit bleibt die Auswahl der Software / OS und Hardware in vollem Umfang beim Institut. Zusätzlich benötigter Speicher kann durch die GWDG zur Verfügung gestellt werden und per Ethernet angebunden werden.
- Die eigene Hardware soll von der GWDG in der HPC Umgebung betrieben werden. Dafür wird die Hardware in die bestehenden Netze integriert. Ein root-Zugang kann durch die starke Integration nicht gewährt werden. Die Softwareumgebung wird von der GWDG bereitgestellt und gewartet. Installationen im Home-Verzeichnis sind aber, wie auf den allgemeinen HPC-Ressourcen möglich. Die Hardwareausstattung kann von der der restlichen Systeme im HPC Umfeld abweichen. Das Institut kann sich zwischen 2 Betriebsmodi entscheiden:
Modus Vorteil Nachteil direkt Direkter Zugang über ssh Es gibt keine Ressourcenverwaltung, Prozesse können sich gegenseitig beeinträchtigen und stören indirekt Es erfolgt für jeden Job eine Ressourcenvergabe, die dem Job sicher zur Verfügung steht Nutzung ausschließlich per Slurm - Beteiligung an einer Ausschreibung der GWDG oder Beschaffung identischer Hardware eines GWDG Clusters. Es stehen grundsätzlich die gleichen Möglichkeiten wie in 2 zur Verfügung. Durch die identische Hardware kann die Beteiligung aber auch in "Fairshare" umgerechnet werden. In diesem Fall wird die Hardware in den normalen Betrieb integriert und kann auch von anderen Nutzern mitgenutzt werden. Der Fairshare ermöglicht es dem Institut Jobs mit höherer Priorität zu submittieren, sodass diese Jobs bevorzugt starten -- bis der Fairshare aufgebraucht wurde. Durch den erhöhten Fairshare kann das Institut kurzfristig hohen Rechenbedarf auf deutlich mehr Ressourcen, als die selbst beschafften verteilen. Auf der anderen Seite kann es aber auch zu Wartezeiten kommen, selbst wenn noch keine Jobs des Instituts rechnen, weil bereits alle Ressourcen im Cluster belegt sind. Die nächste freie Ressource wird durch die hohe Priorität aber für einen Job des Instituts reserviert.