Short Description
HPC Cluster mit zwei Login Nodes und 35 Compute Nodes. Die Nodes sind heterogen hinsichtlich Alter und Ausstattung.
Genaue Spezifikationen:
CPUs Cores/Node RAM (GB)/Node #Nodes GPUs lokaler tmp-Speicher (TB)
Intel E5-2690 2x14 16x32 4 - 6.6
Intel E5-2690 2x14 16x16 4 - 6.6
Intel Gold 6132 2x14 12x16 16 - 0.4
Intel Gold 6252 2x24 24x32 1 8x NVIDIA GeForce RTX 2080 7.0
AMD EPYC MILAN 7513 2x32 32x64 1 - 7.0
AMD EPYC MILAN 7513 2x32 16x64 1 2x NVIDIA A100 Tensor-Core 7.0
AMD EPYC MILAN 7513 2x32 16x64 3 - 7.0
AMD EPYC 7713 2x64 32x64 3 - 7.0
AMD EPYC 9554 2x64 24x96 2 - 7.0
Speicher: an clusterweitem Temporärspeicher stehen über beegfs-Filesystem 180 TB zur Verfügung, an ZFS Archiv-Speicher 460 TB.
Netzwerk: 2×10 GB/s clusterintern, und innerhalb dreier Nodes Infiniband 100 Gb/s.
Bei Hardware Erneuerungen werden sukzessive die ältesten Komponenten ersetzt, wobei die Anzahl an verfügbaren CPU-Cores in etwa konstant bleiben sollte.
Es besteht die Möglichkeit für Institute, Hardware als Private Node- oder Storage-Ressourcen in den Cluster zu integrieren. Als Gegenleistung für Infrastrukturnutzung und Administration können betreffende Nodes in Leerzeiten von der gesamten HPC-Community genutzt werden. Aktuell gibt es sieben derartige Nodes von zwei verschiedenen Instituten, was die Gesamtzahl des Clusters von 35 auf 42 Nodes erhöht.
Contact Person
Christian Marzluf, Mag. MSc
Research Services
Server und Speicher HW
Methods & Expertise for Research Infrastructure
Der Cluster dient in erster Linie jenem wissenschaftlichen Bedarf, welcher auf großen Systemen, wie den VSC‘s, schlecht abgedeckt werden kann, wie etwa Vor- und Nacharbeiten größerer Projekte, sowie Entwicklungstätigkeiten, sowie kleinere, aber sehr unterschiedliche Projekte aus diversen Disziplinen. Neben den klassischen HPC Disziplinen bedient der Cluster vor allem Projekte aus den Biowissenschaften, welche oft einen hohen RAM Bedarf haben.
Equipment
Technische Universität Graz