Kurzbeschreibung
HPC Cluster mit zwei Login Nodes und 44+7 Compute Nodes. Die Nodes sind heterogen hinsichtlich Alter und Ausstattung.
Genaue Spezifikationen:
| # | CPU | EXTRA | Memory | Local TMP | Owner |
| 1 | 64c 2xAMD EPYC 7513 | | 2TB 2933MT/s | 14.6TB NVMe | uniIT |
| 3 | 64c 2xAMD EPYC 7513 | | 1TB 3200MT/s | 14.6TB NVMe | uniIT |
| 1 | 128c 2xAMD EPYC 7713 | | 1TB 3200MT/s | 14.6TB NVMe | uniIT |
| 3 | 128c 2xAMD EPYC 7713 | MCX556A-EDAT 100Gb EDR IB | 2TB 3200MT/s | 14.6TB NVMe | uniIT |
| 5 | 128c 2xAMD EPYC 9554 | | 2TB 4800MT/s | 14.6TB NVMe | uniIT |
| 16 | 28c 2xIntel Xeon Gold 6132 | | 192GB 2666MT/s | 400G SSD | uniIT |
| 4 | 28c 2xIntel Xeon E5-2690v4 | | 256GB 2133MT/s | 6.8TB HDD | uniIT |
| 4 | 28c 2xIntel Xeon E5-2690v4 | | 512GB 2133MT/s | 6.8TB HDD | uniIT |
| 1 | 64c 2xAMD EPYC 7513 | 2x NVIDIA A100-PCIE-40GB | 1TB 3200MT/s | 14.6TB NVMe | uniIT |
| 1 | 48c 2xIntel Xeon Gold 6252 | 8x NVIDIA RTX2080Ti 12GB | 772GB 2666MT/s | 7.3TB NVMe | uniIT |
| 5 | 32c 4xIntel Xeon E5-4610v2 | | 500GB 1600MT/s | 200GB HDD | uniIT |
| 1 | 48c 2xAMD EPYC 74F3 | | 2TB 2933MT/s | 3.7TB NVME | Physics |
| 4 | 64c 2xAMD EPYC 7513 | | 1TB 3200MT/s | 3.7TB NVME | Physics |
| 1 | 24c AMD EPYC 7443P | | 256GB 3200MT/s | 1.8TB NVME | Biology |
| 1 | 128c 2xAMD EPYC 7662 | 8x NVIDIA A100-SXM4-80GB | 1TB 3200MT/s | 7.3TB NVMe | Physics |
Speicher: 420 TB clusterweiter Temp Speicher über BeeGFS und 460 TB Archiv Speicher über ZFS und NFS.
Netzwerk: 2×10 GBit/s clusterweit, drei Server zusätzlich über 100 GBit/s Infiniband.
Bei Hardware Erneuerungen werden sukzessive die ältesten Komponenten ersetzt, wobei die Anzahl an verfügbaren CPU-Cores in etwa konstant bleiben sollte.
Es besteht die Möglichkeit für Institute, Hardware als Private Node- oder Storage-Ressourcen in den Cluster zu integrieren. Als Gegenleistung für Infrastrukturnutzung und Administration können betreffende Server in Leerzeiten von der gesamten HPC-Community genutzt werden. Aktuell gibt es sieben derartige Server von zwei verschiedenen Instituten, was die Gesamtzahl der Rechenknoten von 44 auf 51 erhöht.
Ansprechperson
Christian Marzluf, Mag. MSc
Research Services
Server und Speicher HW
Methoden & Expertise zur Forschungsinfrastruktur
Der Cluster dient in erster Linie jenem wissenschaftlichen Bedarf, welcher auf großen Systemen, wie z.B. VSC, schlecht abgedeckt werden kann, wie etwa Vor- und Nacharbeiten größerer Projekte, sowie Entwicklungstätigkeiten, sowie kleinere, aber sehr unterschiedliche Projekte aus diversen Disziplinen. Neben den klassischen HPC Disziplinen bedient der Cluster vor allem Projekte aus den Biowissenschaften, welche oft einen hohen RAM Bedarf haben.
Equipment
Technische Universität Graz