• Zum Seiteninhalt (Accesskey 1)
  • Zur Hauptnavigation (Accesskey 2)
  • Bundesministerium Bildung, Wissenschaft und Forschung
  • Forschungsinfrastruktur-Datenbank
  • Start
  • Suche
  • Mapping
    • Statistiken nach Region
    • Cluster
    • Monitoring Förderungen
    • Galerie
  • Über
    • Forschungs­einrichtungen
    • Bundesministerium für Bildung, Wissenschaft und Forschung (BMBWF)
    • Wirtschaftskammer Österreich (WKÖ)
    • Bundesministerium für Arbeit und Wirtschaft (BMAW)
  • FAQs & Info
    • FAQs
      • Beschreibung zur Forschungs­infrastruktur
      • Methoden & Services zur Forschungs­infrastruktur
      • Kategorien zur Forschungs­infrastruktur
      • Zusätzliche Informationen zur Forschungs­infrastruktur
      • Suchmaschine: Fragen zur Suche
      • Kontakt
    • Information
      • Nationale Forschungs­infrastruktur­strategie
      • Forschungs­infrastrukturen in der Europäischen Union
      • Forschungs­infrastruktur-Datenbanken / Forschungs­infrastruktur-Netzwerke
  • Registrieren
  • Login
  • DE
  • EN
Core Facility (CF) Cluster „HPC“ Cluster „EOSC“ Monitoring Förderungen „HRSM 2016“

Server-Infrastruktur für Integriertes Datenmanagement

  • Zur Übersicht
  • »
  • 5 / 69
  • »

Universität Graz

Graz | Website


Kurzbeschreibung

HPC Cluster mit zwei Login Nodes und 30 Compute Nodes. Die Nodes sind heterogen hinsichtlich Alter und Ausstattung.
Genaue Spezifikationen:

CPUs Cores/Node RAM (GB)/Node #Nodes GPUs lokaler tmp-Speicher (TB)
Intel E5-2690 2x14 16x32 4 - 6.6
Intel E5-2690 2x14 16x16 4 - 6.6
Intel Gold 6132 2x14 12x16 16 - 0.4
Intel Gold 6252 2x24 24x32 1 8x NVIDIA GeForce RTX 2080 7.0
AMD EPYC MILAN 7513 2x32 32x64 1 - 7.0
AMD EPYC MILAN 7513 2x32 16x64 1 2x NVIDIA A100 Tensor-Core 7.0
AMD EPYC MILAN 7513 2x32 16x64 3 - 7.0


Speicher: an clusterweitem Temporärspeicher stehen über beegfs-Filesystem 180 TB zur Verfügung, an ZFS Archiv-Speicher 460 TB.
Netzwerk: 2×10 GB/s clusterintern.

Bei Hardware Erneuerungen werden sukzessive die ältesten Komponenten ersetzt, wobei die Anzahl an verfügbaren CPU-Cores in etwa konstant bleiben sollte.

Es besteht die Möglichkeit für Institute, Hardware als Private Node- oder Storage-Ressourcen in den Cluster zu integrieren. Als Gegenleistung für Infrastrukturnutzung und Administration können betreffende Nodes in Leerzeiten von der gesamten HPC-Community genutzt werden. Aktuell gibt es sieben derartige Nodes von zwei verschiedenen Instituten, was die Gesamtzahl des Clusters auf 37 erhöht.

Ansprechperson

Christian Marzluf, Mag. MSc

Research Services

Server und Speicher HW

Methoden & Expertise zur Forschungsinfrastruktur

Der Cluster dient in erster Linie jenem wissenschaftlichen Bedarf, welcher auf großen Systemen wie den VSC‘s schlecht abgedeckt werden kann, wie etwa Vor- und Nacharbeiten größerer Projekte, sowie Entwicklungstätigkeiten, sowie kleinere, aber sehr unterschiedliche Projekte aus diversen Disziplinen. Neben den klassischen HPC Disziplinen bedient der Cluster vor allem Projekte aus den Biowissenschaften, welche oft einen hohen RAM Bedarf haben. Des Weiteren steht er dem BioTechMed/HRSM CyVerse Österreich Kooperationsprojekt zwischen der Technischen Universität Graz, der MedUni Graz, und der Uni Graz als HPC Komponente in der dortigen Infrastruktur zur Verfügung.

Equipment der Core Facility

  • Altair GPU Server A32/1024 - 8 x A100 80GB SXM

Nutzungsbedingungen

Nutzungsbedingungen nach Vereinbarung

Kooperationspartner

Medizinische Universität Graz
Technische Universität Graz

Kontakt

Christian Marzluf, Mag. MSc
Informationsmanagement
+43 (0)316 380 - 2730
uni-it@uni-graz.at
https://it.uni-graz.at/de

Standort

Standort auf Karte

Diesen Eintrag teilen

  • Facebook
  • Twitter
  • Pinterest
  • E-Mail
© 2023 BUNDESMINISTERIUM für BILDUNG, WISSENSCHAFT und FORSCHUNG
  • Nutzungsbedingungen / Datenschutz
  • Barrierefreiheitserklärung
  • Impressum
  • Datenschutz-Einstellungen