• Zum Seiteninhalt (Accesskey 1)
  • Zur Hauptnavigation (Accesskey 2)
  • Bundesministerium Bildung, Wissenschaft und Forschung
  • Forschungsinfrastruktur-Datenbank
  • Start
  • Suche
  • Mapping
    • Statistiken nach Region
    • Cluster
    • Monitoring Förderungen
    • Galerie
  • Über
    • Forschungs­einrichtungen
    • Bundesministerium für Bildung, Wissenschaft und Forschung (BMBWF)
    • Wirtschaftskammer Österreich (WKÖ)
    • Bundesministerium für Digitalisierung und Wirtschaftsstandort (BMDW)
  • FAQs & Info
    • FAQs
      • Beschreibung zur Forschungs­infrastruktur
      • Methoden & Services zur Forschungs­infrastruktur
      • Kategorien zur Forschungs­infrastruktur
      • Zusätzliche Informationen zur Forschungs­infrastruktur
      • Suchmaschine: Fragen zur Suche
      • Kontakt
    • Information
      • Nationale Forschungs­infrastruktur­strategie
      • Forschungs­infrastrukturen in der Europäischen Union
      • Forschungs­infrastruktur-Datenbanken / Forschungs­infrastruktur-Netzwerke
  • Registrieren
  • Login
  • DE
  • EN
Core Facility (CF) Cluster „HPC“ Cluster „EOSC“ Monitoring Förderungen „HRSM 2016“

Server-Infrastruktur für Integriertes Datenmanagement

  • Zur Übersicht
  • »
  • 7 / 27
  • »

Universität Graz

Graz | Website


Kurzbeschreibung

HPC Cluster mit einem Login Node und 88 Compute Nodes; 82 Nodes sind mit zwei, 6 Nodes mit 4 Intel Xeon CPUs ausgestattet, 1 Node mit 8 GPUs:
Genaue Spezifikationen:
CPU Cores/Node RAM (GB) #Nodes GPUs
E5-4610 4x8 32x16 6 -
E5-2670 2x8 16x16 32 -
E5-2690 2x14 16x32 4 -
E5-2690 2x14 16x16 4 -
E5-2680 2x8 16x16 26 -
Gold 6132 2x14 12x16 16
Gold 6252 2x24 24x32 1 8x NVIDIA GeForce RTX 2080

Speicher: als clusterweiter Temporärspeicher stehen via beegfs-Filesystem 180 TB zur Verfügung, als ZFS Archiv-Speicher 460 TB.
Netzwerk: 2×10 GB/s clusterintern.

Hinsichtlich Hardware Erneuerungen werden sukzessive die ältesten Komponenten ersetzt, wobei die Anzahl an verfügbaren CPU-Cores in etwa konstant bleiben sollte. Aktuell werden der einzelne Login-Node durch zwei VMWare-Login Nodes ersetzt, sowie fünf weitere Nodes angegliedert. Die Spezifikationen dieser Nodes, welche als Ersatz für einen älteren Cluster, der mit 31.12.2021 ausgeschieden ist, dienen, sind:

CPU Cores/Node RAM (GB) #Nodes GPUs
AMD EPYC MILAN 7513 2x32 32x64 1 -
AMD EPYC MILAN 7513 2x32 16x64 1 NVIDIA A100 Tensor-Core
AMD EPYC MILAN 7513 2x32 16x64 3 -

Ansprechperson

Christian Marzluf, Mag. MSc

Research Services

Server und Speicher HW

Methoden & Expertise zur Forschungsinfrastruktur

Der Cluster dient in erster Linie jenem wissenschaftlichen Bedarf, welcher auf großen Systemen wie den VSC‘s schlecht abgedeckt werden kann, wie etwa Vor- und Nacharbeiten größerer Projekte, sowie Entwicklungstätigkeiten, sowie kleinere, aber sehr unterschiedliche Projekte aus diversen Disziplinen. Neben den klassischen HPC Disziplinen bedient der Cluster vor allem Projekte aus den Biowissenschaften, welche oft einen hohen RAM Bedarf haben. Des Weiteren steht er dem BioTechMed/HRSM CyVerse Österreich Kooperationsprojekt zwischen der Technischen Universität Graz, der MedUni Graz, und der Uni Graz als HPC Komponente in der dortigen Infrastruktur zur Verfügung.

Equipment der Core Facility

  • Altair GPU Server A32/1024 - 8 x A100 80GB SXM

Nutzungsbedingungen

Nutzungsbedingungen nach Vereinbarung

Kooperationspartner

Medizinische Universität Graz
Technische Universität Graz

Kontakt

Christian Marzluf, Mag. MSc
Informationsmanagement
+43 (0)316 380 - 2730
uni-it@uni-graz.at
https://it.uni-graz.at/de

Standort

Standort auf Karte

Diesen Eintrag teilen

  • Facebook
  • Twitter
  • Pinterest
  • E-Mail
© 2022 BUNDESMINISTERIUM für BILDUNG, WISSENSCHAFT und FORSCHUNG
  • Nutzungsbedingungen / Datenschutz
  • Barrierefreiheitserklärung
  • Impressum