Angriffe auf HPC-Cluster - Prüfen Sie Ihre Systeme

Von einer aktuellen Angriffsserie sind europaweit HPC-Systeme betroffen, so auch die magnitUDE. Es ist nicht auszuschließen, dass die Angriffe auch kleinere Rechencluster treffen. Bitte prüfen Sie Ihre eigenen Systeme anhand der Hinweise im verlinkten Dokument:
https://csirt.egi.eu/academic-data-centers-abused-for-crypto-currency-mining

Schriftzug Magnitude Udeblau

Die Forschungsaktivitäten an der UDE auf dem Gebiet des wissenschaftlichen Rechnens werden seit Juni 2016 durch den neuen Hochleistungsrechner magnitUDE zusätzlich "befeuert". Besonders die Forschung der Arbeitsgruppen der Ingenieurwissenschaften, Chemie und Physik soll in Zukunft von dessen Nutzung profitieren. So werden z.B. die Vorgänge in Verbrennungsmotoren simuliert und daraus Erkenntnisse für deren Optimierung gewonnen. Aber auch die detaillierte Untersuchung von mikrostrukturellen Vorgängen während der Umformung von Stahlblechen durch den Einsatz von mehrskaligen Simulationsmethoden wird durch das neue System ermöglicht.

Die initiale Konfiguration mit 564 Rechenknoten und einem Storrage-System mit 480 TB Speicher wurde im Juni 2016 in Betrieb genommen. Die Finanzierung wurde unter der Leitung von Prof. Kempf und Prof. Schröder im Rahmen des DFG-Programm "Forschungsgroßgeräte nach Art. 91b GG" realisiert (DFG INST 20876/209-1 FUGG) .

Im Januar 2017 wurde die magnitUDE um weitere 60 Rechenknoten erweitert. Hierzu wurden im Rahmen des DFG-Großgeräteprogramm assoziert zum DFG SFB 1242 unter der Leitung von Prof. Kratzer und Prof. Pentcheva die finanziellen Mittel zur Erweiterung der magnitUDE eingeworben (DFG INST 20876/243-1 FUGG).

TOP 500- Ranking

  • Juni 2016: Platz 279
  • November 2016: Platz 384
  • Juni 2017: Platz 430

 

Green 500- Ranking

  • Juni 2016: Platz 48
  • November 2016: Platz 72
  • Juni 2017: Platz 81

Manitude 2021

Leistungsdaten

  • Supplier: NEC Deutschland GmbH
  • 624 Compute Nodes /14,976 Cores (since Jan. 2017)
  • Intel E5-2650_v4 Broadwell CPUs
  • Intel OmniPath Interconnect
  • 56,064 GB Main Memory (since Jan. 2017)
  • 480 TB NEC LXFS Storage
  • High-Performance Linpack Benchmark (using 624 C-Nodes + 1 Login Node)
    - Rmax 489.3 TFlop/s
    - Rpeak 528.0 TFlop/s

The initial configuration from June 2016 consists of

  • 40,704 GB Main Memory
  • 564 Compute Nodes / 13,536 Cores
  • High-Performance Linpack Benchmark
    - Rmax 437.7 TFlop/s
    - Rpeak 476.5 TFlop/s

Ansprechpartner

Administration und  Nutzer-Support durch das Support-Team wissenschaftliches Rechnen des ZIM

Dfg Logo Schriftzug Blau Foerderung