Kontakt


  • Bitte kontaktieren Sie uns bevorzugt per E-Mail an eine der unten angegebenen Adressen. Vorrangig bitte an unsere Supportadresse .
  • Wünschen Sie telefonischen Kontakt, so rufen Sie uns gerne unter den unten stehenden Nummern an, oder vereinbaren Sie einen Gesprächstermin via Mail.
  • Im Büro sind wir bis coronabedingt aktuell nicht mehr täglich anzutreffen.

Dr. Stefan Harfst

+49 (0)441 798-3147

W3 1-139

Fynn Schwietzer

 +49 (0)441 798-3287

 W3 1-139

HPC-Support

Anschrift

Carl von Ossietzky Universität Oldenburg
Fakultät V - Geschäftsstelle
Ammerländer Heerstr. 114-118
26129 Oldenburg

Historie

CARL & EDDY (2017-2023)

Für das Hochleistungsrechnen (HPC - High-Performance Computing) standen an der Universität Oldenburg im Zeitraum von 2017 bis 2023 zwei Clustersysteme zur Verfügung:

  • CARL (327 Rechenknoten, 7.640 Cores, 77 TB Hauptspeicher, 271 TFlop/s maximale theoretische Rechenleistung) wurde durch die Deutsche Forschungsgemeinschaft (DFG) und das Ministerium für Wissenschaft und Kultur (MWK) des Landes Niedersachsen gefördert. Das System diente der angewandten und Grundlagenforschung in unterschiedlichen Disziplinen, wobei Schwerpunkte in den Bereichen Theoretische Chemie (Quantenchemie und Quantendynamik), Theoretischer Physik, Neurowissenschaften (u.a. Hörforschung), Meeresforschung und Biodiversität lagen.
  • EDDY (244 Rechenknoten, 5.856 Cores, 21 TB Hauptspeicher, 201 TFlop/s maximale theoretische Rechenleistung, der vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert wurde, und der für herausfordernde CFD-Simulationen (Computational Fluid Dynamics) in der Windenergieforschung eingesetzt wurde.

Beide Systeme wurden von den IT Diensten der Universität Oldenburg beherbergt und betrieben.

GOLEM (bis 2011)

Der Beowulf Cluster GOLEM war der erste größere Rechencluster an der Universität Oldenburg, der von mehreren Arbeitsgruppen aus der Chemie und der Physik gemeinsam genutzt wurde. Darüber hinaus wurde teilweise Komponenten des GOLEM Clusters zusammen mit dem Nachfolgesystem HERO verwendet (etwa 57 Rechenknoten mit 288 CPU Cores).

(Stand: 19.01.2024)  | 
Zum Seitananfang scrollen Scroll to the top of the page