Kontakt

  • Bitte kontaktieren Sie uns vorrangig bitte je nach Anliegen über eine unserer beiden Supportadressen per E-Mail.
  • Wünschen Sie telefonischen Kontakt, so rufen Sie uns gerne unter den unten stehenden Nummern an, oder vereinbaren Sie einen Gesprächstermin via Mail.
  • Unsere typischen Bürozeiten sind zwischen 9:00 und 17:30 Uhr. Falls wir einmal nicht anzutreffen sind, erreichen Sie uns immer per Mail

HPC-Support

Forschungsdatenmanagement


Dr. Stefan Harfst

+49 (0)441 798-3147

W3 1-139

 

Dr. Johannes Vosskuhl

+49 (0)441 798-3576

W3 1-139

 

Fynn Schwietzer

+49 (0)441 798-3287

W3 1-139

Anschrift

Carl von Ossietzky Universität Oldenburg
Fakultät V - Geschäftsstelle
Ammerländer Heerstr. 114-118
26129 Oldenburg

Artikel

Newsletter Juli 2019

Auf dem Cluster und in unserem HPC-Bereich ist viel passiert.

Über die neuesten Pläne, Softwareentwicklungen und Hinweise.

1.       Interaktive Jobs und Remote Desktop Verbindung: Für gewöhnlich sollen Rechenaufträge stets in Form von Job-Scripts an das Queuing-System SLURM weitergeleitet werden. In manchen Situationen kann es allerdings durchaus vorkommen, dass unsere NutzerInnen auf die Shell-Session interaktiv Einfluss nehmen müssen; zum Beispiel zu Testzwecken oder wenn grafischer In- und/oder Output vonnöten ist. In vielen Situationen sind hier bereits die Loginknoten (hpcl[001-004]) ausreichend, allerdings gilt dies nicht mehr bei größeren Rechenoperationen. Im Wiki können Sie für diese speziellen Fälle mehr über interaktive Jobs sowie über  X11-Weiterleitung lesen.
Doch bei inketaktiven Jobs gilt: Solange Sie auf einem interaktiven Node aufgeschaltet sind, wird dieser komplett für Ihre Session belegt. Handeln Sie also stets in gegenseitiger Rücksichtnahme und Fairness:  Belegen Sie die Ressourcen nicht lange ungenutzt und loggen Sie sich stets aus den interaktiven Sessions aus, sobald Sie diese nicht mehr nutzen.

Sollte Ihr interaktiver Job zudem grafischen In- und Output benötigen, können Sie sich auf den Cluster auch via Remote Desktop Protocol  aufschalten. Dies kann insbesondere von Vorteil sein, wenn Ihre Internetverbindung für X11 zu unstabil sein sollte.

2.       Mailing-Liste und Account: Alle NutzerInnen, die einen aktiven HPC-Account besitzen, werden automatisch auch in die HPC-Mailing-Liste eingebunden. Sollten Sie einen HPC-Account besitzen und diesen nicht mehr benötigen, können Sie sich über diese Seite aus der HPC-Gruppe austragen lassen (oder uns alternativ über kontaktieren). Beachten Sie hierbei, dass Sie danach keine Zugriffsrecht mehr auf Ihre auf dem Cluster-Strage gesicherten Daten besitzen und diese nach 180 Tagen gelöscht werden. Stellen Sie also sicher, dass Sie vor der Austragung alle Daten sichern, die Sie danach noch benötigen. Sprechen Sie zudem mit Ihrem Gruppenleiter ab, ob die Daten noch gruppenintern benötigt werden. In diesem Falle ließe sich ein  'group share' für Ihre Daten einrichten.

3.       HPC News: Von nun an möchten wir, das HPC-Support-Team, Sie regelmäßiger mit Neuigkeiten versorgen. Daher wird es einen Newsletter dieser Form fortan monatlich geben, in welchem wir auf neueste Änderungen und Verbesserungen, kommende Veranstaltungen sowie Tipps und Tricks aus dem HPC-Wiki hinweisen wollen.
Für Vorschläge und Hinweise an sind wir natürlich sehr dankbar!

4.       Zukünftige Veranstaltungen und wichtige Termine:

a.       Wir planen einen weiteren dreitägigen Kurs “Introduction to HPC” für Ende September. Das genaue Datum soll im kommenden Newsletter bekanntgegeben werden.

b.       Die nächste 'Euro-Par Konferenz' wird vom 26. August bis zum 23. August in Göttingen abgehalten. Dort wird insbesondere über parallelisiertes und verteiltes Rechnen referiert. Mehr Details finden Sie auf https://2019.euro-par.org/.

c.       HLRN-IV wird auf die zweite Phase in Berlin und Göttingen vorbereitet Sollten Sie bereits HLRN-Ressourcen nutzen, achten Sie auf etwaige Auswirkungen unter https://www.hlrn.de/home/view/NewsCenter/HLRN4News. Sofern Sie kein/e HLRN-NutzerIn sind, können Sie einen Testaccount mit einem Begrenzten Kontingent an CPU-Stunden beantragen (https://zulassung.hlrn.de/index.html). Für Projekte kann zusätzliche Rechenzeit beantragt werden, die Deadline hierfür liegt am 28. Oktober 2019.

5.       Software Installationen: Die folgenden Softwaremodule sind ganz frisch auf dem Environment 
hpc-env/6.4 eingetroffen:

  1. lemon/1.2.1-GCCcore-6.4.0                                                    (neue software)
  2. RStan/2.19.2-intel-2018a-R-3.6.1                                            (neue software)
  3. Anaconda3/ 5.3.0                                                                    (neue version)
  4. RepeatMasker/4.0.8-foss-2017b-Perl-5.28.0-HMMER           (neue version)
  5. RepeatModeler/1.0.11-foss-2017b                                         (neue software)
  6. R/3.6.1                                                                                      (neue version)
  7. Ghostscript/9.27-GCCcore-6.4.0                                             (neue version)
  8. OpenFOAM-Plus/1906-gimkl-2018a                                       (neue version)
  9. OpenFOAM/7-gimkl-2018a                                                      (neue version)
  10. HDF5/1.10.5-intel-2018a                                                           (neue version)
  11. QUAST / QUAST-LG                                                                   (neue software)

Die neuesten Installationen aus den letzten 2-3 Monaten lassen sich auch auf unserer Software-Wiki-Seite einsehen. Wünsche zu neuer Software oder zu neuen Versionen bereits installierter Module können Sie jederzeit an  richten.

(Stand: 19.01.2024)  | 
Zum Seitananfang scrollen Scroll to the top of the page