Zusammenfassung

Im November 2016 wurde mit Arbeitsgruppen aus der Informatik, Physik, Biologie und Chemie ein HPC-Cluster für Forschung und Lehre in Betrieb genommen. Dieser Cluster wird vom URZ administrativ betreut und bietet den beteiligten Arbeitsgruppen antragslos Rechenkapazität für ihre numerischen Forschungsprojekte zur Verfügung. Der HPC-Cluster wurde in zwei Phasen aufgebaut und wird kontiuerlich erweitert. Derzeit umfasst der Cluster 313 Rechenknoten, von denen einige zusätzliche GPU-Beschleuniger oder große Arbeitsspeicher besitzen.


Diese Anleitung richtet sich besonders an folgende Zielgruppen: 

  • nur am Antrag beteiligten Arbeitsgruppen


Das  Kommando  module avail  liefert einen Überblick über die installierte Software.

Module :

Kommando                              Beschreibung                            
 module avail listet  verfügbare Module auf
 module load <modname>/<modversion>        lädt  spezifizierten Module
 module llist zeigt aktuell geladene Module
 module unload <modname>/<modversion> entlädt einen Modul
 module purge entlädt alle Module
 module initadd <modname>/<modversion> Modul wird bei jedem Login geladen


Compiler und Entwicklungswerkzeuge:


MPI Umgebung:


Nutzungshinweise:

Generell nutzen alle auf dem Cluster installierten MPI Implementierungen OmniPath, da alle entsprechend kompiliert wurden und die verfügbaren Netze erkennen. Sie verwenden automatisch die optimalen Bibliotheken/Treiber für OmniPath (tmi). 

Als Empfehlung gilt:

Für die meisten Anwendungen bieten die Intel-Compiler die höchste Leistung auf der Plattform. Wir empfehlen jedoch, mit verschiedenen Compilern und Compileroptionen zu experimentieren, um eine optimale Einstellung für die jeweilige Anwendung zu finden.

 Online- Dokumentationen finden Sie unter:

https://software.intel.com/en-us/articles/intel-mpi-library-documentation


Titel: "Verfügbare Software"

Stand: 07.04.2020