ZusammenfassungIm November 2016 wurde mit Arbeitsgruppen aus der Informatik, Physik, Biologie und Chemie ein HPC-Cluster für Forschung und Lehre in Betrieb genommen. Dieser Cluster wird vom URZ administrativ betreut und bietet den beteiligten Arbeitsgruppen antragslos Rechenkapazität für ihre numerischen Forschungsprojekte zur Verfügung. Der HPC-Cluster wurde in zwei Phasen aufgebaut und wird kontiuerlich erweitert. Derzeit umfasst der Cluster 313 Rechenknoten, von denen einige zusätzliche GPU-Beschleuniger oder große Arbeitsspeicher besitzen. |
Diese Anleitung richtet sich besonders an folgende Zielgruppen:
|
Das Kommando module avail liefert einen Überblick über die installierte Software.
Module :
Kommando | Beschreibung |
module avail | listet verfügbare Module auf |
module load <modname>/<modversion> | lädt spezifizierten Module |
module llist | zeigt aktuell geladene Module |
module unload <modname>/<modversion> | entlädt einen Modul |
module purge | entlädt alle Module |
module initadd <modname>/<modversion> | Modul wird bei jedem Login geladen |
Compiler und Entwicklungswerkzeuge:
MPI Umgebung:
Nutzungshinweise:
Generell nutzen alle auf dem Cluster installierten MPI Implementierungen OmniPath, da alle entsprechend kompiliert wurden und die verfügbaren Netze erkennen. Sie verwenden automatisch die optimalen Bibliotheken/Treiber für OmniPath (tmi).
Als Empfehlung gilt:
Für die meisten Anwendungen bieten die Intel-Compiler die höchste Leistung auf der Plattform. Wir empfehlen jedoch, mit verschiedenen Compilern und Compileroptionen zu experimentieren, um eine optimale Einstellung für die jeweilige Anwendung zu finden.
Online- Dokumentationen finden Sie unter:
https://software.intel.com/en-us/articles/intel-mpi-library-documentation
Titel: "Verfügbare Software" Stand: 07.04.2020 |