Mit unserem Service-Angebot Wissenschaftliches Rechnen versetzen wir Sie dazu in die Lage, komplexe wissenschaftliche Berechnungen selbstständig durchzuführen. Wir bieten ein breites Spektrum an hard- und softwaretechnischen Infrastrukturen und methodischer Beratung und Service zur Anwendung von mathematischen Modellierungen, Simulations- und Optimierungsberechnungen, intelligenten Datenanalysen und KI-Verfahren.

Foto eines Servers
Foto: Christian Hüller

Was heißt Wissenschaftliches Rechnen an der Universität Leipzig

Für naturwissenschaftliche Simulationen zur Entwicklung medizinischer Wirkstoffe, gemischt-ganzzahlige Optimierungen zur Verbesserung kommunaler Energiesysteme oder automatisierte Handschriftenerkennung in altorientalischen Dokumenten mit Hilfe von neuronalen Netzen, Big-Data-Analysen und vielem mehr sind schnelle Prozessoren, genügend Arbeitsspeicher und spezialisierte Hardware wie z.B. moderne GPUs mit Kernen zur Beschleunigung von KI unabdingbar. 

Alle diese Ressourcen stehen Ihnen zusammen mit einem Hochleistungsnetzwerk und mehreren hundert Terabyte Speicher für Quelldaten und Ergebnisse bereit. 

Unser Angebot richtet sich sowohl an Forschende, die kurzfristig einfachen und intuitiven Web-basierten Zugriff auf beschleunigte Hardware benötigen, als auch an HPC-Experten, die ein gut gepflegtes und administriertes HPC-Umfeld erwarten. 

Abgerundet wird unser Service durch ein großes, ständig wachsendes Angebot an aktueller Software für die verschiedensten Anwendungsgebiete aus diversen Fachrichtungen. 

Das breite Methodenspektrum des wissenschaftlichen Rechnens eröffnet neben Theorie und Experiment in allen Fachdisziplinen neue Zugänge zu wissenschaftlichen Erkenntnissen und ist somit heutzutage aus dem Wissenschaftsalltag nicht mehr wegzudenken. 

Interaktives Wissenschaftliches Rechnen im Web-Browser

Einfachen Zugang zu unseren Hard- und Software-Ressourcen erhalten Sie über die Web-Oberflächen von Jupyter und RStudio

Mit diesen interaktiven Benutzeroberflächen und integrierten Entwicklungsumgebungen definieren Sie Ihre wissenschaftlichen Problemstellungen, führen diese aus und können Ergebnisse direkt visualisieren. Ideal um neue Ideen oder Methoden zu evaluieren und komplexere Simulationen oder Datenanalysen vorzubereiten.

The Jupyter service combines common data science and AI tools in a simple user interface. Based on Python and a wide range of associated libraries, you can train neural networks, analyse data and prepare sophisticated simulation setups. Your own reusable environments with all the tools you need can be created.

Der Service bietet den Nutzenden:

  • Erstberatung und Nutzerdokumentation 
  • Umfangreicher Softwarekatalog (z.B. Tensorflow, PyTorch, OpenCV, Keras uvm.) 
  • Zugang innerhalb des Netzwerks der Universität Leipzig 
  • Zugriff auf GPUs zur Beschleunigung von Berechnungen

RStudio bietet eine umfangreiche integrierte Entwicklungsumgebung für die Programmiersprache R für statistische Berechnungen. Der Service erlaubt den Zugriff auf unsere Hardware-Ressourcen und die Nutzung der weitreichenden Bibliothek an Software.

Der Service bietet den Nutzenden:

  • Autovervollständigung, automatische Einrückungen, Syntaxhervorhebung, Code-Faltung, integrierte Hilfe und Informationen zu Objekten in der Arbeitsumgebung
  • Datensätze betrachten und bearbeiten
  • Skripte, Daten und weitere Dateien zu Projekten (.Rproj) zusammenfassen
  • Versionsverwaltung mit Git
  • Erstellung von Berichten mit Hilfe von knitr oder Sweave aus RStudio heraus
  • grafischer Debugger
  • Direkte Kompilierung und Einbindung von Code in C, C++ oder Fortran

High-Performance Computing auf der Kommandozeile (Slurm)

Unsere SC-Infrastruktur erlaubt es Expert:innen, auf spezielle Anforderungen optimierte Lösungen aus aktueller Hard- und Software zu nutzen. Diese beinhalten unter anderem Big Data Lösungen, das Beschleunigen von komplexen, parallelen Simulationen oder Datenanalysen und das Trainieren von neuralen Netzen. Wir bieten Forschenden der Region direkten Zugriff auf unsere Linux-basierten Cluster und ein großes Software-Angebot.

Der Service bietet den Nutzenden:

  • Erstberatung und Benutzerdokumentation als Hilfestellung in die Einführung des High-Performance Computing
  • Nutzung einer geteilten HPC-Infrastruktur (10 gleichzeitige Jobs)
  • Benutzerzugang aus dem Netzwerk der Universität Leipzig
  • Zugang zu Scratch-Speicher (20 GB, zur Ablage von Eingabe- und Ausgabewerten sowie Zwischenergebnissen)
  • Zugang zu CPU-Cores (max. 320)
  • Zugang zu einer umfangreichen Softwareumgebung (u.a. Intel-Compiler-Suite, MatLab, Gaussian, RosettaNet, Tensor-Flow, Jupyter-Lab)

Software für Wissenschaftliche Berechnungen

Wir bieten unseren Nutzenden eine große Auswahl an aktueller wissenschaftlicher Software. 

Dazu zählen die gängigsten Simulationspakete in den Naturwissenschaften, aber auch Werkzeuge zur Modellierung und Auswertung numerischer sowie textbasierter Daten in anderen Disziplinen. Darüber hinaus bieten wir eine Vielzahl an Entwicklerwerkzeugen für diverse Programmiersprachen an. Die zugehörigen Bibliotheken, zum vollen Ausschöpfen der parallelen Hardware-Architektur, liegen natürlich auch bereit. 

Wir bieten eine sehr große Auswahl an vorinstallierter Software. Das Softwareangebot wird je nach Bedarf ständig erweitert. Das Service-Team Scientific Computing nimmt Ihre individuellen Bedarfe gern entgegen.

Die folgende Stichprobe repräsentiert eine Auswahl von 5% des gesamten Softwareangebotes:

  • GROMACS 
  • Rosetta 
  • Amber 
  • Gaussian 
  • LAMMPS 
  • ORCA 
  • Matlab 
  • C/C++/Fortran Compiler (Intel und GNU) und dazugehörige Bibliotheken 
  • CUDA 
  • Python/Perl/Java/R/Lua/Go 
  • TensorFlow 
  • OpenCV 
  • diverse MPI-Bibliotheken 

Um die Flexibilität und Kompatibilität zu erhöhen, liegen viele der Softwarepakete in mehreren, unterschiedlichen Versionen vor. 

zum gesamten aktuellen Softwarestack

Hardware Ressourcen Überblick

GPU-beschleunigtes Rechnen mit dem KI-Cluster Clara

Foto eines Servers
Details

Speicherintensive Berechnungen mit dem HPC-Cluster Polaris

Foto eines Servers
Details

Big-Memory-Anwendungen rechnen mit dem Sirius Cluster

Foto eines Servers
Mehr erfahren

Big-Data-Anwendungen rechnen mit dem Galaxy Cluster

Nahaufnahme eines Servers
Mehr erfahren

Der Clara-Cluster kann sowohl für anspruchsvolle Simulations- und Optimierungsrechnungen als auch zum Trainieren Neuronaler Netze verwendet werden.

  • 31 Servern mit 1.000 Cores, 20 TB RAM sowie 216 Grafikkarten.
  • 8 Server beinhalten jeweils 4 NVIDIA Tesla V100 Grafikkarten.
  • 23 Server beinhalten jeweils 8 NVIDIA RTX 2080 Ti Grafikkarten.

Technische Daten

  • 31 Gigabyte - AMD(R) Zen (14nm) based systems
    • CPU: 1x AMD(R) EPYC(R) 7551P @ 2.0GHz - Turbo 3.0GHz (32 CPU cores)
    • Memory: 512 GByte ECC-DDR4@2667MHz
    • Local scratch space: 3.5 TByte NVMe-based
    • Network:
      • uplink: 20Gbit/s redundant ethernet trunk
      • to central storage / between nodes: Infiniband FDR - 100Gbit/s
    • OS: CentOS 7

Knoten mit einfacher Genauigkeit

  • 23 Nodes
  • GPU: 8x Nvidia RTX 2080 Ti per node
    • 4352 CUDA cores
    • 544 Tensor cores
    • 11GByte non-ECC GDDR6

Knoten mit doppelter Genauigkeit

  • 8 Nodes
  • GPU: 4x Nvidia Tesla V100 per node
    • 5120 CUDA cores
    • 640 Tensor cores
    • 32GB ECC HBM2 RAM

Der Paula-Cluster ist das ideale System für ressourcen-intensive Rechnungen, die durch die vorhandenen modernen GPUs weiter beschleunigt werden können.

  • 12 Server mit 1.500 cores, 12 TB RAM sowie 96 Grafikkarten

Technische Daten

  • 12 MegWare Saxonid C128 GPU nodes
    • CPU: 2x AMD Epic 7713 @ 2.0GHz - Turbo 3.7GHz (64 CPU cores)
    • Memory: 1TB registered EEC DDR4@3200MT/s
    • Network:
      • uplink: 25GBit/s redundant ethernet trunk
      • to central storage / between nodes: Infiniband HDR - 100GBit/s
    • OS: Rocky Linux 8
    • GPU: 8x NVIDIA Tesla A30
      • 10.752 CUDA cores
      • 336 Tensor cores
      • 24 GB HBM2 RAM

In dem Polaris Cluster können Rechen- und Speicherintensive Aufgaben bearbeitet werden. Die Rechenjobs werden ausschließlich über den Batch-Dienst Slurm entgegengenommen und von diesem auf die Server verteilt.

  • 10 Supermicro-Servern mit zusammen über 384 CPU-Kernen und 2,5 TByte RAM.

Technische Daten

  • 12 Supermicro - AMD(R) Zen (14nm) based systems
    • CPU: 2x AMD(R) EPYC(R) 7351 @ 2.4GHz - Turbo 2.9GHz (16 CPU cores each)
    • Memory: 256 GByte ECC-DDR4@2667MHz
    • Local scratch space: 8 TByte HDD-based
    • Network:
      • uplink: 50Gbit/s redundant ethernet trunk
      • to central storage / between nodes: Infiniband QDR - 56Gbit/s
    • OS: CentOS 7

Mit dem Sirius-Cluster können sehr Hauptspeicher-intensive Anwendungen, bspw. auf Basis von In-Memory-Datenbanken, gerechnet werden.

  • 2 Server mit jeweils 128 Cores und 6 TB RAM zur Verfügung.

Technische Daten

  • 2 Huawei RH8100 V3 - Intel Haswell (22nm) based systems
    • CPU: 16x Intel(R) Xeon(R) CPU E7-8860 v3 @ 2.20GHz - Turbo 3.2GHz (8 CPU cores each)
    • Memory: 6 TByte ECC-DDR4@1866MHz
    • Local scratch space: 5.5 TByte HDD-based
    • Network:
      • uplink: 50Gbit/s redundant ethernet trunk
      • to central storage / between nodes: Infiniband QDR - 56Gbit/s
    • OS: CentOS 7

Der Galaxy-Cluster entspricht einer Shared-Nothing-Architektur und ist für massiv parallele Berechnungen auf Basis aktueller Big-Data-Techniken ausgelegt. Er eignet sich insbesondere für Anwendungen, die in einer definierten Rechenzeit auf mehreren Servern ein hohes Datenvolumen parallel verarbeiten. Priorisierte sowie exklusive Nutzungsszenarien für Big-Data-Forschung und Performance-Auswertungen sind möglich.

  • 90 Supermicro-Servern mit über 1.000 Cores, über 11 TB RAM und über 2 Petabyte Speicher.

Technische Daten

Partition Leipzig
  • 60 Supermicro Nodes - Intel Haswell (22nm) based systems
    • CPU: 2x Intel(R) Xeon(R) CPU E5-2620 v3 @ 2.40GHz - Turbo 3.2GHz (6 CPU cores each)
    • Memory: 128 GByte ECC-DDR4@1866MHz
    • Local scratch space: 3.5 TByte HDD-based
    • Network: 20Gbit/s ethernet trunk
    • OS: CentOS 7
Partition Dresden
  • 30 Supermicro Nodes - Intel Haswell (22nm) based systems
    • CPU: 2x Intel(R) Xeon(R) CPU E5-2620 v3 @ 2.40GHz - Turbo 3.2GHz (6 CPU cores each)
    • Memory: 128 GByte ECC-DDR4@1866MHz
    • Local scratch space: 3.5 TByte HDD-based
    • Network: 20Gbit/s ethernet trunk
    • OS: CentOS 7

Zugang zur Infrastruktur für wissenschaftliche Berechnungen

Als Forscher der Universität Leipzig haben Sie Zugang zu einer leistungsfähigen IT-Infrastruktur.

Um diese Infrastruktur nutzen zu können, verwenden Sie bitte unser Formular.

SC-Infrastruktur beantragen
Nachdem Sie sich mit Ihren Universität Leipzig-Benutzerinformationen authentifiziert haben, können Sie die gewünschten Systeme auswählen, mit denen Sie arbeiten möchten. Zusätzlich können Sie uns noch Informationen zum Projektumfeld oder den technischen Parameter (z.B. notwendige Speicherkapazität) mitteilen, damit wir Ihnen die bestmögliche Arbeitsumgebung bereitstellen können.

Wenn Sie zum ersten Mal SC-Infrastruktur beantragen, wird für Sie automatisch ein SC-Benutzer erstellt und Ihnen per E-Mail mitgeteilt. Mit diesem SC-Benutzer können Sie sich später auf den bereitgestellten Systemen anmelden. Nach der Prüfung Ihrer Anfrage erfolgt die Freischaltung Ihres Accounts für die angeforderten Ressourcen. Sie werden über die Freischaltung ebenfalls per E-Mail benachrichtigt.

Falls Sie Hilfe (z. B. bei Fehlermeldungen) benötigen, können Sie unser Formular verwenden.

SC-Support anfragen
Um Ihre persönlichen SC-Benutzerinformationen einzusehen bzw. diese zu ändern, nutzen Sie bitte das Self-Service-Portal des Scientific Computing-Teams.

Zum Self-Service-Portal

Für weitere Informationen steht Ihnen unsere Experten-Dokumentation (SC-Knowledgebase) zur Verfügung.

Zur SC-Knowledgebase

Das könnte Sie auch interessieren

Services für Forschende

mehr erfahren

Services für Mitarbeitende

mehr erfahren

Services für Studierende

mehr erfahren