Mit unserem Service-Angebot Wissenschaftliches Rechnen versetzen wir Sie dazu in die Lage, komplexe wissenschaftliche Berechnungen selbstständig durchzuführen. Wir bieten ein breites Spektrum an hard- und softwaretechnischen Infrastrukturen und methodischer Beratung und Service zur Anwendung von mathematischen Modellierungen, Simulations- und Optimierungsberechnungen, intelligenten Datenanalysen und KI-Verfahren.

zur Vergrößerungsansicht des Bildes: Foto eines Servers
Foto: Christian Hüller

Was heißt Wissenschaftliches Rechnen an der Universität Leipzig

Für naturwissenschaftliche Simulationen zur Entwicklung medizinischer Wirkstoffe, gemischt-ganzzahlige Optimierungen zur Verbesserung kommunaler Energiesysteme oder automatisierte Handschriftenerkennung in altorientalischen Dokumenten mit Hilfe von neuronalen Netzen, Big-Data-Analysen und vielem mehr sind schnelle Prozessoren, genügend Arbeitsspeicher und spezialisierte Hardware wie z.B. moderne GPUs mit Kernen zur Beschleunigung von KI unabdingbar. 

Alle diese Ressourcen stehen Ihnen zusammen mit einem Hochleistungsnetzwerk und mehreren hundert Terabyte Speicher für Quelldaten und Ergebnisse bereit. 

Unser Angebot richtet sich sowohl an Forschende, die kurzfristig einfachen und intuitiven Web-basierten Zugriff auf beschleunigte Hardware benötigen, als auch an HPC-Experten, die ein gut gepflegtes und administriertes HPC-Umfeld erwarten. 

Abgerundet wird unser Service durch ein großes, ständig wachsendes Angebot an aktueller Software für die verschiedensten Anwendungsgebiete aus diversen Fachrichtungen. 

Das breite Methodenspektrum des wissenschaftlichen Rechnens eröffnet neben Theorie und Experiment in allen Fachdisziplinen neue Zugänge zu wissenschaftlichen Erkenntnissen und ist somit heutzutage aus dem Wissenschaftsalltag nicht mehr wegzudenken. 

Interaktives Wissenschaftliches Rechnen im Web-Browser

Einfachen Zugang zu unseren Hard- und Software-Ressourcen erhalten Sie über die Web-Oberflächen von Jupyter und RStudio

Mit diesen interaktiven Benutzeroberflächen und integrierten Entwicklungsumgebungen definieren Sie Ihre wissenschaftlichen Problemstellungen, führen diese aus und können Ergebnisse direkt visualisieren. Ideal um neue Ideen oder Methoden zu evaluieren und komplexere Simulationen oder Datenanalysen vorzubereiten.

Der Service Jupyter vereint gängige Data-Science- und KI-Werkzeuge in einer einfachen Benutzeroberfläche. Basierend auf Python und einer großen Auswahl an zugehörigen Bibliotheken, können Sie neuronale Netze trainieren, Daten auswerten und anspruchsvolle Simulationsaufbauten vorbereiten. Eigene wiederverwendbare Umgebungen mit allen Tools, die Sie benötigen können erstellt werden.

Der Service „Jupyter” bietet dem Nutzer:

  • Erstberatung und Nutzerdokumentation 
  • Umfangreicher Softwarekatalog (z.B. Tensorflow, PyTorch, OpenCV, Keras uvm.) 
  • Zugang innerhalb des Netzwerks der Universität Leipzig 
  • Zugriff auf GPUs zur Beschleunigung von Berechnungen

RStudio bietet eine umfangreiche integrierte Entwicklungsumgebung für die Programmiersprache R für statistische Berechnungen. Der Service erlaubt den Zugriff auf unsere Hardware-Ressourcen und die Nutzung der weitreichenden Bibliothek an Software.

Der Service bietet den Nutzenden:

  • Autovervollständigung, automatische Einrückungen, Syntaxhervorhebung, Code-Faltung, integrierte Hilfe und Informationen zu Objekten in der Arbeitsumgebung
  • Datensätze betrachten und bearbeiten
  • Skripte, Daten und weitere Dateien zu Projekten (.Rproj) zusammenfassen
  • Versionsverwaltung mit Git
  • Erstellung von Berichten mit Hilfe von knitr oder Sweave aus RStudio heraus
  • grafischer Debugger
  • Direkte Kompilierung und Einbindung von Code in C, C++ oder Fortran

High-Performance Computing auf der Kommandozeile (Slurm)

Unsere SC-Infrastruktur erlaubt es Experten, auf spezielle Anforderungen optimierte Lösungen aus aktueller Hard- und Software zu nutzen. Diese beinhalten unter anderem Big-Data-Lösungen, das Beschleunigen von komplexen, parallelen Simulationen oder Datenanalysen und das Trainieren von neuralen Netzen. Wir bieten Forschenden der Region direkten Zugriff auf unsere Linux-basierten Cluster und ein großes Software-Angebot.

Der Service High Performance Computing bietet dem Nutzenden:

  • Erstberatung und Benutzerdokumentation als Hilfestellung in die Einführung des High Performance Computing
  • Nutzung einer geteilten HPC-Infrastruktur
  • Benutzerzugang aus dem Netzwerk der Universität Leipzig
  • Zugang zu Scratch-Speicher (zur Ablage von Eingabe- und Ausgabewerten sowie Zwischenergebnissen)
  • Zugriff auf GPUs (max. 8)
  • Zugang zu einer umfangreichen Softwareumgebung (u.a. Intel-Compiler-Suite, MatLab, Gaussian, RosettaNet, Tensor-Flow, Jupyter-Lab)

Software für Wissenschaftliche Berechnungen

Wir bieten unseren Nutzenden eine große Auswahl an aktueller wissenschaftlicher Software. 

Dazu zählen die gängigsten Simulationspakete in den Naturwissenschaften, aber auch Werkzeuge zur Modellierung und Auswertung numerischer sowie textbasierter Daten in anderen Disziplinen. Darüber hinaus bieten wir eine Vielzahl an Entwicklerwerkzeugen für diverse Programmiersprachen an. Die zugehörigen Bibliotheken, zum vollen Ausschöpfen der parallelen Hardware-Architektur, liegen natürlich auch bereit.

Wir bieten eine sehr große Auswahl an vorinstallierter Software. Das Softwareangebot wird je nach Bedarf ständig erweitert.

Das Service-Team Scientific Computing nimmt Ihre individuellen Bedarfe gern entgegen.

Die folgende Stichprobe repräsentiert eine Auswahl von 5% des gesamten Softwareangebotes:

  • GROMACS 
  • Rosetta 
  • Amber 
  • Gaussian 
  • LAMMPS 
  • ORCA 
  • Matlab 
  • C/C++/Fortran Compiler und dazugehörige Bibliotheken 
  • CUDA 
  • Python/Perl/Java/R/Lua/Go 
  • TensorFlow 
  • OpenCV 
  • diverse MPI-Bibliotheken 

Um die Flexibilität und Kompatibilität zu erhöhen, liegen viele der Softwarepakete in mehreren, unterschiedlichen Versionen vor. 

ZUM GESAMTEN AKTUELLEN SOFTWARESTACK

Hardware Ressourcen Überblick

Der Clara-Cluster kann sowohl für anspruchsvolle Simulations- und Optimierungsrechnungen als auch zum Trainieren Neuronaler Netze verwendet werden.

  • 31 Servern mit insgesamt 992 CPU-Kernen, 20 TB RAM, sowie 216 Grafikkarten.
  • 8 Server beinhalten jeweils 4 NVIDIA Tesla V100 Grafikkarten.
  • 23 Server beinhalten jeweils 8 NVIDIA RTX 2080 Ti Grafikkarten.

Technische Daten

  • 31 Gigabyte - basierend auf AMD Zen
    • CPU: 1x AMD(R) EPYC(R) 7551P @ 2.0GHz - Turbo 3.0GHz (32 Kerne)
    • Hauptspeicher: 512 GByte
    • Netzwerk: 100 Gbit/s Infiniband
    • OS: Rocky Linux 8

Knoten mit einfacher Genauigkeit

  • 23 Knoten
  • GPU: 8x Nvidia RTX 2080 Ti pro Knoten
    • 4352 CUDA-Kerne
    • 544 Tensor-Kerne
    • 11GB GDDR6 RAM

Knoten mit doppelter Genauigkeit

  • 8 Knoten
  • GPU: 4x Nvidia Tesla V100 pro Knoten
    • 5120 CUDA-Kerne
    • 640 Tensor-Kerne
    • 32GB HBM2 RAM

Der Paula-Cluster ist das ideale System für ressourcen-intensive Rechnungen, die durch die vorhandenen modernen GPUs weiter beschleunigt werden können.

  • 12 Server mit insgesamt 1.536 cores, 12 TB RAM sowie 96 Grafikkarten

Technische Daten

  • 12 MegWare Saxonid C128 GPU Knoten
    • CPU: 2x AMD EPYC 7713 @ 2.0GHz - Turbo 3.7GHz (64 Kerne)
    • Hauptspeicher: 1TB
    • Netzwerk: 100Gbit/s Infiniband
    • OS: Rocky Linux 8
    • GPU: 8x NVIDIA Tesla A30
      • 10.752 CUDA-Kerne
      • 336 Tensor-Kerne
      • 24GB HBM2 RAM

Der Paul-Cluster eignet sich für klassische HPC Anwendungen. Es stehen insgesamt über 4000 CPU-Kerne zur Verfügung. Der Hauptspeicher umfast insgesamt 16TB.

  • - 32 Server mit 4096 CPU cores, 16 TB RAM

Technische Daten

  • 32 MegWare Saxonid C128 CPU Knoten
    • CPU: 2x AMD EPYC 7713 @ 2.0GHz - Turbo 3.7GHz (64 Kerne)
    • Hauptspeicher: 512GB
    • Netzwerk: 100Gbit/s Infiniband
    • OS: Rocky Linux 8

In dem Polaris Cluster können Rechen- und Speicherintensive Aufgaben bearbeitet werden. Die Rechenjobs werden ausschließlich über den Batch-Dienst Slurm entgegengenommen und von diesem auf die Server verteilt.

  • 10 Supermicro-Server mit insgesamt über 320 CPU-Kernen und 2,5 TByte RAM.

Technische Daten

  • 10 Supermicro - basierend auf AMD Zen
    • CPU: 2x AMD(R) EPYC(R) 7351 @ 2.4GHz - Turbo 2.9GHz (16 Kerne)
    • Hauptspeicher: 256 GB
    • Network: 56 Gbit/s Infiniband
  • OS: Rocky Linux 8

Mit dem Sirius-Cluster können sehr Hauptspeicher-intensive Anwendungen, bspw. auf Basis von In-Memory-Datenbanken, gerechnet werden.

  • 1 Server mit 128 CPU-Kernen und 6 TB RAM.

Technische Daten

  • 1 Huawei RH8100 V3 - Intel Haswell-basiert
    • CPU: 16x Intel(R) Xeon(R) CPU E7-8860 v3 @ 2.20GHz - Turbo 3.2GHz (8 Kerne)
    • Hauptspeicher: 6 TB
    • Network: 56 Gbit/s Infiniband
  • OS: Rocky Linux 8

Zugang zur Infrastruktur für wissenschaftliche Berechnungen

Als Forscher der Universität Leipzig haben Sie Zugang zu einer leistungsfähigen IT-Infrastruktur.

Um diese Infrastruktur nutzen zu können, verwenden Sie bitte das Formular.

SC-Infrastruktur beantragen

Nachdem Sie sich mit Ihren Universität Leipzig-Benutzerinformationen authentifiziert haben, können Sie die gewünschten Systeme auswählen, mit denen Sie arbeiten möchten. Zusätzlich können Sie uns noch Informationen zum Projektumfeld oder den technischen Parameter (z.B. notwendige Speicherkapazität) mitteilen, damit wir Ihnen die bestmögliche Arbeitsumgebung bereitstellen können.

Wenn Sie zum ersten Mal SC-Infrastruktur beantragen, wird für Sie automatisch ein SC-Benutzer erstellt und Ihnen per E-Mail mitgeteilt. Mit diesem SC-Benutzer können Sie sich später auf den bereitgestellten Systemen anmelden. Nach der Prüfung Ihrer Anfrage erfolgt die Freischaltung Ihres Accounts für die angeforderten Ressourcen. Sie werden über die Freischaltung ebenfalls per E-Mail benachrichtigt.

Falls Sie Hilfe (z. B. bei Fehlermeldungen) benötigen, können Sie unser Formular verwenden.

SC-Support anfragen
Um Ihre persönlichen SC-Benutzerinformationen einzusehen bzw. diese zu ändern, nutzen Sie bitte das Self-Service-Portal des Scientific Computing-Teams.

Zum Self-Service-Portal

Für weitere Informationen steht Ihnen unsere Experten-Dokumentation (SC-Knowledgebase) zur Verfügung.

Zur SC-Knowledgebase

Das könnte Sie auch interessieren

Services für Forschende

mehr erfahren

Services für Mitarbeitende

mehr erfahren

Services für Studierende

mehr erfahren