Nationale Forschungsdateninfrastruktur – NFDI
Forschungsprozesse erfolgen zunehmend und immer umfassender digital. Damit haben digitale Forschungsdaten, deren Bereitstellung und Wiederverwendbarkeit eine zentrale Bedeutung für neue wissenschaftliche Erkenntnisse und Innovationen. Mit dem 2018 beschlossenen Aufbau der NFDI wollen Bund und Länder diese Forschungsdaten für die deutsche und internationale Wissenschaft besser und nachhaltig nutzbar machen. Die NFDI soll hierfür Standards im Datenmanagement setzen und dafür sorgen, dass Forschungsdaten gesichert und für vielfältige Zwecke weiter- und wiederverwertbar sind. In den verschiedenen NFDI-Konsortien entwickeln Wissenschaftlerinnen und Wissenschaftler an Universitäten und Forschungseinrichtungen in enger Kooperation mit Rechenzentren, Bibliotheken und Archiven gemeinsame Lösungen für die fächerspezifischen Bedürfnisse im Forschungsdatenmanagement. Die Partner des Leibniz Data Science Lab sind an verschiedenen Initiativen beteiligt.
NFDI für Datenwissenschaften
und Künstliche Intelligenz – NFDI4DataScience
NFDI4DataScience strebt für Data Science und Künstlicher Intelligenz an, alle Schritte des komplexen und interdisziplinären Lebenszyklus für Forschungsdaten vollumfänglich zu unterstützen: das Sammeln bzw. Erstellen, Verarbeiten, Analysieren, Veröffentlichen, Archivieren und Wiederverwenden der unterschiedlichen Ressourcen. Der TIB-Forschungsbereich Data Science & Digital Libraries ist zentral an NFDI4DataScience beteiligt und plant insbesondere den Open Research Knowledge Graph als eine zentrale Komponente der NFDI4DataScience-Forschungsdateninfrastruktur zu etablieren.
NFDI Chemie
NFDI4Chem besteht aus engagierten Datenproduzenten und Datennutzenden aus der universitären und außeruniversitären Forschung, Infrastruktureinrichtungen und Fachgesellschaften der Chemie. Das Konsortium wird gemeinsam vom TIB-Lab Linked Scientific Knowledge) und der Universität Jena geleitet. Ziel ist die Digitalisierung aller Schritte in der chemischen Forschung, um Wissenschaftlerinnen und Wissenschaftler bei der Erfassung, Analyse, nachhaltigen Speicherung, Publikation und Nachnutzung von Forschungsdaten nach den FAIR-Datenprinzipien zu unterstützen.
NFDI für die Ingenieurwissenschaften
NFDI4Ing hat zum Ziel, ein gemeinsames Umfeld für ein sicheres Management und die Nachnutzung ingenieurwissenschaftlicher Forschungsdaten zu schaffen. Dazu wurden innerhalb eines Bottom-Up-Prozesses sogenannte Archetypen definiert, welche die verwendeten Forschungsmethoden und -prozesse der ingenieurwissenschaftlichen Teildisziplinen beschreiben. Innerhalb der NFDI4Ing übernimmt die TIB die Rolle eines Infrastruktur- und Forschungspartners.
Mehr: https://www.nfdi4ing.de
Konsortium für Forschungsdaten zu materiellen und immateriellen Kulturgütern – NFDI4Culture
Ziel von NFDI4Culture ist der Aufbau einer bedarfsorientierten Infrastruktur für Forschungsdaten zu materiellen und immateriellen Kulturgütern in der NFDI. Dazu gehören 2D-Digitalisate von Gemälden, Fotografien und Zeichnungen ebenso wie digitale 3D-Modelle kulturhistorisch bedeutender Gebäude, Denkmäler oder audiovisuelle Daten von Musik-, Film- und Bühnenaufführungen. NFDI4Culture adressiert die Bedarfe eines breiten Spektrums an Fachdisziplinen von der Architektur-, Kunst-, Musik- bis hin zur Theater-, Tanz-, Film- und Medienwissenschaft.
Mehr: https://nfdi4culture.de
NFDI für die Erdsystemwissenschaften – NFDI4Earth
Das Ziel von NFDI4Earth ist es, die Anforderungen an den digitalen Wandel in der deutschen Geowissenschaft zu identifizieren, eine Reihe gemeinsamer Prinzipien, Regeln und Standards für das Management von Forschungsdaten in der Geowissenschaft zu etablieren, experimentelle Prototyp-Plattformen zu schaffen, die auf verteilten Ressourcen arbeiten und Werkzeuge und Mechanismen für die Datenintegration und -analyse in einem strukturierten Konsultationsprozess mit der wissenschaftlichen Gemeinschaft bereitzustellen. Die TIB und das Forschungszentrum FZ:Geo der LUH sind hier beteiligt.
Technische Infrastruktur der Partner
LUH LUIS – Leibniz Universität IT Services
Im Rahmen des Dienstes Scientific Computing werden in einem Rechnerverbund (Clustersystem) derzeit 254 Knoten mit insgesamt über 6.000 Prozessorkernen und einem Arbeitsspeicher von knapp 50 TB angeboten. Weiterhin werden derzeit 5 GPU-Knoten mit jeweils 2 NVIDIA Tesla (P100, V100) mit insgesamt 48.000 GPU-Kernen bereitgestellt. Eine Partition des Clusters berücksichtigt die Anforderungen von Big-Data-Aufgaben in besonderer Weise.
- Für den gesamten Clusterbetrieb stehen zwei hochperformante Festplattenspeicher bereit: Das Dateisystem BIGWORK für die Ein- und Ausgabedaten von Rechnungen (Gesamtkapazität 285TB), sowie ein gespiegelter Projektspeicher für die mittelfristige Aufbewahrung von Rechnungsergebnissen und gemeinsam genutzten Dateien (Gesamtkapazität 342TB).
Im Rahmen des Service Forschungscluster-Housing (FCH) kann einrichtungseigene Hardware zum wissenschaftlichen Rechnen in das bestehende Clustersystem des Rechenzentrums integriert werden. Dabei sind bestimmte Hard- und Softwareanforderungen zu erfüllen. Die jeweilige Einrichtung erhält als Kompensation exklusive Rechenzeit auf ihrer eingebrachten Hardware. Die Administration erfolgt durch das LUIS. Im FCH werden derzeit 89 Knoten mit insgesamt 2.464 Kernen und 20TB Hauptspeicher betrieben.
- Das Software-Angebot im Rahmen des Dienstes Scientific Computing umfasst u.a. zahlreiche Pakete aus den Bereichen Big Data und Data Science.
LUH – Fakultät Elektrotechnik und Informatik
Institut für Informationsverarbeitung (TNT)
48 x RTX 2080Ti
40 x RTX 3090 (gehostet am LUIS; ab Sommer 2021)
4 x A6000 (gehostet am LUIS; ab Sommer 2021)
TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften
Server-Virtualisierung: VMware Cluster mit 6 Servern und zusammen 288 Prozessorkernen und 9 TB Arbeitsspeicher
Data Science Cluster bestehend aus 4 Nodes mit insgesamt 192 CPU-Kernen und 3 TB Arbeitsspeicher
4 GPU-Server
- 1 node, 8x Nvidia Ampere 24Gb (8 GPUs total)
- 2 nodes, 8x Nvidia Turing 11Gb; 1x Nvidia Turing 48Gb (18 GPUs total)
- 1 node, 8x Nvidia Pascal 11Gb (8 GPUs total)
Forschungszentrum L3S
1 node, 16x TESLA V100 32GB
2 servers, 6xV100, 2xA100 (8 GPUs total)
7 servers, 4x 1080Ti 11GB each (28 GPUs total)
5 nodes, 2x 1080Ti 11GB each (10 GPUs total)
IIP Ecosphere cluster: 8xA100 40GB each +2 x A100 40GB(10 GPU‘s total)
1 server, 2x Tesla V100 16GB (CHI)
5 nodes, each with 1x 1080 Ti 11 GB (CHI)