Nutzung von Forschungsdaten: Big Data für die Forscher

Forscher sollen besseren Zugang zu Datensammlungen erhalten. In einer Initiative wollen Bund und Länder die Infrastruktur dafür aufbauen.

Hochleistungsrechner im LRZ Garching

Supercomputer im Leibniz-Rechenzentrum Garching Foto: dpa

BERLIN taz | Daten sind das neue Erdöl, der zentrale Rohstoff des digitalen Zeitalters. Die deutsche Forschung beginnt nun mit dem Aufbau einer Art von „Raffinerie“, mit deren Hilfe aus Big-Data-Messwerten und Rohdaten schneller wissenschaftliche Endprodukte fabriziert werden können. Die Einrichtung trägt den Namen Nationale Forschungsdateninfrastruktur (NFDI). Vergangene Woche beschlossen die Wissenschaftsminister von Bund und Ländern in der Gemeinsamen Wissenschaftskonferenz (GWK) ihre Einrichtung.

Das Programm schaffe die „Voraussetzung für zukunftsweisende datenbasierte Forschung“ und sei Teil eines für Hochschulen und au­ßer­uni­ver­si­tä­re Forschungseinrichtungen wichtigen Förderpakets, teilte die GWK mit. Für Aufbau und Förderung der NFDI wollen Bund und Länder bis 2028 jährlich bis zu 90 Millionen Euro im Endausbau bereitstellen, wovon der Bund mit 90 Prozent den Löwenanteil finanziert. Programmstart ist im Januar 2019.

Mit der Nationalen Forschungsdateninfrastruktur sollen die heute oft de­zen­tral, projektförmig und temporär gelagerten Datenbestände von Wissenschaft und Forschung für das gesamte deutsche Wissenschaftssystem systematisch erschlossen werden.

Nach einer Studie der Gesellschaft für Biologische Daten e. V. (GFBio) sind bislang „90 Prozent der Daten, die Forschende mit hohem Aufwand auf Exkursionen, im Labor, im Ausland erheben, für eine Weiternutzung nicht verfügbar, was zusammenhängende Forschung über Langzeitentwicklungen faktisch behindert“.

Das Konzept eines bundes­weiten und durch die Wissenschaft selbst „bottom-up“ organisierten Forschungsdatenmanagements basiert auf einer Empfehlung des Rats für Informationsinfra­struk­turen (RfII). Dessen Vorsitzende Petra Gehring, Philo­sophieprofessorin an der TU Darmstadt, bezeichnet den GWK-Beschluss als „ein Stück Digitalitätsermöglichungspolitik“ für mehr Datensouveränität und breite Nachnutzbarkeit von Daten. Die Bedeutung von Infrastrukturen dürfe nicht unterschätzt werden.

„Im Falle der Energiewende hatte man vor lauter Energiegewinnung die Transport- und Speichermedien, also die Infrastruktur, vergessen“, bemerkt Gehring. „Diesen Fehler dürfen wir im Bereich der Informationsinfrastrukturen nicht wiederholen.“

Außerdem verständigten sich Bund und Länder in der GWK auf den Aufbau einer Infrastruktur „Nationales Hochleistungsrechnen“. Mit ihr sollen Wissenschaftler aus den Hochschulen deutschlandweit und bedarfsgerecht auf die für ihre Forschung benötigte Rechenkapazität zugreifen können.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.