Abstracts zum Work­shop FDM-Finan­zie­rungs­mo­delle


Hier finden Sie die einge­reichten Abstracts zu den Vorträgen des Work­shops “Wer soll das bezahlen? Kosten- und Betriebs­mo­delle für nach­hal­tige Forschungs­in­fra­struk­turen und FDM-Services

Das Betriebs- und Geschäfts­mo­dell der Virtu­ellen Forschungs­um­ge­bung FuD [Marina Lemaire] (Univer­sität Trier)

Das derzei­tige Geschäfts­mo­dell der Virtu­ellen Forschungs­um­ge­bung FuD wird vorge­stellt sowie die Erfah­rungen bei der Umset­zung des Geschäfts­mo­dells präsen­tiert. Es wird kurz die Entwick­lung des Geschäfts­mo­dells skiz­ziert, wie anhand von Anwen­der­pro­jekte eine detail­lierte Prozess­ana­lyse erfolgte und darauf basie­rend die notwen­digen Aufga­ben­felder defi­niert und die Zustän­dig­keit für die verschie­denen Arbeits­schritte den betei­ligten Akteur*innen zuge­ordnet wurden. Dies war die Ausgangs­basis für die Aufwands- und Kosten­ana­lyse die letzt­end­lich in ein Leis­tungs­pa­ket­struktur mit zuge­hö­rigen Preisen mündete.

GFBio – A FAIR infra­st­ruc­ture network to assist scien­tists in data manage­ment [Janine Felden] (Univer­sität Bremen)

The German Fede­ra­tion for Biolo­gical Data (GFBio) is imple­men­ting a national infra­st­ruc­ture for the preser­va­tion, inte­gra­tion, and publi­ca­tion of biolo­gical and envi­ron­mental data gene­rated in rese­arch projects. GFBio commits itself to the FAIR-data princi­ples inclu­ding tech­nical, orga­niz­a­tional, cultural, and policy aspects. It is based on the collec­tive expe­ri­ence and exper­tise of leading rese­ar­chers as well as on a network of German natural science collec­tion data repo­si­to­ries, the data publisher for earth and envi­ron­mental science – PANGAEA, as well as selected faci­li­ties from the mole­cular biology rese­arch commu­nity. GFBio addresses data manage­ment requi­re­ments of a wide array of stake­hol­ders ranging from indi­vi­dual scien­tists to large rese­arch networks. GFBio must thus be capable of hand­ling highly hete­ro­ge­neous data. Services provided by GFBio covers the full rese­arch data life cycle from field or real-time data acqui­si­tion to long term archi­ving and publi­ca­tion as well as analysis and re-use of these data. GFBio espe­cially aims to encou­rage and support indi­vi­dual scien­tists to embed good data manage­ment prac­tices in their daily scien­tific work. The goal is to promote open science by impro­ving the avai­la­bi­lity, quality and thus re-usabi­lity of rese­arch data according to the FAIR data princi­ples.
The GFBio project is curr­ently in its third phase focu­sing on sustaina­bi­lity as well as on conso­li­da­tion and harde­ning of services. In order to success­fully manage the tran­si­tion from a project to a national infra­st­ruc­ture network, the non-profit asso­cia­tion GFBio e.V. was founded in 2016. It will provide a single entry point for all services and will assure coope­ra­tion of GFBio part­ners and avai­la­bi­lity of services beyond the project phase. GFBio is ready to impart its expe­ri­ences in rese­arch data
manage­ment with initia­tives like the German national rese­arch data infra­st­ruc­ture (NFDI).

Was soll das nur kosten? – Versuch einer Ressour­cen­be­darfs­ana­lyse am Beispiel der Univer­si­täts­me­dizin Göttingen [Sven Bingert, Claudia Engel­hardt, Harald Kusch, Steffen Rörtgen, Valeria Savin] (Univer­sität Göttingen)

Bisher ist weder ausrei­chend geklärt, wer nach­hal­tiges Daten­ma­nage­ment bezahlen soll, noch ist das Problem der genauen Kosten hinrei­chend bear­beitet. Das vom BMBF geför­derte Projekt Göttingen Rese­arch Data Explo­ra­tory (GRAcE) ist dieser Proble­matik für den Pilot­be­reich Medizin nach­ge­gangen. Der Schwer­punkt lag auf der Ermitt­lung des Perso­nal­be­darfs, sofern das Aufga­ben­profil und die gefor­derten Quali­fi­ka­tionen und somit das entspre­chende Gehalts­ni­veau defi­niert werden können, wobei sich bei Letz­terem im natio­nalen und inter­na­tio­nalen Diskurs kein Konsens heraus­kris­tal­li­siert hat.
Verfolgt wurde ein am Acti­vity Based Costing und der Prozess­kos­ten­rech­nung orien­tierter Ansatz, der die einzelnen Phasen und Schritte des Forschungs­pro­zesses betrachtet. Für diese wird jeweils der Aufwand bestimmt oder geschätzt und letzt­lich zum Gesamt­auf­wand addiert. Hierfür wurde auf der Grund­lage von Work­shops und Expert*inneninterviews zunächst ein an den Forschungs­pro­zess und die gebräuch­liche Termi­no­logie im Bereich Medizin ange­passtes Prozess­mo­dell erar­beitet. Dieses war wiederum die Basis eines Frage­bo­gens für eine quan­ti­ta­tive Online-Befra­gung, die im Oktober 2018 an der Univer­si­täts­me­dizin Göttingen durch­ge­führt wurde. Parallel dazu wurden öffent­lich zugäng­liche sowie interne Daten­quellen zu Kenn­größen wie etwa Anzahl der Forschenden, Dritt­mit­tel­summen und weitere FDM-beein­flus­sende Faktoren recher­chiert und eine Berech­nungs­grund­lage für den Ressour­cen­be­darf entwi­ckelt.
Was als Konzept auf dem Papier klar und einfach zu reali­sieren erscheint, ist in der Praxis nicht selten mit Tücken und Fall­stri­cken konfron­tiert, die eine erfolg­reiche Umset­zung des geplanten Vorge­hens erschweren. Davon sowie von den Ergeb­nissen unserer Unter­su­chungen berichten wir in unserem Vortrag.

Was kostet die Welt der Daten­ar­chi­vie­rung? Die Beprei­sung von Dienst­leis­tungen rund um die Daten­ar­chi­vie­rung am Beispiel des GESIS Daten­ar­chivs für Sozi­al­wis­sen­schaften [Sebas­tian Netscher] (GESIS – Leibniz-Institut für Sozi­al­wis­sen­schaften)

Einher­ge­hend mit der Forde­rung nach nach­nutz­baren Forschungs­daten stellen Förderer, wie die DFG oder die EU, auch die Finan­zie­rung einer entspre­chenden Daten­ar­chi­vie­rung in Aussicht. Das Problem, Forschungs­pro­jekte müssen in der Regel bereits in der Antrags­phase entspre­chende Aufwen­dungen und Kosten genau bezif­fern. Bislang finden sich jedoch nur wenige Ansatz­punkte für die Kalku­la­tion der Kosten eines projekt­spe­zi­fi­schen Forschungs­da­ten­ma­nage­ments. Forschenden gelingt es meist noch recht gut, die Aufwen­dungen zur Daten­er­he­bung, etwa durch ein Meinungs­for­schungs­in­stitut, zu bezif­fern. Die weiter­füh­renden Kosten, z. B. zur Aufbe­rei­tung und Doku­men­ta­tion der Daten bzw. zu deren Regis­trie­rung und Archi­vie­rung, sind hingegen zumeist undurch­sichtig und somit schwie­riger zu erfassen. Dieses Problem kaum kalku­lier­barer Kosten des Forschungs­da­ten­ma­nage­ments bzw. der Archi­vie­rung von Forschungs­daten besteht aber nicht nur in (dritt­mit­tel­ge­för­derten) Forschungs­pro­jekten. Auch Infra­struk­tur­ein­rich­tungen, wie z. B. Daten­archive, müssen ihre Ange­bote fundiert benennen und bepreisen können.

Als eines der größten sozi­al­wis­sen­schaft­li­chen Archive in Europa bietet das Daten­ar­chiv für Sozi­al­wis­sen­schaften bei GESIS – Leibniz-Institut für Sozi­al­wis­sen­schaften zahl­reiche Dienst­leis­tungen rund um die Archi­vie­rung von quan­ti­ta­tiven sozi­al­wis­sen­schaft­li­chen Forschungs­daten an, wie etwa deren Aufbe­rei­tung oder Doku­men­ta­tion. Zur Profes­sio­na­li­sie­rung und Beprei­sung dieser Dienst­leis­tungen star­tete das Daten­ar­chiv 2016 ein internes Projekt. Im Rahmen dessen wurden zunächst die verschie­denen Ange­bote syste­ma­ti­siert und die zur Erbrin­gung der einzelnen Leis­tungen notwen­digen Akti­vi­täten in klein­tei­lige Arbeits­schritte unter­teilt. Anschlie­ßend wurden Mitarbei­tende des Archivs gebeten, ihre unter­schied­li­chen Arbeiten an verschie­denen Daten­sätzen über mehrere Wochen hinweg exakt zu proto­kol­lieren. Auf Basis dieser Proto­kolle wurden die durch­schnitt­li­chen perso­nellen Aufwen­dungen für unter­schied­liche Arbeits­schritte ermit­telt und so Preis­mo­delle für die verschie­denen Dienst­leis­tungen entwi­ckelt.

Der Vortrag Was kostet die Welt der Daten­ar­chi­vie­rung? stellt das Verfahren der Beprei­sung von Dienst­leis­tungen des Daten­ar­chivs vor und bietet Einblicke in die (Weiter-)Entwicklung entspre­chender Ange­bote ebenso wie in die zugrund­lie­genden Kosten­kal­ku­la­tionen. Der Vortrag leistet so einen wich­tigen Beitrag zum Diskurs über die Kosten der Daten­ar­chi­vie­rung und weist Möglich­keiten auf, weitere Akti­vi­täten des Forschungs­da­ten­ma­nage­ments syste­ma­tisch zu erfassen und zu bepreisen.

CiTAR – Zitier­bare wissen­schaft­liche Methoden – Ein dezen­trales On-demand Dienst­mo­dell [Klaus Rechert] (Univer­sität Frei­burg)

CiTAR ist ein vom MWK Baden-Würt­tem­berg geför­dertes Projekt (2016–2019) und hat zum Ziel, Infra­struktur und Erhal­tungs­kon­zepte für compu­ter­ge­stützte Forschung bereit­zu­stellen. Im Fokus stehen dabei die Methoden, d.h. soft­ware­ge­stützte Prozesse oder Modelle zur Erstel­lung oder Auswer­tung von Daten. Das wesent­liche Ziel ist es, diese Methoden nach­voll­ziehbar und nach­nutzbar nach­zu­weisen, so dass diese ebenso zitierbar und publi­zierbar werden wie derzeit schon Forschungs­daten. Ein publi­ziertes Zitat impli­ziert lang­fris­tige Verfüg­bar­keit, so dass die Lang­zeit­er­hal­tung der nach­ge­wie­senen Methoden eine wich­tige Neben­be­din­gung für die im Projekt entwi­ckelten Konzepte und Infra­struktur
darstellen. Im Vorder­grund stehen die effi­zi­ente Erhal­tung von virtu­ellen Maschinen (VMs) und Container. Hierfür wurde eine tech­ni­sches und konzep­tio­nelles Frame­work entwi­ckelt, die publi­zierte VMs und Container eine gemein­same tech­ni­sche Grund­lage stellt, so dass Aufwand für die (lang­fris­tige) Erhal­tung und der Zugriff auf publi­zierten Objekte unab­hängig
von der Zahl der nach­ge­wie­senen / hinter­legten wird. Weitere Infor­ma­tionen und Beispiele sind über die Projekt­web­seite abrufbar: http://citar.eaas.uni-freiburg.de.
Ziel von CiTAR ist es durch verein­fachte Nutzung (d.h. möglichst einfa­cher Prozesse zur Abgabe durch den Forschenden), Homo­ge­ni­sie­rung der Objekte und insbe­son­dere der Nutzung von bereits bestehenden Compute- und Storage-Ressourcen ein schlankes Dienst­mo­dell zu entwi­ckeln:

  • Die CiTAR Soft­ware ist als dezen­trale, verteiltes Frame­work entwi­ckelt, dessen Haupt­auf­gabe es ist, basie­rend auf Meta­daten Soft­ware­me­thoden und Forschungs­daten on-demand zusammen zu bringen und auszu­führen. Der Dienst
    selbst kann so “zustandslos” an verschie­denen Stand­orten betrieben werden.
  • CiTAR verfügt über eine einge­baute OAI-PMH Imple­men­tie­rung, die sowohl als Client oder als Daten­pro­vider arbeiten kann. Der Nach­weis, Suche und Zugriff soll dabei primär über bestehende Kata­loge (o.ä.) erfolgen, zB. über die Seiten der
    Univer­si­täts­bi­blio­theken. Ebenso die Spei­che­rung und Verwal­tung der tech­ni­schen und deskrip­tiven Meta­daten.
  • Die VMs, Container und Forschungs­daten sollen in bestehenden Spei­cher­sys­temen, Repo­si­to­rien etc. gespei­chert werden. CiTAR verfügt über diverse Connec­toren, die Daten bei Bedarf zusam­men­zu­führen.
  • Beim Zugriff (d.h. Ausfüh­rung einer wissen­schaft­li­chen Methode) entstehen “Rechen­kosten”, d.h. dedi­zierte Infra­struktur zur Ausfüh­rung eines Contai­ners oder VM ist notwendig. Hierfür bietet CiTAR eine Allo­ka­tions- und
    Orches­trie­rungs­kom­po­nente die die notwen­digen Ressourcen “on-demand” managed und die Ausfüh­rung steuert. Derzeit ist eine Ausfüh­rung in der bwCloud (https://www.bw-cloud.org/) und weiteren kommer­zi­ellen Cloud­pro­vi­dern möglich.

CiTAR wurde so konzi­piert, dass Fixkosten (Wartung und Weiter­ent­wick­lung der Soft­ware) auf mehrere Betreiber umlegbar sind und mit geringen Einmal­kosten (Einrich­tung, Schu­lungen etc.) auskommt und damit eine geringe initiale Hürde für neue Betriebs­standort darstellt. Initiale Inves­ti­tionen in Hard­ware o.ä. sind i.d.R. nicht notwendig, da der Dienst auf  vorhan­dener Infra­struktur aufbaut.

Die varia­blen Kosten entstehen dann haupt­säch­lich durch die Nutzung des Diensts (Storage­kosten pro hinter­legtem Objekt bzw. Compu­te­kosten bei tatsäch­li­chem Zugriff). Sofern ein Standort über entspre­chende Compute- und Storage­ka­pa­zi­täten verfügt, fallen keine zusätz­li­chen Kosten an.

Open Access Finan­zie­rung an der Freien Univer­sität Berlin – ein Kosten- und Betriebs­mo­dell [Birgit Schlegel] (Freie Univer­sität Berlin)

Die Freie Univer­sität bietet im Rahmen der OA Veröf­fent­li­chung von Zeit­schrif­ten­ar­ti­keln und Mono­gra­phien verschie­dene Finan­zie­rungs­mo­delle für Ange­hö­rige der Freien Univer­sität Berlin an.

Wie und unter Berück­sich­ti­gung welcher finan­zi­ellen und perso­nellen Ressourcen dieser Service an der FU Berlin etabliert werden konnte, beschreibt dieser Vortrag.

Aktu­elle Entwick­lungen im Open Access Publi­shing. Konven­tio­nelle, inno­va­tive und proble­ma­ti­sche Geschäfts­mo­delle. [Gerhard Eilba­cher] (ZPID Trier)

Das Leibniz-Zentrum für Psycho­lo­gi­sche Infor­ma­tion und Doku­men­ta­tion (ZPID) ist ein Public Open Science Institut für die Psycho­logie. Die Produkte und Infra­struk­tur­ange­bote decken den gesamten Forschungs­kreis­lauf von der initialen Recherche bis zur letzt­end­li­chen Veröf­fent­li­chung ab und stehen allen Wissen­schaft­le­rInnen und der inter­es­sierten Öffent­lich­keit kosten­frei zur Verfü­gung. PsychOpen ist die Open-Access-Publi­ka­ti­ons­platt­form des ZPID zur Veröf­fent­li­chung psycho­lo­gi­scher Forschungs­ar­tikel.
Im Mittel­punkt dieses Vortrags stehen die aktu­ellen Entwick­lungen und neuen Geschäfts­mo­delle im Open Access Publi­shing. Dabei werden u.a. inno­va­tive Modelle wie ‚Offset­ting‘, ‚Evidence-based open-access trans­for­ma­tion‘, ‚Koope­ra­tives Open-Access-Deutsch­land­kon­sor­tium‘ und ‚Subscribe to Open‘ vorge­stellt (Open Access 2020, 2019). Darüber hinaus werden auch konven­tio­nelle Stra­te­gien wie ‚Article Proces­sing Charge‘, ‚Platinum/Diamond Open Access‘ und ‚Free­mium‘ präsen­tiert. Eher proble­ma­ti­sche Entwick­lungen wie ‚Pred­a­tory Publi­shing‘ und die dort betrie­benen Stra­te­gien zur Gewinn­ma­xi­mie­rung finden eben­falls Berück­sich­ti­gung. Dabei handelt es sich um das betrü­ge­ri­sche Geschäfts­mo­dell soge­nannter ‚Raub­ver­lage‘, welche seriöse Quali­täts­stan­dards (z.B. wissen­schaft­li­ches Peer-Review) vortäu­schen um sich mittels Autoren- oder Konfe­renz­ge­bühren zu finan­zieren. Abschlie­ßend werden die jewei­ligen Vor- und Nach­teile der verschie­denen Modelle disku­tiert.

Top