Ablieferung von Netzpublikationen durch den Zitierenden. Sicherung der Persistenz von Onlinequellen in der Wissenschaft

Jan Schallaböck

„Aller Unterricht und alles Lernen geschieht, soweit beides auf dem Denken beruht, mittelst eines schon vorher bestandenen Wissens.“[1] Aristoteles beschreibt in seinem Organon (deutsch „Werkzeug“) bereits das, was die Wikipedia in der Definition des Wissenschaftsbegriffs kompakt in eine konsistente Ontologie zentraler Begriffe zusammen führt: „Wissenschaft (Wissen schaffen) ist die Erweiterung von Wissen durch Forschung (nach neuen Erkenntnissen suchend), seine Weitergabe durch Lehre, der gesellschaftliche, historische und institutionelle Rahmen, in dem dies organisiert betrieben wird, sowie die Gesamtheit des so erworbenen Wissens. Forschung ist die methodische Suche nach neuen Erkenntnissen sowie ihre systematische Dokumentation und Veröffentlichung in Form von wissenschaftlichen Arbeiten. Lehre ist die Weitergabe der Grundlagen des wissenschaftlichen Forschens und die Vermittlung eines Überblicks über das Wissen eines Forschungsfelds (den sogenannten aktuellen Stand der Forschung).“[2]

Jenseits des Pluralismus von Erkenntnis- und Wissenschaftstheorie besteht die Wissenschaft in der Suche nach neuen Erkenntnissen.[3] Dabei gilt wohl: „Die Wissenschaft, sie ist und bleibt, was einer ab vom anderen schreibt. Doch trotzdem ist sie unbestritten, immer weiter fort geschritten.“[4] Die Verfügbarkeit der zitierten Quellen ist essentiell für die Wissenschaft. Es bedarf einer institutionellen Garantie, dass zitierte Werke auch in Zukunft verfügbar sind. Diese Aufgabe kann wegen der Manipulationsgefahr, aber auch aus Kapazitätsgründen nicht den Wissenschaftlern selbst aufgebürdet werden. Es ist eine infrastrukturelle Aufgabe für jeden Staat, dem die Förderung der Wissenschaft und Forschung ein Anliegen ist.

Als gesichert gelten darf wohl die Verfügbarkeit zumindest für jene Publikationen, die unter die Pflichtexemplar-Regelungen nach dem Gesetz über die Deutsche Nationalbibliothek (DNBG) oder den jeweiligen landesrechtlichen Regelungen fallen – allerdings nur soweit wie die so Verpflichteten ihrer Verpflichtung nachkommen. Hier trifft manchmal Recht auf Wirklichkeit. Jedoch trifft diese Regelung ohnehin nur Rechteinhaber, die ihren Sitz in Deutschland haben.[5] Werke, die im Ausland verlegt werden (aus dem Blick des inländischen Käufers: „Auslandserwerbungen“) sind nicht erfasst. Auf Landesebene ist der Anwendungsbereich meist weiter reduziert. Die jeweiligen gesetzlichen Regelungen beispielsweise in Hamburg und Rheinland-Pfalz gelten für Werke, die im jeweiligen Bundesland verlegt werden.[6] Damit entsteht für die Wissenschaft eine gewichtige Lücke, denn es ist offensichtlich, dass für viele Quellen keine Pflichtexemplare vorhanden sind.

Einen wichtigen Beitrag leisten daher die Universitäts- und Fachbereichsbibliotheken, die für ihr jeweiliges Wissenschaftsfeld erhebliche Bestände pflegen. Sie verringern insbesondere jene Lücke, die dadurch entsteht, dass Pflichtexemplar-Regelungen nur Rechteinhaber trifft, die ihren Sitz in Deutschland haben.

Quellen aus dem Internet

Am enormen Potential des Internets für die Wissenschaft besteht kein ernsthafter Zweifel. Aus dem wissenschaftlichen Alltag ist es kaum wegzudenken. Gerade die einfache Verfügbarkeit von Quellen und Erkenntnissen bringt einen qualitativen Unterschied bei der wissenschaftlichen Arbeit. Die oft nicht unaufwendige Quellenrecherche in Bibliotheken wird enorm erleichtert. Das Arbeiten jenseits disziplinär geprägter Literaturapparate und Fachbibliotheken wird durch das Internet erheblich vereinfacht, wenn nicht sogar erst möglich gemacht.

Doch die Wissenschaft tut sich schwer mit der Akzeptanz von Quellen aus dem Internet. Oft wird verlangt, dass ausschließlich oder zumindest vorzugsweise gedruckte Quellen zitiert werden. Dafür spricht ein gewichtiges Argument: Die Persistenz, die dauerhafte Verfügbarkeit der Quellen, ist im Internet institutionell nicht in gleichem Maße gesichert, wie dies bei gedruckten Quellen der Fall ist, auch wenn dem Anspruch an Verfügbarkeitssicherung aller Quellen selbst offline bisher nicht Genüge getan ist.[7] Tatsächlich ließe sich für Online-Quellen aber vielfach ein höheres Maß an Persistenz herstellen, als wir dies offline vorfinden, wie noch zu zeigen sein wird.

Weblinks sind in der Mehrzahl nicht annähernd persistent. Ihre Verfügbarkeit richtet sich danach, dass ein Inhalt unter einem bestimmten Link weiterhin zur Verfügung gestellt wird. Das heißt, ein entsprechender Webserver muss diesen unveränderten Inhalt weiterhin ausliefern. Der Inhalt darf nicht ersetzt oder anderweitig verändert werden.

Allerdings unterliegen Online-Quellen einem Phänomen, das im Netzjargon manchmal als „link rot“ bezeichnet wird. Die Links „vergammeln“, ihre Inhalte sind nicht mehr, nicht mehr inhaltsgleich oder nicht mehr am angegebenen Ort verfügbar. Eine institutionelle Garantie für die Verfügbarkeit gibt es nicht. Gerade derer bedarf es aber für die Wissenschaft.

Viele Internetseiten sind gar nicht darauf angelegt, unter dem gleichen Link immer den gleichen Inhalt zu liefern. Das offensichtlichste Beispiel sind die meisten Einstiegsseiten zu Online-Angeboten. Hier verdrängen oft aktuelle Informationen die älteren. Um dem Problem zu begegnen, bieten viele Seiten daher zu bestimmten Inhalten sogenannte Permalinks an, die stets zum gleichen Inhalt führen sollen. Das Problem ist hierdurch jedoch nicht gelöst, denn die Verfügbarkeit ist weiterhin an die Aufrechterhaltung des Betriebs des Webservers gebunden. Manipulationen durch den Betreiber sind nicht unbedingt belegbar.[8] Möchte der Verlegende einen Inhalt nachträglich korrigieren, kann er dies möglicherweise völlig unbemerkt tun. Zudem muss der Zitierende stets darauf achten, auf den Permalink zu verweisen, was aufgrund des Vorgenannten zumindest im Wissenschaftsbereich durchaus müßig erscheint. Eine Quelle für eine wissenschaftliche Arbeit benötigt eine institutionelle Garantie für ihre Persistenz. Das kann ein Permalink aber nicht leisten. Die Verfügbarkeit darf nicht von der zukünftigen Verlässlichkeit des Verlegenden abhängen, was bei einem Permalink aber der Fall ist.

Archivarische Lösungen

Es gibt eine ganze Reihe von archivarischen Lösungsansätzen. Der deutsche Gesetzgeber hat etwa im Gesetz über die Deutsche Nationalbibliothek (DNBG) den Archivierungsauftrag der Deutschen Nationalbibliothek (DNB) ausdrücklich auch auf Medienwerke in öffentlichen Netzen erweitert (§ 2 Nr. 1 in Verbindung mit § 3 III DNBG) und mit einer Ablieferungspflicht seitens der Rechteinhaber mit Sitz in Deutschland gestützt (§ 14 III DNBG).

Pflichtexemplar-Regelungen mögen für große Verlage bewältigbar sein, für kleinere Publikationen gehen sie an der Realität der Veröffentlichungspraxis vorbei. Nach geltendem Recht ist etwa nahezu jede Schülerzeitung ablieferungspflichtig und nun auch jede deutschsprachige Online-Publikation. Die Pflichtexemplar-Abgabe ist für kleinere Publikationen oder Weblogs ein praktisch kaum realisierter und vermutlich auch nicht realistischer Prozess.[9]

Einen anderen Ansatz geht unter anderem das 1996 vom US-Unternehmer Brewster Kahle gegründete Internet Archive mit dem Ziel die kulturellen Artefakte des Internets zu erhalten und so ein „digitales finsteres Mittelalter“[10] zu vermeiden. Die „Wayback machine“ des Internet Archive durchforstet in regelmäßigen Abständen große Teile des World Wide Web, archiviert die dort gefundenen Inhalte und macht sie im Rahmen des eigenen Angebotes verfügbar.

Der Datenbestand des Internet Archive umfasste 2012 etwa 10 Petabyte[11] an Daten und erfasste im Mai 2014 insgesamt 400 Milliarden einzelne Webseiten.[12] Dennoch ist ein relevanter Anteil des World Wide Web auch in der Wayback Machine nicht enthalten. Neben dem Ausschluss von Seiten durch die Seitenbetreiber machen Webseiten mit dynamischen Inhalten Schwierigkeiten. Dynamisch ist der Inhalt insoweit, als er sich abhängig von den Rahmenbedingungen bei jedem Aufruf ändern kann. Ein Link verweist daher nicht – oder nicht immer – auf den gleichen Inhalt.

Verfahren, bei denen proaktiv Internetseiten archiviert werden, bezeichnet man als Crawling (wörtlich „kriechen“, sinngemäß wohl am ehesten „abgrasen“), wenn man eher auf das Verfahren abstellt; oder „Harvesting“ (ernten), wenn man sich auf das Ergebnis bezieht. Neben dem Internet Archive wird Crawling auch von Suchmaschinen zur Erstellung ihrer Suchindizes verwendet. Ausgehend von einem Bestand an vorhandenen Links werden die dort hinterlegten Inhalte auf weitere Verlinkungen untersucht, deren Inhalte dann ebenfalls untersucht und indiziert oder archiviert werden.

Harvesting als Quelle für nationale Archive wird seit spätestens 2006 auch in Deutschland ernsthaft erwogen.[13] Bei der französischen Nationalbibliothek wird es seit 2001 diskutiert und inzwischen als Verfahren relativ umfassend eingesetzt.[14] Hierbei wird auf eine angepasste Version des Systems der Wayback Machine zurückgegriffen.[15] Auch die DNB greift auf Harvesting zurück, beschränkt sich bisher aber nur auf ausgewählte Domänen – etwa staatliche Stellen und Kultureinrichtungen – und lässt andere Quellen außer Acht.[16]

Allerdings trifft Harvesting auf erhebliche Schwachstellen. Zentrale Probleme sind etwa:

  • Der schon erwähnte Umgang mit dynamischen Inhalten,

  • der eingeschränkte Fokus, [17]

  • insbesondere die fehlende institutionelle Garantie, dass ein bestimmter Inhalt tatsächlich archiviert wurde.

Vor allem Letzteres stellt für den wissenschaftlichen Bereich eigentlich ein Ausschlusskriterium dar. Wenn ein Wissenschaftler sich nicht darauf verlassen kann, dass die Langzeitverfügbarkeit seiner Quelle gesichert ist, ist die Quelle für ihn nicht zitierfähig, er kann auf die in ihr belegte Erkenntnis nicht oder nur mit hohem Aufwand aufbauen.

On-demand-Archivierung als Lösungsweg

Einen Erfolg versprechenden Lösungsweg für die Wissenschaft hat unterdessen eine Initiative amerikanischer Universitätsbibliotheken entdeckt. Unter dem Namen „Perma.cc“ bieten sie einen Dienst, der den Zitierenden in den Archivierungsprozess einbindet. Perma.cc ist entstanden auf eine Initiative des bekannten Internetforschers Jonathan Zittrain. Zittrain zeigte in einer Studie, dass die in Urteilen des US-Supreme Court sowie in drei rechtswissenschaftlichen Fachzeitschriften der Universität Harvard verwendeten Links zum Zeitpunkt der Untersuchung nur zu 70 beziehungsweise zu 50 Prozent verfügbar waren.[18] In seinem Beitrag stellt er gleich einen Lösungsansatz vor: das Archivierungssystem Perma.cc, das vom Harvard Library Innovation Lab entwickelt wurde.

Ähnlich wie das bereits 1997 vom deutsch-kanadischen Wissenschaftler Gunter Eysenbach entwickelte System Webcite[19] nimmt Perma.cc Online-Dokumente nach Bedarf (on demand) in sein Archiv auf. Über einen einfachen Klick auf einer zu archivierenden Webseite führt der Rezipient den Archivierungsprozess durch. Sowohl Perma.cc als auch Webcite nutzen die Bookmarklet-Technik. Ein Bookmarklet ist ein besonderes Lesezeichen, das wie andere Online-Lesezeichen einfach im Browser – etwa am oberen Rand in der Lesezeichenleiste – hinterlegt werden kann. Anders als statische Lesezeichen setzt es dabei allerdings auf die Fähigkeit des Browsers, Anweisungen in Form der Programmiersprache Javascript umzusetzen. Bei einem Klick auf das in der Lesezeichenleiste angelegte Bookmarklet wird dem Archivserver die zu archivierende Seite (also die Seite, die beim Nutzer gerade angezeigt wird) übergeben. Auf der sich anschließenden Webseite wird dann – im Fall von Perma.cc nach erneuter Bestätigung – ein Link angezeigt, unter der das Dokument im Archiv erreichbar ist.

img11a.jpg

1. Aufruf einer Internetseite, zum Archivieren Bookmarklet anklicken.

img11b.jpgimg11c.jpg

2. Bestätigungs­seite und Archivierung bei Webcite

img11d.jpgimg11e.jpg

3. Bestätigungsseite und Archi­vierung bei Perma.cc

Anders als Webcite führt Perma.cc noch einen manuellen Kuratierungsprozess („vesting“ genannt, hier wohl im Sinne von Übertragung oder Sicherung) durch. Im Rahmen dieses Prozesses wird überprüft, ob die Links dauerhaft in das Archiv übernommen werden sollen.

Perma.cc und Webcite gehen prozedural den richtigen Weg, indem sie eine Kombination von Harvesting und Ablieferung anbieten, wobei die Zitierenden in den Prozess eingebunden werden. Dies erscheint für den Bereich der wissenschaftlichen Zitation sachgerecht, weil gerade der Zitierende ein eigenes Interesse an der Verfügbarkeit hat. Zudem lässt es sich durch das gewählte Verfahren gut in die Arbeitspraxis des wissenschaftlichen Arbeitens integrieren. Dies könnte Vorbild auch für neue Wege in Deutschland sein.

Rechtliche Herausforderungen

Die Einführung eines On-Demand-Services in Deutschland muss allerdings gut überlegt werden. Sie trifft in rechtlicher Hinsicht und im Blick auf ihre technischen Umsetzung auf einige Herausforderungen. Eine Reimplementierung oder auch ein Anschluss an die amerikanische Initiative von Harvard und anderen im Rahmen von Perma.cc wird in Deutschland derzeit jedenfalls nicht ohne Weiteres rechtmäßig sein. Der technische Ansatz von Perma.cc ist schon gut entwickelt, ist aber anpassungsbedürftig. Neben der Berücksichtigung des nationalen Rechts bei einer technischen Implementierung lassen sich hier möglicherweise weitere Optimierungen vornehmen. Die folgenden Ausführungen sollen erste Anhaltspunkte für einige der sich stellenden Fragen liefern.

Das Angebot von Perma.cc stützt sich auf die liberaleren Regelungen des amerikanischen Copyrights, das aufgrund der Fair-Use-Bestimmungen einen weiteren Spielraum für Archivierungen lässt.[20] Nach deutschem Recht stellt sich die Frage, ob Archivierung auf Veranlassung des Zitierenden mit dem Urheberrecht in Einklang zu bringen ist.[21]

Unterstellt man, dass die Archivierung durch die DNB durchgeführt würde, könnte man erwägen, sich auf die Pflichtexemplar-Regelung des DNB-Gesetzes zu stützen. Man könnte vielleicht vertreten, dass wo eine Pflicht zur Ablieferung für Archivierungszwecke besteht, notwendig auch ein Recht zur Archivierung enthalten sein muss – unter Umständen auch unabhängig von der Beachtung der Pflicht. Man könnte die Ablieferungspflicht gleichsam als spezialgesetzliche Schrankenbestimmung des Urheberrechtes lesen. Diese Frage erscheint bislang noch nicht umfassend untersucht oder gar durch die Gerichte geklärt. Folgt man dieser Auffassung wäre jedenfalls das Harvesting von ablieferungspflichtigen Veröffentlichungen zulässig.

Allerdings sind sogenannte Auslandserwerbungen nicht ablieferungspflichtig. Das führt dem ersten Anschein nach zu dem absurd anmutenden Umstand, dass Archivierungen von Onlinequellen aus dem Ausland nicht zulässig wären. Die Rechteinhaber dieser Quellen genössen einen umfassenderen Rechtsschutz als Quellen, deren Rechteinhaber ihren Sitz in Deutschland haben. Effektiv kommt es damit in vielen Fällen zur Inländerdiskriminierung, was gesetzgeberisch nicht gewollt sein kann. Ein solcher erhöhter Schutz ist auch aufgrund der internationalen Verpflichtungen nicht geboten, denn es gilt hier das Schutzlandprinzip, wonach ausländische Quellen eben denselben, aber nicht einen höheren Schutz genießen sollen wie Quellen, die aus dem Inland kommen. Möglicherweise lässt sich aber aus den in den unterschiedlichen internationalen und bilateralen Verträgen verankerten Regelungen der Inländerbehandlung aber auch unmittelbar ableiten, dass die gerade skizzierte Schrankenbestimmung ohne Weiteres auch auf Auslandserwerbungen angewendet werden kann. Andernfalls wäre wohl eine ausdrückliche gesetzliche Verankerung des Rechts, Quellen eigenständig zu archivieren, erforderlich.[22]

Rechtliche und technische Anpassungen sind jedenfalls dort erforderlich, wo es um die spätere Nutzung des Archivmaterials geht. Eine Verbreitung der archivierten Fassung durch das Archiv selbst, wie es bei Perma.cc und Webcite praktiziert wird, wäre in Deutschland derzeit wohl nicht ohne Weiteres zulässig. Sofern die Originalfassung und die Archivfassung übereinstimmen, bedarf es aber einer solchen Verbreitung auch nicht. Ein Archivsystem könnte nach einem Vergleich der Quellen, jede Anfrage unmittelbar auf das Originalangebot weiterleiten, ohne selber ein Verwertungsrecht in Anspruch zu nehmen.

Ist eine Quelle online nicht mehr unter dem ursprünglichen Link erreichbar, sind verschiedene Teillösungen denkbar. So könnte eine noch vorhandene Webpräsenz mittels Crawling durchsucht werden. Wird in diesem Prozess die Quelle unter einem neuen Link gefunden, so kann der Nutzer auf diesen Link – gegebenenfalls angereichert um einen Hinweis auf die Verschiebung – weitergeleitet werden. Eine aufwendige Kuratierung (das „Vesting“) der Quellen ist gar nicht erforderlich.

In allen anderen Fällen ist eine gezieltere Prüfung nötig, ob das Archiv gegebenenfalls als nicht öffentlich zugängliches, also „dunkles“ Archiv zu führen oder sogar aus dem Bestand zu löschen ist. Letztere Varianten sind sicherlich ist aus Sicht desjenigen, der eine Quelle zitiert hat, ein unbefriedigendes Ergebnis.

Hierfür ist eine Analyse der Kasuistik erforderlich. Es müsste stellenweise eine Nachjustierung des Rechtes erwogen werden, die insbesondere einbezieht, warum eine Quelle nicht mehr verfügbar ist. Sofern die Webpräsenz selbst eingestellt wurde und mögliche Rechteinhaber nicht auszumachen sind, könnten die gesetzlich verankerten Prinzipien für verwaiste Werke Anhaltspunkte liefern. Ist etwa eine Quelle wegen Verletzung von Rechten Dritter nicht mehr verfügbar, wird es kaum vertretbar sein, die Rechtsverletzung durch weitere Verbreitung im Rahmen öffentlicher Zugänglichmachung[23] fortzusetzen. Allerdings kann auch hier – je nach Art der Rechtsverletzung – ein eingeschränktes Zugriffsrecht zu näher definierten (etwa wissenschaftlichen) Zwecken dennoch angemessen sein.


Zum Autor

Jan Schallaböck hat Jura mit Wahlfach Europa- und Völkerrecht in Marburg und Berlin studiert. Seine Referendariatsstationen absolvierte er unter anderem im Auswärtigen Amt (Referat für internationale IKT-Politik und in der deutschen Botschaft in Kasachstan). Die Anwaltsstation hat er bei einer auf IT-Recht spezialisierten Kanzlei verbracht, wo er insbesondere mit Rechtsfragen von offenen Lizenzen befasst war. Im Anschluss an sein zweites Staatsexamen trat Jan Schallaböck im Herbst 2006 in den öffentlichen Dienst des Landes Schleswig-Holstein ein. Am dortigen Unabhängigen Landeszentrum für Datenschutz wurde er betraut mit der Mitarbeit in unterschiedlichen europäischen Forschungsverbünden zu Fragen von Datenschutzrecht und -technologie. Parallel zu Ausbildung und Beruf ist Jan Schallaböck seit vielen Jahren beratend, publizierend und vortragend tätig. Ein Dissertationsvorhaben an der Universität Kassel, für die er ein Stipendium aus der Begabtenförderung des BMBF erhielt, liegt derzeit zur Begutachtung vor. Seit Herbst 2013 unterstützt er iRights.Law Rechtsanwälte und wird demnächst aus dem öffentlichen Dienst ausscheiden und als Partner in die Kanzlei eintreten.


  1. Aristoteles: Organon. Zweite Analytiken oder Lehre vom Erkennen. Dort erstes Buch, erstes Kapitel, erster Satz.
  2. Vgl. Wikipedia: „Wissenschaft“, http://de.wikipedia.org/wiki/Wissenschaft (Letzter Aufruf: 30.09.2014).
  3. Das Bundesverfassungsgericht spricht sogar von „Wahrheiten“, BVerfGE 47, 327 (367).
  4. Roth, E.: Großes Tierleben. München 1949.
  5. Vgl. § 15 DNBG.
  6. Vgl. § 1 Pflichtexemplarsgesetz Hamburg bzw. § 14 Abs. 1 Satz 1 Landesmediengesetz Rheinland-Pfalz.
  7. Daneben wird freilich angeführt, dass bei Online-Quellen nicht immer gewährleistet ist, dass qualitätssichernde Verfahren, insbesondere sogenanntes Peer review, eingesetzt werden. Dieser Aspekt soll in der vorliegenden Betrachtung weitgehend außer Acht bleiben. Jenseits der Kritik an diesem Verfahren und der Tatsache, dass auch im Internet inzwischen vergleichbare Verfahren Verbreitung gefunden haben, besteht die Notwendigkeit, dass Online-Quellen zitierbar sein müssen, jedenfalls dort, wo Quellen aus dem Netz als empirische Grundlage herangezogen werden sollen, also wo es schlicht um den Beleg der Tatsache geht, dass eine bestimmte Aussage so im Internet gemacht wurde.
  8. Dass derartige Veränderungen selbst bei Entscheidungen des US-Supreme Courts vorgenommen werden, zeigt eine Studie von J. Lazarus Richard, deren Entwurf derzeit als Vorabveröffentlichung online vorliegt: Richard, J. L.: The (Non)Finality of Supreme Court Opinions. http://www.law.harvard.edu/faculty/rlazarus/docs/articles/LazarusRichardTheNonFinalityOfSupremeCourtOpinionsFullVersion21May14.pdf (Letzter Aufruf: 23.09.2014). In diesem Fall sind die Änderungen selbstredend belegt und belegbar. Allerdings veranschaulicht dieses Beispiel sehr gut, dass derartige Veränderungen vorgenommen werden. Dass sie – bei anderen Quellen – nicht immer oder sogar oft nicht erkennbar sind, liegt nahe.
  9. Bezeichnenderweise steht für die wohl am weitesten verbreitete Blog-Software WordPress kein entsprechendes Plugin zur Verfügung, das die Pflichtabgabe automatisieren würde. Es hat sich in der großen Entwickler-Community von WordPress scheinbar niemand gefunden, der sich berufen fühlt, eines zu entwickeln. Bei realitätsnaher Betrachtung ist wohl davon auszugehen, dass die weit überwiegende Mehrzahl der Blogs ihrer Ablieferungspflicht nicht nachkommt. Zwar kann die Deutsche Nationalbibliothek die Nichtablieferung mit einem für kleine Blogs empfindlichen Bußgeld von bis zu 10.000 Euro ahnden (§ 19 DNBG). Aber die konsequente Verfolgung würde nicht nur die personellen Ressourcen der DNB sprengen, sie wäre auch nur schwer zu vermitteln.
  10. „[…] we live in what Danny Hillis has referred to as our ‚digital dark age‘.“ Internet Archive About Page: Why the Archive is Building an „Internet Library“, https://archive.org/about/ (Letzter Aufruf: 23.09.2014).
  11. „10,000,000,000,000,000 bytes archived!“, Internet Archive Blog am 26.10.2012, http://blog.archive.org/2012/10/26/10000000000000000-bytes-archived/ (Letzter Aufruf: 23.09.2014). Illustrativ zu den Größenordnungen ist das Video von Pedro Pimenta, http://vimeo.com/21435466 (Letzter Aufruf: 23.09.2014).
  12. „Wayback Machine Hits 400,000,000,000!“, Internet Archive Blog am 09.05.2014, https://blog.archive.org/2014/05/09/wayback-machine-hits-400000000000/ (Letzter Aufruf: 23.09.2014).
  13. Etwa bei Neuroth et al.: nestor Handbuch – Eine kleine Enzyklopädie der digitalen Langzeitarchivierung. Göttingen 2006, S. 42ff. http://nestor.sub.uni-goettingen.de/handbuch/artikel/nestor_handbuch_artikel_146.pdf (Letzter Aufruf: 23.09.2014).
  14. Lupovici, C.: Web-Crawling: Die Praxis der Bibliothèque nationale de France. 71. IFLA Konferenz, Oslo im August 2005, S. 2. http://202.206.214.254:8089/GYZJ/NEPAPER/papers/074g_trans-Lupovici.pdf (Letzter Aufruf: 23.09.2014)
  15. Wendland, B.: Webarchivierung an der Französischen Nationalbibliothek. Vortrag auf dem nestor Praktikertag 2014. http://files.dnb.de/nestor/veranstaltungen/Praktikertag2014/Wendland-BnF-Webarchivierung.pdf (Letzter Aufruf: 23.09.2014).
  16. Deutsche Nationalbibliothek (Hrsg.): Netzpublikationen. http://www.dnb.de/DE/Netzpublikationen/netzpublikationen_node.html (Letzter Aufruf: 30.09.2014).
  17. Wie bei der Ernte, bleiben auch beim Web-Harvesting immer ein paar Pflanzen stehen beziehungsweise Internetseiten unarchiviert. Im ungünstigen Fall entstehen große „blinde Stellen“. Archivgetriebenes Crawling ist immer auf eine gute Pflege von Ausgangslinks angewiesen und hinkt damit notwendigerweise den Entwicklungen hinterher.
  18. Zittrain, J./Albert, K./Lessig, L.: Perma: Scoping and Addressing the Problem of Link and Reference Rot in Legal Citations. Harvard Law Review Forum 127 (2014), S. 176-176.
  19. Vgl. http://www.webcitation.org (Letzter Aufruf: 30.09.2014).
  20. Vgl. Flyntz, M. E.: Ever Onward: Expanding the Use of Perma.cc. Mai 2014, der sogar die Archivierung und Verbreitung von Fragmenten zahlungspflichtiger Onlineangebote mittels des Dienstes für Fair Use hält. http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2438981 (Letzter Aufruf: 23.09.2014).
  21. Vgl. zu den vielfältigen rechtlichen Problemen Euler, E.: Digitale Langzeitarchivierung und Distributed Storage in LuKII, Gutachten, ohne Ortsangabe, September 2011. http://edoc.hu-berlin.de/oa/reports/reXWA7YIvSnAk/PDF/23gwylDsJJV6.pdf (Letzter Aufruf: 23.09.2014).
  22. Dies wäre eine Regelung, die im Übrigen freilich auch schon zur Klarstellung und Stärkung der Rechtssicherheit erstrebenswert erscheint.
  23. Man beachte hierbei auch die datenschutzrechtlichen Anforderungen. Verdienstvoll hierzu Hillegeist, T.: Rechtliche Probleme der elektronischen Langzeitarchivierung wissenschaftlicher Primärdaten. Dissertation. Göttingen 2012, S. 141ff.

Eine Reaktion auf Ablieferung von Netzpublikationen durch den Zitierenden. Sicherung der Persistenz von Onlinequellen in der Wissenschaft

  1. Andreas Job auf 28. August 2015 bei 17:23 says:

    Schade, dass es keine Volltextsuche in dem E-Reader gibt. Damit wird ein wesentlicher Vorteil einer digitalen Edition verschenkt. Trotzdem vielen Dank, dass dieses Werk überhaupt digital und kostenfrei veröffentlicht wird.

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>