Nachdenken über Open Access

"Open Up! The Politics and Pragmatics of Open Access" war der Titel eines höchst anregenden Workshops am 4. Oktober auf der Jahrestagung der Gesellschaft für Medienwissenschaft vom 3. bis 5. Oktober 2013 in Lüneburg.

Nachdem kurz zuvor in Hamburg die Open-Access-Tage stattfanden (zugehörige Tweets, siehe auch die Zusammenfassung von Christian Heise), wurden in Lüneburg grundsätzliche Fragen des Open Access diskutiert, die im Programm des Hamburger Treffens wohl nur am Rande eine Rolle spielten (Im schönen von Ulrich Herb herausgegebenen Sammelband "Open Initiatives: Offenheit in der digitalen Welt und Wissenschaft" sind übrigens teilweise ebenfalls solche grundsätzlichen Fragestellungen angesprochen.):

  • Was bedeutet Offenheit eigentlich genau? Beim Workshop stellten Marcus Burkhardt und Christian Heise die Open Definition der Open Knowledge Foundation vor. Dass das Konzept der Offenheit auch kritisch zu sehen ist, wurde u.a. durch einen Hinweis auf einen Aufsatz von Nathaniel Tkacz mit dem Titel "From open source to open government: A critique of open politics" (Ephemera 12(2012)4, 386-405) betont. Ein weiterer Text zur Beantwortung der Frage stammt von Michael A. Peters: The Idea of Openness.
  • Angesichts der Entwicklung, dass heutzutage fast jeder Verlag ein Open-Access-Angebot vermarktet, dass es zweitens immer mehr Verlage gibt, deren Geschäftsmodell grenzwertig erscheint (vgl. Beall’s list) bzw. dass drittens die Qualität des Peer Reviews gerade von Open-Access-Journals hinterfragbar ist (vgl. den Hinweis und Kommentar zum aktuellen Special der Zeitschrift Science zur Wissenschaftskommunikation von Fabiana Kubke), wird deutlich, dass etwas gut Gedachtes bzw. Gemeintes auch seine Schattenseiten haben kann.
    Beim Begriff Open Access schwingen immer die Themen Peer Review bzw. Bewertung von Wissenschaft sowie auch geistiges Eigentum bzw. Urheberrecht mit. Hier ist besonders zu betonen, dass das Peer Review auch bei klassischer Verlagspublikation schon lange ein Diskussionsgegenstand ist. Auch bei der Sokal-Debatte Mitte der neunziger Jahres des letzten Jahrhunderts war dies implizit mit thematisiert.
    Ein philosophisches und systematischeres Nachdenken über Offenheit erscheint notwendig, wofür dieser Workshop für mich einen schönen Ausgangspunkt darstellte. (Ob es also die Definition von Offenheit gibt, erscheint mir damit eher fraglich.)
  • In ihrem Workshop-Beitrag mahnte die Britin Janneke Adema eine kritischere Sicht auf Open Access an, die aber nicht gleich negativ sein muss. Sie zeigte am britischen Finch-Report "Accessibility, sustainability, excellence: how to expand access to research publications", dass Open Access auch als neoliberaler Versuch gesehen werden kann, die Effizienz der wissenschaftlichen Kommunikation zu steigern, wie solche Sätze zeigen:

    "Improving the flows of the information and knowledge that researchers produce will promote

    • enhanced transparency, openness and accountability, and public engagement with research
    • closer linkages between research and innovation, with benefits for public policy and services, and for economic growth;
    • improved efficiency in the research process itself, through increases in the amount of information that is readily accessible, reductions in the time spent in finding it, and greater use of the latest tools and services to organise, manipulate and analyse it; and
    • increased returns on the investments made in research, especially the investments from public funds" (S. 5)

    Nach Janneke Ademas Meinungs impliziert "radical open access" auch ein Infragestellen jetziger Institutionen und Praktiken der wissenschaftlichen Kommunikation, des Wesens des Buches sowie des Wesens akademischer Autorenschaft und der Generierung wissenschaftlich relevanten Wissens heute. Die heutigen technischen Möglichkeiten erlauben vielfältiges Experimentieren mit Alternativen. Dabei verwies sie auch auf zwei interessante Projekte "remixthebook" und "Living Books About Life".

  • Der Inder Nishant Shah erinnerte in seinem Beitrag an die heutige Herausforderung "Big Data", in der Offenheit hinsichtlich von Datenschutz und Privatsphäre durchaus kritisch zu sehen ist. Vor kurzem schrieb er in seinem Blog unter dem Titel "Big Data, People’s Lives, and the Importance of Openness" einen Text, der so endet:

    We need to remind ourselves that engagement with data is not a sterile engagement, rendered beautiful through visualizations and infographics that can make reality intelligible. It is perhaps time to realize that Data has replaced People as the central concern of being human, social and political. Time to start re-introducing People back into debates around Data, and acknowledging that Data Informatics is People Informatics and data wars have a direct effect on the ways in which people live. And Die.

  • Mercedes Bunz, die Leiterin des diesen Workshop organisierenden, ambitionierten Projektes Hybrid Publishing Lab der Leuphana Universität, unterschied in der Diskussion nochmals zusammenfassend die unterschiedlichen angesprochenen Kontexte von Offenheit: die politische Verwaltungsebene (Open Data), die forschungs- bzw- wissenschaftsbezogene (Open Access) und die ebenfalls politische, eher veränderungsbezogene Ebene von Offenheit. Darüberhinaus werden durch Open Access größere und erweiterte Öffentlichkeiten erreicht, sowohl vom Umfang her als auch von vermittlungsbezogener, eher populärer Ebene aus gesehen.

Informationskompetenz auf die Spitze getrieben!

Aus der Praxis heraus, aufgrund einer aktuellen Anfrage eines Lehrenden meiner Universität, hier ein Beispiel, warum überflüssiges Wissen hinsichtlich der Informationssuche bei den Kunden der Bibliotheken weiterhin notwendig bleiben wird. <Ironie>Informationskompetenz bleibt also ein wichtiges Thema!</Ironie>.

Wenn ich mir über die Elektronische Zeitschriftenbibliothek die Physical Reviews anschauen will, hier z.B. den Teil E, sehe ich, dass eine Nationallizenz vorhanden ist. Klicke ich hier auf die Nationallizenz lande ich beim Dienst GetInfo der TIB Hannover.

Anscheinend kann ich jetzt gezielt über diese Oberfläche GetInfo in der gewünschten Zeitschrift recherchieren. Es werden mir Artikel der Nationallizenz angezeigt und ich kann mir diese auch im Volltext runterladen, hier ein Beispielartikel. Den gleichen Artikel kann ich auf der Verlags-Website des e-journals nicht mehr bekommen.

Was ist hier passiert? Für mich sieht dies so aus, als ob der Verlag das Vorhalten der Zugriffsberechtigung für die Nationallizenz eingestellt hat und dies auf die TIB verlagert hat, die anscheinend gleichzeitig einen Server mit den Volltexten bereitstellt. Wurde all dies irgendwann mal kommuniziert? Habe ich da was verpasst? Wahrscheinlich!?

Diese Entwicklung bedeutet für Kunden zum Beispiel, dass Artikel, die z.B. via Google Scholar auf der Verlags-Website gefunden werden, an manchen Universitäten nicht im Volltext gelesen werden können. Sie müssen wissen, dass sie den gleichen Artikel über GetInfo nochmal recherchieren müssen, um an den Volltext zu kommen. Das wird alles immer verrückter mit der Informationskompetenz!

Man kommt also bei der genannten Zeitschrift an meiner Universität offenbar über die Recherche bei GetInfo weiterhin an die Volltexte der Nationallizenz, jedoch nicht mehr direkt beim Verlag! Aber es wird noch komplizierter: Für die Zeitschrift Physical Reviews B, die die TUHH-Bibliothek z.Zt. abonniert hat, kommen unsere Kunden an die aktuellen Volltexte über die Verlagswebsite, und hier dann auch (!) an die Volltexte der alten Bände!

Alles sehr spannend und als Endkunde, und als der fühle ich mich hier auch, irgendwann sicher kaum noch zu verstehen!?

Ergänzung vom 14.10.2011:

Nachdem ich gestern das Obige ziemlich schnell runtergeschrieben habe, ist mir bewusst geworden, dass die hier beschriebene Entwicklung wahrscheinlich von grundsätzlicherer Natur ist: Die Verlage werden die von den Bibliotheken gekauften elektronischen Ressourcen aus verschiedensten Gründen irgendwann nicht mehr vorhalten können oder wollen. Gerade hat z.B. ein Verlag seine Plattform gewechselt und manche der eBooks sind dabei nicht mit auf die neue Plattform gewandert. Die TUHH-Bibliothek hat dafür die PDF-Dateien der eBooks angeboten bekommen. Vielleicht stellt ein Verlag seine Tätigkeiten in einem bestimmten Segment ein oder geht gar in Insolvenz. Auch dann sind eigentlich dauerhaft lizensierte eMedien plötzlich nicht mehr verfügbar. Oder der Verlag, wie anscheinend bei den Physical Reviews im Rahmen der Nationallizenzen, möchte ältere "Bestände" und Verträge nicht mehr weiter pflegen.

Ausserdem verdienen Verlage dadurch zusätzliches Geld, falls Interessierte via Google oder sonstwie auf der Verlags-Website landen, das Produkt kaufen, ohne zu wissen, das in den Tiefen des Deep Webs die Produkte frei zur Verfügung stehen.

Es werden sich weitere Geschäftsmodelle ähnlich wie z.B. das von JStor entwickeln, die abgelegten Content der Verlage aufnehmen und anbieten. Bibliotheken werden dann in Zukunft statt in ein Büchermagazin in solche wie im Fall von GetInfo durchaus auch von Bibliotheken betriebene Institutionen investieren müssen, um an ihre gekauften elektronischen Ressourcen langfristig heranzukommen.

Was kann man unseren Kunden angesichts dieser Unübersichtlichkeit hinsichtlich der Suche nach bestimmten Volltexten raten? Ich sage z.B. immer, dass die Suche nach einem konkreten Artikel im Volltext durchaus über Google erfolgen kann. Oft findet man hier das Gesuchte sofort. Nur im Falle man nach der Kreditkarte oder nach einem Login gefragt wird, sollte man sich daran erinnern, dass es Bibliotheken gibt 8-) und im Katalog nach der gewünschten Zeitschrift recherchieren, um so eventuell auf weitere "Standorte" der Volltexte zu kommen oder überraschenderweise 8-) festzustellen, dass diese Zeitschrift leider nur gedruckt in der betreffenden Bibliothek zur Verfügung steht.

Informationskompetenz für Information Professionals …

.. bietet eine Aggregator-Seite, auf die Sheila Webber gerade in ihrem Blog hingewiesen hat.

Für deutsche Blogs haben Lambert Heller, Christian Hauschke und Edlef Stabenau vor ein paar Wochen ebenfalls eine Aggregator-Website unter dem Namen Plan3t.info ins Netz gestellt. Wohl mehr als 100 deutschsprachige, einschlägige Blogs findet man hier übersichtlich zusammengestellt. Ich habe mich gefreut, dass dieses Blog auch dabei sein darf! 8-)

Mehr noch, jeden Tag in der Woche von Montag bis Freitag gibt es unter der Kategorie "Stimmen" ein originales Posting von bloggenden Bibliothekarinnen und Bibliothekaren. Die Vielfalt der Themen ist beeindruckend. Hier ein paar Postings, die mir besonders aufgefallen sind:

Es gibt noch viel mehr im Plan3t.info zu entdecken, darunter auch mein eigener, erster Beitrag bei den "Stimmen" mit dem Titel "Eine Ressource für Informationskompetenz damals".

Elektronische Karteikartensysteme

Vor einiger Zeit bekam ich über das Auskunftssystem "Fragen Sie Hamburger Bibliotheken" sinngemäß folgenden Anfrage:
“Ich möchte mich zum Thema elektronisches Karteikartensystem informieren und sehe mich überfordert, etwas derartiges zu finden. Was können Sie mir zu diesem Thema sagen?”

Es hat mir Spaß gemacht, diese Anfrage wie folgt zu beantworten: 8-)

“So ganz verstehe ich nicht, was Sie genau wollen? Es folgen ein paar Assoziationen, die Ihre Anfrage bei mir hervorgerufen hat.

Früher wurden die Kataloge von Bibliotheken als Zettelkartei geführt. Mittlerweile sind diese alle als elektronische Datenbank online zugänglich, so dass man z.B. den Katalog des Bibliotheksbestandes der TUHH-Bibliothek als ‘elektronisches Karteikartensystem’ bezeichnen könnte.

In unserem Katalog finden Sie übrigens das folgende Buch zur Geschichte des Zettelkastens:
Zettelwirtschaft : die Geburt der Kartei aus dem Geiste der Bibliothek / Markus Krajewski. Berlin : Kulturverl. Kadmos, 2002. (Vgl. auch meine Rezension des Buches in der Zeitschrift Bibliothek. Forschung & Praxis (Jg. 26, Nr. 3, 2002, S. 317-318).

Auf der Website des Autors finden Sie einen elektronischen Zettelkasten, also Software zur Verwaltung von Daten, häufig Literaturangaben. Eigentlich ist jedes Datenbanksystem ein ‘elektronisches Karteikartensystem’.

Vergleichen Sie bitte zur Nutzung von Karteikarten zum Lernen und zur Literaturverwaltung auch folgenden Aufsatz von Markus Krajewski: Elektronische Literaturverwaltungen. Kleiner Katalog von Merkmalen und Möglichkeiten, in: Norbert Franck und Joachim Stary (Hrsg.), Technik wissenschaftlichen Arbeitens (= UTB), 11., vollständig überarbeitete Neuauflage, Ferdinand Schöningh Verlag, Paderborn, 2003, S. 97-115 (geringfügige Überarbeitung des Texts für die 12. Auflage, November 2005).

Auch die TUHH-Bibliothek bietet ihren Kunden eine Literaturverwaltungsystem in Form der Software Citavi, die auch in einer freien, nur leicht eingeschraenkten Version downloadbar ist. Auch ein elektronisches Karteikartensystem!”

8-)