Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
eLearning und Open Access sind wichtige Themen der zukünftigen Informationsversorgung wissenschaftlicher Einrichtungen. Sie können jedoch nur im Kontext eines Gesamtkonzepts der Informationsversorgung sinnvoll diskutiert werden. Beide Themen werden in dieser Studie daher vor allem in Wechselwirkung mit anderen Elementen einer integrierten Informationsversorgung der Hochschulen des Landes NRW diskutiert. Im ersten Teil der Studie wird ein Modell für die zukünftige Informationsversorgung in NRW entwickelt. Der letzte Teil gibt einen Gesamtüberblick über den Status Quo der wissenschafltichen Informationsversorgung in sowohl Nordrhein-Westfalen als auch im internationalem Kontext. Dabei wurde sowohl auf aktuelle Literatur zu den Themenkomplexen zurückgegriffen als auch eine Reihe von Interviews mit Gesprächspartnern aus den relevanten Feldern der landesweiten und internationalen Informationsversorgung durchgeführt.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 531
Veröffentlichungsjahr: 2015
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Simone Görl, Johanna Puhl, Manfred Thaller
Empfehlungen für die weitere Entwicklung der Wissenschaftlichen Informationsversorgung des Landes NRW
Köln 2011
Vorwort
eLearning und Open Access sind wichtige Themen der zukünftigen Informationsversorgung wissenschaftlicher Einrichtungen. Sie können jedoch nur im Kontext eines Gesamtkonzepts der Informationsversorgung sinnvoll diskutiert werden. Beide Themen werden in dieser Studie daher vor allem in Wechselwirkung mit anderen Elementen einer integrierten Informationsversorgung der Hochschulen des Landes NRW diskutiert.
Zum Aufbau: Teil I versucht, ein in sich konsistentes Modell für die zukünftige Informationsversorgung wissenschaftlicher Einrichtungen zu entwickeln. Dies sind Interpretationen und Empfehlungen des Projektteams.
Teil II schildert den landesweiten (und teilweise nationalen) Sachstand. Er wurde zunächst vom Projektteam in vorbereitenden Gesprächsrunden und aus der Literatur erarbeitet und danach auf einem Workshop mit den Teilnehmern der vorherigen Runden diskutiert und auf Grund dessen überarbeitet. Diese Version der Ergebnisse wurde in einer letzten Phase des Projekts schließlich mit internationalen Experten erörtert.
Teil III schildert einerseits die Informations- und Bildungslandschaft in verschiedenen, mit NRW vergleichbaren, Regionen oder Ländern und andererseits die Reaktionen bei Experten dieser Regionen auf unseren Entwurf.
Soweit dem Textfluss zu Liebe keine geschlechtsneutralen Bezeichnungen verwendet wurden, steht die männliche Form für beide. „Hochschule” wird unterschiedslos für Universitäten und Fachhochschulen verwendet; es sei denn, es wird auf institutionelle Unterschiede hingewiesen.1
Wir danken dem Ministerium für Innovation, Wissenschaft und Forschung des Landes Nordrhein-Westfalen, das diese Studie finanziert hat.
Köln, im Frühsommer 2011 Simone Görl, Johanna Puhl, Manfred Thaller
Manfred Thaller
In der Zeit bis 2025 wird die Informationstechnologie ihre Entwicklung zu einem räumlich und zeitlich hochverfügbaren Bestandteil der gesellschaftlichen Umwelt weiter fortsetzen, wobei jetzt noch bestehende Brüche zwischen unterschiedlichen Technologieebenen weiter überwunden werden.
Die Informationsinfrastrukturen der Hochschulen des Landes NRW müssen sich in diese Entwicklung einbringen: Im Interesse des Landes, das – ohne einzelne Einrichtungen zu bevorzugen – sie insgesamt als Wissenschaftssystem zum Nutzen der Bürger finanziert. Dies liegt auch im Eigeninteresse der einzelnen Hochschulen, die im Wettbewerb untereinander und mit den Hochschulen anderer Wissenschaftslandschaften nur bestehen können, wenn sie diesen Wettbewerb im Rahmen akademischer Exzellenz führen können, ohne von infrastrukturellen Mängeln abgelenkt zu werden.
Die nächsten fünfzehn Jahre werden in der Informationstechnologie auf allen Ebenen von der Konvergenz noch getrennter Lösungen geprägt werden. Dies ändert die Rahmenbedingungen für optimale organisatorische Lösungen. Das jetzige Denken in Begriffen separater Einrichtungen, die für sich jeweils alle Probleme der Bereitstellung der Informationstechnologie lösen, sollte daher ersetzt werden durch die Konzeption einer gemeinsamen technischen Basisinfrastruktur, auf der die spezifischen Dienste einzelner Fachabteilungen aufsetzen.
Die gilt sowohl innerhalb der Hochschulen, bei denen die Trennung der IT-Systeme einzelner Abteilungen aufgehoben wird, als auch zwischen den Hochschulen, die durch die Kooperation bei technischen Diensten, die unterhalb einer bestimmten Kapazität nicht effektiv betrieben werden können, erheblich gewinnen.
Die Bereitstellung der Information durch das wissenschaftliche Bibliothekssystem bleibt vom Betrieb der technischen Infrastruktur, auf der diese Information bereitgestellt wird, sachlich getrennt. Auch hier gibt es jedoch viele Problembereiche, deren Lösung in der Kooperation mehrerer Hochschulen, oder der Hochschulen des Landes insgesamt, besser gelingt als in einzelnen Einrichtungen.
Zur Unterstützung dieser technischen Konvergenz innerhalb der Hochschulen einerseits, zur Verbesserung ihrer Möglichkeiten bei der Bereitstellung der für ihre Wettbewerbsfähigkeit benötigten Infrastrukturen zusammen zu arbeiten, werden konkrete Empfehlungen für wesentliche Bereiche der Informationsversorgung gemacht. Unter Verzicht auf Details der Umsetzung sind sie im Folgenden zusammengestellt.
Grundsätzlich:
(1.1) Wir empfehlen, das Konzept im Bereich der Informationsinfrastrukturen unabhängig nebeneinander stehender Hochschulen zu Gunsten eines Schichtenmodells aufzugeben. Manche Infrastrukturen und Dienstleistungen sollten in Zukunft landeseinheitlich betrieben werden. Bei der Mehrzahl wird die gemeinsame kooperative Bereitstellung für eine Gruppe einander sachlich oder räumlich nahestehender Hochschulen sinnvoll werden. Einige Infrastrukturen und Dienstleistungen sind weiterhin am sinnvollsten in den einzelnen Hochschulen zu erbringen. Der Übergang zwischen beiden Modellen wird die volle Länge des zu Grunde liegenden Zeitraums von fünfzehn Jahren beanspruchen. Dieser Prozess sollte daher nicht durch eine einmalige punktuelle Reform unterstützt werden, sondern durch die langfristige Überprüfung aller Fördermaßnahmen darauf, ob sie den Wandel in die gewünschte Richtung unterstützten.
(1.2) Wir empfehlen ferner, innerhalb der Hochschulen die übergangslose Integration der digitalen Angebote der einzelnen Einrichtungen zu einem Angebot der Hochschule insgesamt energisch voranzutreiben.
(1.3) Da wir die Hochschulen des Landes als ein integrales System für die Bürger des Landes verstehen, empfehlen wir jedoch auch dringend, die Integration weiter zu treiben und auf oberster Ebene einen Gesamtauftritt der wissenschaftlichen Einrichtungen des Landes zu realisieren, der insbesondere alle im weitesten Sinne bibliothekarischen Ressourcen, die vom Steuerzahler finanziert werden, zu einer integrierten Ressource zusammen fasst.
Für den Bereich der allgemeinen IT-Basisdienste:
(2.1) Fördermaßnahmen zur weiteren Entwicklung aller IT bezogenen Infrastrukturen an den Hochschulen sind an eindeutige Kriterien für die effektive und explizite IT-Governance an den Hochschulen zu binden. Nur wenn der Ausbau der IT-Infrastruktur als Problem der Hochschulleitung erkannt wird, sind Verbesserungen möglich.
(2.2) Fördermaßnahmen müssen die Konvergenz der IT-Infrastrukturen innerhalb der Hochschulen befördern; sie sollten in keinem Fall die Unterschiede zwischen einzelnen Sparten hochschulinterner Einrichtungen betonen.
(2.3) Die Kooperation der Hochschulen leidet derzeit darunter, dass die kooperative Nutzung von Ressourcen scheinbar durch die Unabhängigkeit der Hochschulen behindert wird. Es besteht der Eindruck, dass jede Zusammenarbeit, bei der es zum Austausch geldwerter Leistungen kommt, als rein kommerziell und daher marktoffen organisiert werden muss. Die Hochschulen sind jedoch weiterhin öffentlich-rechtliche Einrichtungen. Wir empfehlen die Verbesserung der Kooperation beim Betrieb gemeinsamer Infrastrukturkomponenten nach dem Modell kommunaler Zweckverbände.
(2.4) Die Ausnutzung der zusammengefassten Marktmacht der Hochschulen des Landes durch koordinierte Beschaffungen ist energisch voranzutreiben.
Im Bereich der Informationsbeschaffung:
(3.1) Die Aktivitäten bei der Informationsbereitstellung, die bisher auf Bibliotheken, Medienzentren, eLearning-Zentren und andere Einrichtungen verteilt sind, sind an den einzelnen Hochschulen zu einem integrierten Angebot zusammen zu fassen.
(3.2) Es ist stärker als bisher zwischen der technischen und der sozialen Komponente der Informationsbeschaffung und der Beratung bei der Benutzung bereit gestellter Ressourcen zu unterscheiden. Die technischen Komponenten eignen sich genauso zur kooperativen Bereitstellung im Rahmen sachlich oder räumlich naheliegender Einrichtungen, wie dies bei den technischen Basisdiensten der Fall ist.
(3.3) Für die landesweiten Komponenten der kooperativen Informationsbereitstellung existiert im HBZ (Hochschulbibliothekszentrum) eine offensichtliche Trägereinrichtung. In der gegenwärtigen Organisationsform ist es innerhalb eines Systems der Kooperation zwischen den Hochschulen jedoch ein Fremdkörper, wenn es von diesen nicht beeinflusst wird. Wir empfehlen daher die Überführung in eine Konstruktion im Sinne eines „Zweckverbandes“, der vom MIWF und den Hochschulen des Landes gemeinsam betrieben wird.
(3.4) Die jetzige Struktur des Verbundkataloges ist ineffektiv. Zur Verbesserung des jetzigen Zustandes und zur Vorbereitung der Umstellung auf zukunftsweisende technische Lösungen werden konkrete Fördermaßnahmen empfohlen. Diese betreffen vor allem die Bereinigung der Dubletten in den Verbunddaten einerseits, eine radikale Vereinfachung der Erschließungsinformationen andererseits.
Übergreifende Maßnahmen:
(4.1) Für die Bereiche Langzeitarchivierung, eLearning und Open Access werden, innerhalb der voranstehend beschriebenen Strukturen, konkrete Maßnahmen empfohlen.
Manfred Thaller
Die folgenden Empfehlungen beruhen auf einer Reihe von allgemeinen Prämissen über die effektive und zukunftssichere Gestaltung von großflächigen Informationssystemen und deren Beziehung zu den Hochschulen des Landes.
(1) Wir gehen davon aus, dass die Informationstechnologie in Zukunft noch wesentlich mehr als bisher eine der Grundvoraussetzungen für das Funktionieren gesellschaftlicher Teilsysteme sein wird. Dies bedeutet, dass nur hochverfügbare, verlässliche Informationssysteme und Infrastrukturen von den Bürgern benutzt werden; wird diese Verlässlichkeit für die Informationsinfrastrukturen der Hochschulen nicht sichergestellt, werden diese nicht als für die Informationsgesellschaft relevante Einrichtungen wahrgenommen werden.
(2) Wir gehen ferner davon aus, dass für die Informationstechnologie das Gleiche gilt wie für alle anderen netzartigen Infrastrukturen: Der Wettbewerb findet durch die effektive Nutzung des Netzes statt; das Netz selbst wird von der öffentlichen Hand zur kompetitiven Nutzung bereitgestellt. Für die Hochschulen bedeutet dies, dass ein Modell gefunden werden muss, bei dem sie die gewonnenen Freiheiten nicht verlieren, sie jedoch gleichzeitig beim Aufbau hochschulübergreifender Strukturen unterstützt werden und auf derartige übergreifende Strukturen zugreifen können.
(3) Dies lässt sich auch auf den Vorschlag verdichten, dass die Sicherstellung der Informationsversorgung der Hochschulen nicht als die Förderung zusammenhanglos nebeneinander stehender Einrichtungen verstanden wird, sondern als konsequenter Aufbau eines landesweiten Forschungs- und Bildungssytems, das größer ist als die Summe seiner Teile.
(4) Als wesentlichen Trend der nächsten fünfzehn Jahre identifizieren wir die technische Konvergenz. Dies führt zu zahlreichen Einzelempfehlungen, die die stärkere Integration von informationstechnischen Infrastrukturen aus bisher getrennt agierenden organisatorischen Einheiten der Hochschulen betreffen. Weiterhin führen diese zu zusätzlichen Empfehlungen, die die Kooperation und den gemeinsamen Betrieb von Infrastruktureinheiten mehrerer Hochschulen zum Inhalt haben.
(5) Unter der „Informationsversorgung der wissenschaftlichen Einrichtungen“ verstehen wir alle organisatorischen und operativen Herangehensweisen zur optimalen Nutzung der neuen Informationstechnologien im engen Zusammenspiel mit der Fortführung bisheriger Informationen beschaffender oder verwaltender Einrichtungen. Das sind nach unserem Verständnis:
Die Bibliotheken als informationsbeschaffende und -vermittelnde Einrichtungen, auf deren künftiger Rolle ein Schwergewicht dieser Darstellung ruht.
Die Rechenzentren als informationsverarbeitende Einrichtungen.
Alle organisatorischen Vorkehrungen, um diesen beiden Einrichtungen die Beschaffung der von ihnen benötigten Materialien, seien es Publikationen, sei es Hardware, effektiv ermöglichen sollen.
Alle Teilaspekten der Informationsversorgung oder -verarbeitung gewidmeten Einrichtungen, insbesondere die Medienzentren und eLearning-Zentren.
Der Frage der Einbindung dieser Einrichtungen in die Gesamtstruktur der Hochschule, also auch deren Verwaltungssystemen.
Der Frage der optimalen Unterstützung dieser Strukturen durch eine gezielte Landespolitik der wissenschaftlichen Informationsversorgung.
(6) Innerhalb dieser Gesamtmenge von Informationseinrichtungen unterscheiden wir nicht nach den derzeitigen organisatorischen Trägern; im Gegenteil gehen wir davon aus, dass viele organisatorische Trennungen ältere technische Entwicklungsstände widerspiegeln. Wir unterscheiden aber sehr stark zwischen der allgemeinen inhaltsagnostischen technischen Infrastruktur und der Bereitstellung und Verarbeitung der Information. Als saloppes Beispiel: Eine Verschmelzung der Serverlandschaften von Bibliotheken, Rechenzentren und Verwaltungen zu einer effizienten technischen Infrastruktur scheint uns mittelfristig unverzichtbar. Den Betrieb einer Bibliothek unter der Ägide des technischen Leiters des universitären Serverparks halten wir für genauso unsinnig, wie den Betrieb des Serverparks unter bibliothekarischen Gesichtspunkten.
(7) Ähnlich unterscheiden wir stark zwischen infrastrukturellen Leistungen, die die direkte Kommunikation mit den universitären Benutzern – Lehrende, Forschende, Studierende, Verwaltende – voraussetzen und solchen, die dies nicht tun. Ein Callcenter für die bibliothekarische Beratung wäre ein Unding; das gemeinsame Hosten bibliothekarischer Inhalte für mehrere Institutionen in einem gemeinsamen technischen Zentrum ist es nicht.
(8) Eine Strategie ohne Ziele ist eine Chimäre; nur wenn klar ist, was erreicht werden soll, kann diskutiert werden, wie dies am besten geschieht. In dieser Studie haben wir daher bewusst beschrieben, wie unseres Erachtens das Ergebnis eines fünfzehnjährigen Entwicklungsprozesses aussehen sollte. Dass auf dem Wege dahin viele Übergangsformen und Kompromisse nötig sein werden, ist offensichtlich. Sie vorwegnehmend beschreiben zu wollen, hätte für eine Studie der vorliegenden Art nur von der Darstellung des Zieles abgelenkt.
Die folgenden Seiten beschreiben unsere Annahmen zu den technischen Entwicklungen der nächsten fünfzehn Jahre und geben Empfehlungen, wie konsistent auf sie reagiert werden sollte. Diese Empfehlungen bauen auf den voranstehenden Prämissen auf; sie richten sich an den mit Hochschulinformationssystemen vertrauten Leser und gehen unmittelbar auf Detailprobleme ein. Eine verkürzte Darstellung des fachlichen Leitbildes, das aus diesen Prämissen abgeleitet wurde und der zu Grunde gelegten Szenarien findet sich im Abschnitt 2.5. unten.
Die folgende Studie untersucht Trends bis zum Jahre 2025. Sie tut dies nicht, weil dies ein rundes Jahr wäre: Vielmehr spiegelt die Wahl des Zeitraumes die Überzeugung wider, dass fünfzehn Jahre jener Bereich sind, innerhalb dessen informationstechnische Voraussagen mit einiger Sicherheit gemacht werden können. Oder, genauer gesagt: Voraussagen über informationstechnische Entwicklungen, die bis zu einem Stadium der Reife gediehen sind, dass die alltäglichen Abläufe der Informationsversorgung in den Hochschulen praktisch beeinflusst.
Dies fußt auf zwei Annahmen:
Wir gehen davon aus, dass die Zeitspanne zwischen der ersten Funktionsfähigkeit einer neuen Technologie unter Laborbedingungen und einer praktischen Durchsetzung dieser Technologie in der Allgemeinheit circa fünfzehn Jahre beträgt. (Wir verweisen darauf, dass der „Alto“ von Xerox im Jahre 1972 konzeptualisiert wurde, der erste kommerziell partiell erfolgreiche PC, der dessen Prinzipien umsetzte, der AppleMacintosh erst 1984 erschien – und in der für den alltäglichen Betrieb damals wesentlich wichtigeren Microsoft Welt die erste Windows Version, die mit einiger Berechtigung von sich sagen kann, die Palo-Alto-Prinzipien umzusetzen (Windows 3.0), erst im Jahre 1990 freigegeben wurde.)
Wir gehen ferner davon aus, dass ein technisches Konzept, das in Anspruch nimmt, auf existierenden technologischen Plattformen realisiert werden zu können, sich entweder innerhalb von zehn Jahren flächendeckend durchsetzt, oder auf Dauer Nischencharakter behält. (Wir verweisen auf die Geschichte der Expertensysteme.)
Beide Annahmen sind nicht trennscharf genug, um Voraussagen über technische Details zu machen: Ob Userinterfaces des Jahres 2025 überwiegend auf Touchscreens abgestimmt sind, ob u.U. sogar die Tastatur als konfigurierbarer Teil eines Touchscreens realisiert wird und dadurch die Rahmenbedingungen für das Design von Interfaces radikal verändert werden, ist nicht vorhersagbar.
Allerdings halten wir dies für weniger relevant, als die uns eindeutig erscheinende Vorhersage, dass etwa die Texteingabe weiterhin wesentlich tastaturbestimmt sein wird und weder von der Stimmeingabe, noch von handschriftlicher Styluseingabe abgelöst werden wird. Beide letztere Varianten sind seit zehn Jahren prinzipiell verwendbar, zeigen nach dem zweiten oben angegebenen Kriterium jedoch keine Tendenzen, die bestehenden Eingabeformen flächendeckend zu verdrängen.
Die genannten Annahmen scheinen uns manche Szenarien, die in der Tat das Potential hätten, die Informationsversorgung wirklich radikal neu zu gestalten, auszuschließen. Derartige Szenarien, die wir explizit nicht berücksichtigen, sind insbesondere die folgenden:
Direct mind interfaces, also Interfaces, die die Steuerung von Rechnern durch Gedanken zulassen, sind noch in einem so frühen Stadium der Entwicklung, dass wir sie für die nächsten fünfzehn Jahre ignorieren.
3D Technologien werden in den nächsten fünfzehn Jahren eine erhebliche, um Größenordnungen wichtigere Rolle spielen. Wir sehen sie jedoch als eine einfache lineare Fortschreibung des Trends zu einer größeren Wichtigkeit nichttextueller Medien. Wir sehen weder GUIs, die echte inhaltliche Fortschritte der Informationsdarstellung auf der relativ beschränkten Oberfläche von 2D Medien erlauben würden, noch echte 3D Interfaces, durch die räumliche, etwa holographische Projektion raumfüllender Interfaces, als derzeit berücksichtigenswerte Trends an.
Sehr signifikante Wandlungen in den langfristig aufzubauenden Strukturen zur Informationsversorgung könnten von genuin langlebigen Speichermedien mit hoher Kapazität ausgehen (Dies bedeutet: mindestens 100 Jahre garantierter Haltbarkeit, bei mindestens 10 TB Kapazität zum Kaufkraftäquivalent des Preises einer derzeitigen CD-ROM / DVD-ROM professioneller Qualität.) Eine derartige Technologie würde einen erheblichen Einfluss auf die zur langfristigen Informationsversorgung notwendigen technischen Strukturen ausüben und Teile der im Folgenden beschriebenen Trends konterkarieren. Wir stellen jedoch nicht nur fest, dass bisher alle Versuche in diese Richtung weisende Speichermedien, vornehmlich holographisch orientiert, fehlgeschlagen sind, sondern zudem alle Medien, die in die Nähe der Marktreife kamen, so konzipiert waren, dass noch einige Jahre mit zunehmend höheren Informationsdichten gearbeitet werden sollte, was dem Gedanken eines langfristig gleichbleibend verfügbaren Mediums eben gerade nicht entspricht.
Unter Ausschluss der genannten Szenarien halten wir die folgenden technischen Trends für die nächsten fünfzehn Jahre für prägend.
Auf den ersten Blick scheinen die Entwicklungen der letzten fünf Jahre eher eine Tendenz zur Diversifizierung anzudeuten.
Im Jahre 2005 gab es de facto nur zwei Betriebssysteme: Eines, das keine klare Trennung zwischen Systemkern und Userinterface hat (Windows) und eines, das diese klare Trennung aufwies (Unix) – auch wenn in einem Fall die Unterschiede in der Ausgestaltung des Interfaces (Apple seit Mac OS X) so gravierend sind, dass es als drittes Betriebssystem wahrgenommen wird. In den letzten Jahren entstanden aus der Notwendigkeit verschiedene mobile Devices zu unterstützen wieder deutlich voneinander abweichende Betriebssysteme.
Im Jahre 2005 gab es de facto nur mehr eine Grundform des Endgerätes: Verschiedene Laptops, Desktops oder Laptops und Desktops als Frontends für Rechnerkonfigurationen höherer und hoher Leistung stellten eine einheitliche Metapher des Zugangs zu Rechnerressourcen bereit. Auch hier haben die mobilen Devices erstmals wieder eine deutliche Diversifizierung eingeleitet.
Im Jahre 2005 schien schließlich, völlig unabhängig von den mobilen Devices, die Entwicklung praxisrelevanter Programmiersprachen abgeschlossen – unter anderem dadurch, dass die zunehmende Rechenleistung den Performanz-Nachteil von Scriptsprachen verwischte. Seitdem zeichnet sich wieder eine stärkere Diversifizierung der Sprachen ab.
Diese Diversifizierung einzelner Aspekte der technologischen Landschaft steht der Herausbildung einer voll integrierten konvergenten Informationslandschaft jedoch keineswegs im Wege. Dies wird dadurch erzwungen, dass zum Unterschied etwa zum Jahre 1995 mittlerweile zahlreiche Dienste existieren, die als genuin und zentral alltagsrelevant gelten und deren nicht-Erreichbarkeit – etwa auf einer neuen Endgeräteklasse – deren Erfolg in Frage stellt.
Dieses Prinzip sei an einem fiktiven Beispiel näher beschrieben:
Es ist klar, dass im Jahre 2025 erwartet werden wird, dass auch während Flugreisen ständiger Kontakt zu den gewohnten Informationsdienstleistungen gewährleistest ist. Im Folgenden sei aufgezeigt, dass diese Erwartung – die Erwartung nach der ständigen Verfügbarkeit informationstechnischer Leistungen, unabhängig von der dafür eingesetzten Technologie – innerhalb von mindestens drei Szenarien möglich ist, die derzeit bestehende technische Trends in unterschiedlicher Weise fortschreiben.
Beobachtend, dass Desktops, Laptops und mobile Geräte sich durch die intermediäre Klasse von Tablets zuletzt wieder ein wenig annähern, besteht ein radikales Szenario in der Annahme, dass die Entwicklung biegsamer Displays in den nächsten fünfzehn Jahren solche Fortschritte macht, dass sie sich zu falt- und ggf. auch knautschbaren flachen Objekten weiter entwickeln. Ein derartiges Gerät könnte mit einem handgroßen Prozessor verbunden werden und auf einem Teil ihrer Oberfläche via Touchscreen eine Tastatur emulieren. Auch könnte es übergangslos zwischen Wohnung und Büro auch in den dazwischen benutzten Verkehrsmitteln verwendet werden.
Beobachtend, dass informationstechnische Komponenten und mobile Endgeräte insgesamt radikal billiger werden, besteht ein anderes radikales Szenario in der Annahme, dass die Umwelt in den nächsten Jahren immer stärker mit auf den lokalen Einsatzort optimierten Benutzeroberflächen durchsetzt wird. Diese Benutzeroberflächen könnten jeweils mit der persönlichen Datenhaltung auf einem anderswo lokalisierten Rechner verbunden werden. Gehen wir von einer heimischen Medienkonsole, einem heutigen Endgeräten noch recht nahen Büroarbeitsplatz und einem als Touchscreen ausgestalteten ausklappbaren Esstischchen im Flugzeug aus, haben wir die gleiche übergangslose Nutzung von Informationsdiensten zwischen Wohnung und Büro, sowie den dazwischen liegenden Verkehrsmitteln, wie in Szenario 1 vor uns. Diese Nutzung findet aber auf der Basis einer im Detail völlig anderen technischen Entwicklung statt.
Beide bisher genannten Szenarien sind Extreme: Zahllose Zwischenformen existieren. Verwiesen sei etwa auf die Möglichkeit, die Datenhaltung gerätetechnisch noch wesentlich stärker von deren Verarbeitung zu trennen wie heute, sodass etwa ein USB-Nachfolge-Speichergerät mit unterschiedlichen informationsverarbeitenden Geräten zu Hause, im Verkehrsmittel und im Büro verbunden werden könnte.
Allen genannten Szenarien ist allerdings gemeinsam, dass sie eine Interoperabilität von Informationsdiensten und -objekten voraussetzen, die wesentlich über der heutigen liegt. Hierin, nicht in der Frage, wie ein bestimmtes Kommunikationsprotokoll bedient werden kann, liegt die große Herausforderung für die weitere Entwicklung der Informationsversorgung im Allgemeinen und der der Hochschulen im Besonderen.
Diesen Entwicklungen gerecht zu werden, setzt erhebliche intellektuelle und finanzielle Investitionen voraus. Wir vermuten, dass sie in Zukunft als „mobile revolution“ oder Ähnliches bezeichnet werden wird, da sie letzten Endes darauf zurückzuführen ist, dass die Differenz zwischen hochmobilen (Smartphones), teilmobilen (Laptops) und stationären (PCs) Endgeräten verschwindet.
Sie als „Revolution“ zu bezeichnen scheint uns allerdings nur aus der Sicht eines auf Aufmerksamkeit bedachten karrierebewussten Medientheoretikers sinnvoll: Aus der Gesamtsicht der Entwicklung der Informationstechnologie der letzten 40 Jahre betrachtet, ist sie schlicht der nächste logische Schritt in einer organischen, iterativen Entwicklung ubiquitärer Informationsstrukturen. Die Ergebnisse und Verläufe des ersten dieser Schritte – die „PC Revolution“ – und des zweiten – „die Internetrevolution“ – scheinen uns daher eine solide Basis für die Beurteilung der weiteren Entwicklung.
Zusammenfassende These: Es ist nicht mit grundsätzlich neuen Formen der Informationsbereitstellung zu rechnen. Information, die nicht so bereit gestellt wird, dass sie auf allen Plattformen verfügbar ist, wird als amateurhaft und unzuverlässig gelten.
Die Bereitstellung von „Rechenleistung“ – sei es als Prozessorleistung, sei es als Speicherkapazität – erfolgt zunehmend unabhängig von ihrer Inanspruchnahme. Dieser Trend ist offensichtlich und schlägt sich einerseits in der Virtualisierung von Serverleistung an den einzelnen Hochschulen, in hoher Aufmerksamkeit für die großflächige Verfügbarkeit von überörtlichen Ressourcen („Grid“, „Cloud“) wider.
Hier scheint uns der Blick auf die längerfristige Bedeutung dieser Trends jedoch ein wenig durch deren kurzfristige Erscheinungsformen getrübt. Dies gilt insbesondere für die Diskussion um das Paradigma des „Cloud Computing“. Auch wenn das National Institute of Standards and Technology selbst davor warnt, dass die Definition des Konzepts sich noch weiter entwickle, ist seine Definition derzeit wohl die Seriöseste:
„Cloud computing is a model for enabling convenient, on-demand network access to a shared pool of configurable computing resources (e.g., networks, servers, storage, applications, and services) that can be rapidly provisioned and released with minimal management effort or service provider interaction.“2
Laut dieser Erklärung liegt das Schwergewicht der Definition auf der Art und Weise, wie ein wohldefinierter Pool von Diensten verfügbar gemacht wird. Dagegen wird in der – durchaus auch in Informationseinrichtungen verbreiteten – popularisierten Form darunter häufig das Prinzip verstanden, dass informationstechnische Ressourcen von einem Anbieter bezogen würden, dessen technische Struktur nicht nur für den Endabnehmer, sondern auch für dessen Institution nicht transparent sind – woraufhin meist ein Verweis auf Amazon, Microsoft oder andere kommerzielle Anbieter erfolgt, häufig gekoppelt mit der Aussage, dass informationstechnische Leistung in Zukunft genauso anonym bezogen werden würde, wie Elektrizität heute. Dies scheint uns eine unsinnige Vermischung von Konzepten.
Die häufig bemühte Analogie zur Elektrizität wirkt nur auf den ersten Blick überzeugend: Schließlich wird Elektrizität vom Anbieter bereitgestellt und vom Kunden verbraucht, Information dagegen vom Kunden bereitgestellt und vom Anbieter verarbeitet, wonach sie oft bei ihm verbleibt – wenn die „Verarbeitung“ nicht ohnehin schon in ihrer Speicherung besteht. Der Anbieter von Rechenleistung hat also eine Verfügungsmöglichkeit über Eigentum des Kunden, die ein Anbieter von Elektrizität nie haben kann. (Ganz abgesehen davon, dass wir uns ja gerade dabei befinden, die zentrale Erzeugung von Elektrizität wieder durch eine weniger zentrale zu ersetzen.)
Vor allem aber wird übersehen, dass die durch die Namensgebung „Cloud“ implizierte strukturelle Transparenz des Informationssystems nur für den Abnehmer, nicht für den Anbieter gilt. Die suggerierte „weltweite Cloud“, in der die Information „irgendwo“ gespeichert wird, beschreibt günstigenfalls die Ansicht des Endkunden, der in der Tat nicht weiß, auf welchem Kontinent seine Daten gespeichert werden. Für den Anbieter dieser Leistung ist dies hingegen vollkommen klar und nachverfolgbar. Ohne der Versuchung erliegen zu wollen, hier durch scherzhaft anmutende Beispiele den seriösen Bereich zu verlassen: Es dürfte klar sein, dass die Bundeswehr derzeit kein Interesse daran hat, ihre Daten „in der Cloud“ zu speichern, wenn dies bedeuten kann, dass sie sich letzten Endes in Pakistan befinden.
Die Informationen der Hochschulen mögen weniger sensibel sein; bedenkt man, welch enormer Widerstand gegen das Prinzip des Open Access auf Grund von alten Copyright-Regelungen geleistet wird und wie viele durchaus sinnvolle Informationsdienstleistungen durch Datenschutzregelungen verhindert werden, ist es schwer vorstellbar, dass Hochschulen die Kontrolle über die von ihnen verwendeten und generierten Informationen so völlig abgeben.
Wir gehen in der folgenden Studie daher von folgenden Annahmen aus:
Die Cloud-Technologien bilden eine hervorragende Plattform für die Bildung institutionsübergreifender IT-Infrastrukturen. Als solche bilden sie und ihre Weiterentwicklungen das Rückgrat der Informationsinfrastruktur der Hochschulen des Landes im Jahre 2025.
Diese Infrastrukturen gehen jedoch nicht in einer „anonymen Cloud“ nach der populären Verzerrung des technischen Konzepts auf, sondern bilden eine Infrastruktur, die nach wie vor von den Hochschulen kontrolliert und in Abgrenzung zu anderen Domänen der Informationsversorgung betrieben wird.
Während wir also davon ausgehen, dass die informationstechnischen Infrastrukturen der Hochschulen in deutlicher Abgrenzung zu sonstigen gesellschaftlich genutzten Informationsinfrastrukturen weiter bestehen werden, weisen wir allerdings darauf hin, dass die zunehmende Bildung weit gespannter und dadurch robusterer und ausfallssicherer Informationsinfrastrukturen sehr wohl eine gravierende Konsequenz für den weiteren Betrieb auch hochschuleigener Informationsinfrastrukturen haben wird.
Um bei der häufig verwendeten, wenn auch irreführenden Metapher der Elektrizitätsversorgung zu bleiben: Mehrstündige Stromausfälle in einer Hochschule würden heute den Hochschulbetrieb de facto weitestgehend lahm legen. Abgesehen von Lehrräumen ohne Tageslicht gibt es viele andere Aspekte des normalen Betriebs, die ohne funktionierende Stromversorgung nicht möglich wären. Ein mehrstündiger – auch unangekündigter Ausfall von zentral verwalteten IT-Leistungen – gilt jedoch nach wie vor als normal. Es gibt immer noch Hochschulbibliotheken, die es bei Arbeiten während des Wochenendes als normal ansehen, dass ihre Homepage anderthalb Tage nicht erreichbar ist. Dies entspricht durchaus einer gesamtgesellschaftlichen Situation:
Mehrstündige Stromausfälle, von denen einige tausend Bürger betroffen sind, haben einen Neuigkeitswert, der meist bis in die Tagesschau reicht. Der Ausfall von Informationsinfrastrukturen bleibt dagegen kaum kommentiert – es sei denn, er betrifft Dienste, die jetzt schon von der Allgemeinheit als funktionierend vorausgesetzt werden, wie etwa Google oder Amazon.
Wenn wir nach dem bisherigen jedoch davon ausgehen, dass es insgesamt zur Herausbildung auf der Cloud-Technologie basierender Informationsinfrastrukturen kommt, deren Ausfallssicherheit durch diese Technologien erheblich zunimmt, ist davon auszugehen, dass das vorübergehende Nichtfunktionieren von Informationsinfrastrukturen in naher Zukunft als ebenso nicht tolerierbar gilt, als heute das Nichtfunktionieren der Elektrizitätsversorgung.
Zusammenfassende These: Dies bedeutet in weiterer Folge, dass Informationsdienstleistungen, die nicht hochverfügbar sind, in Zukunft als strukturell defizient und de facto nicht verwendungsfähig angesehen werden. Information, die nach heutigen Maßstäben nicht hochverfügbar ist, wird in Zukunft als nicht verfügbar gelten.
Fragt man heute nach der Bedeutung digitaler Angebote im Bereich wissenschaftlicher Publikationen, wird stets darauf verwiesen, dass dies stark von der Disziplin abhänge. Dabei wird meist prognostiziert, dass es in den jetzt weniger technologie-affinen Fächern, insbesondere den Geisteswissenschaften noch lange dauern werde, bis die Bereitstellung von Information in digitalen Zeitschriften und insbesondere Medien herausragende Bedeutung gewinnen werde.
Dass die digitalen Informationsmedien in den Natur- und Ingenieurwissenschaften, bei denen ältere Zeitschriften und Nachschlagewerke sehr rasch obsolet werden, schon sehr fortgeschritten ist, ist unübersehbar. Bei den dieser Studie u.a. zu Grunde liegenden Besuchen ausländischer Bibliotheken fiel auf, dass beispielsweise in der Bibliothek der technischen Universität Dänemarks3 Printmedien de facto verschwunden sind.
Diese in der hochschulinternen Diskussion vorgenommene Kontrastierung zwischen den Naturwissenschaften einer- und den Geisteswissenschaften andererseits, übersieht unseres Erachtens nach jedoch eine ganze Reihe von Trends, oder bewertet sie systematisch unter.
Beim Besuch gerade international bekannter öffentlicher Bibliotheken, auch und besonders des Auslandes, fällt auf, dass dort die digitalen Angebote für die Öffentlichkeit mittlerweile sehr viel stärker wahrgenommen werden, als die Printmedien. Das typische Bild einer öffentlichen Bibliothek des Auslandes zeigt eng besetzte Bildschirmarbeitsplätze und Bücherregale, zwischen denen Leere herrscht. Dies hat unzweifelhaft damit zu tun, dass nach unserem Eindruck die öffentlichen Bibliotheken des Auslandes mittlerweile in sehr hohem Maße eher als soziale Einrichtungen, denn als Bibliotheken im bisherigen Sinne wahrgenommen werden (Vgl. Kapitel 6 und 12) es zeigt aber doch auch, dass die digitale Vermittlung von Information auch im privaten Bereich, bei dem die rasche Vermittlung keineswegs den Stellenwert hat, wie in den Naturwissenschaften, mittlerweile mindestens genauso wichtig ist, wie die über Printmedien – und in manchen Ländern diese überholt zu haben scheint.
Ferner ist darauf hinzuweisen, dass die Initiative von Google zur systematischen Digitalisierung älterer Literatur mittlerweile ein Ausmaß erreicht hat, das nicht mehr vernachlässigt werden kann. Bei Hochrechnung der derzeitigen Trends, die sich auf Bibliotheken stützten, die zwischen sich nahezu die gesamte gedruckte Überlieferung abdecken, ist es unzweifelhaft, dass die Printmedien vor 1900 bis zum Jahre 2020 vollständig in digitalisierter Form vorliegen werden, abzüglich von Inselbeständen, bei denen betreuende Fachbibliothekare im Interesse der Erhaltung der eigenen Funktion die Digitalisierung verhindern werden. Es ist relativ schwer vorstellbar, dass der Widerstand der Verlage angesichts dieser Situation die Digitalisierung der Bestände zwischen 1900 und heute auf Dauer verhindern kann. Wofür es deutliche Anzeichen gibt: Der Verlag de Gruyter ist nachhaltig in die Bereitstellung von eBooks eingestiegen.4 Wichtiger aber noch, der Verlag stellt in Eigeninitiative das gesamte Verlagsprogramm rückwirkend in digitalisierter Form zur Verfügung:
„De Gruyter macht mehr als 50.000 hochwertige Titel aus über 260 Jahren Verlagsgeschichte verfügbar. Die Titel sind sowohl elektronisch (nur für Bibliotheken und Institutionen) als auch als Hardcover Reprint erhältlich. Falls eine Retrodigitalisierung notwendig ist, ist der gewünschte Titel in maximal 10 Wochen lieferbar“.5
Dies scheint uns vor allem deshalb signifikant, da de Gruyter zweifellos einer der Verlage ist, der von der öffentlichen Mehrfachsubventionierung hochwertiger geisteswissenschaftlicher Literatur in der Bundesrepublik mit am meisten profitiert hat. (Also dem System aus Steuermitteln erstellte wissenschaftliche Ergebnisse mit aus Steuermitteln stammenden Druckkostenzuschüssen zu publizieren, um die entstehenden ungemein hochpreisigen Publikationen anschließend ganz überwiegend durch aus Steuermitteln getragene wissenschaftliche Bibliotheken erwerben zu lassen.) Dass selbst hier die Bedeutung der digitalen Bereitstellung erkannt wird, halten wir für eines der wichtigsten Anzeichen der letzten Jahre für die Durchsetzung der digitalen Bereitstellung von Publikationen.
Schließlich ist unübersehbar, dass in den letzten beiden Jahren die Bereitstellung von eBooks auf dedizierten Lesegeräten in erheblichem Maße zugenommen hat. Obwohl diese Geräte nach wie vor offensichtliche Schwächen haben, scheint ihre Verwendung deutlich zuzunehmen (Verkaufszahlen potentieller Statussymbole scheinen uns im derzeitigen Stadium dieser Technologie weniger wichtig).
Trotzdem erscheint uns die Technologie der dedizierten eBook-Lesegeräte an sich nur ein – und keinesfalls der wichtigste – Aspekt des allgemeinen Trends. Ihrer Natur nach höchst allgemeine Geräte – deren Markt dem für PCs oder Videoplayer entspricht – werden fast mit Sicherheit nur als unterschiedliche Realisierungen einer gemeinsamen Basistechnologie ihr Potential ausschöpfen können. Die derzeitige Phase miteinander konkurrierender Plattformen für wechselseitig inkompatible eBook-Formate entspricht offensichtlich der Phase der zweiten Hälfte der 1980er Jahre bei der Etablierung von Standards für die Arbeitsplatzrechner. Eine Marktbereinigung steht also noch bevor.
Diese Technologie steht aber auch deshalb nicht im Zentrum unserer Überlegungen, weil unserem Erachten nach sehr scharf zwischen dem bevorzugten Medium für die Informationsbereitstellung und dem für die Informationsaufnahme zu unterscheiden ist.
Die Digitalisierung der Texte ist ein wichtiger Faktor für die weitere Entwicklung der Vertriebswege von Textpublikationen – und die Aussicht, bei einer Reise in einem einige hundert Gramm schweren Medium den Inhalt von einigen hundert für das augenblickliche Forschungsprojekt relevanten wissenschaftlichen Texte mit sich zu führen, hat offensichtlich das Potential den wissenschaftlichen Arbeitsprozess ebenso stark zu beeinflussen, wie die ständige Verbindung des mitgeführten Laptops mit den Internet. Nichtsdestoweniger haben wir erhebliche Zweifel, wieweit papiergebundene Information in den nächsten fünfzehn Jahren durch nicht-papiergebundene bei der Verwendung durch Benutzer oder Benutzerin vollständig ersetzt werden kann.
Der Grund dafür liegt in der Konfiguration typischer Arbeitsplätze. Beim Verfassen wissenschaftlicher Arbeiten sind Verfasser oder Verfasserin üblicherweise von einer Vielzahl von Texten umgeben. Der Arbeitsplatzrechner, in dem der eigene Text geschrieben wird, steht dabei meist in der Mitte und ist von mehr oder minder zahlreichen sekundären Texten umgeben, aus denen die verwendeten Informationen übernommen werden, etwa folgendermaßen:
Abbildung 1: Blickachsen zwischen einzelnen Informationsträgern
Das bedeutet, dass die sekundären Materialien, aus denen die Informationen entnommen werden, die in das neu zu produzierende Dokument integriert werden, im Idealfall so ausgerichtet werden, dass die Dokumente jeweils parallel zur Blickrichtung des Arbeitenden liegen (der seinen Kopf, ohne die Körperposition zu ändern, dem jeweils benötigten Stück zuwendet). Im Idealfall: Dass viele Dokumente nicht in der Idealposition liegen können, weil man versuchen muss, sie so zu arrangieren, dass eine Vielzahl davon gleichzeitig möglichst vollständig aufgedeckt ist, trifft zu; dass es eine Reihe von Disziplinen gibt, bei denen Informationen direkt am Bildschirm integriert werden müssen, weil sie schlecht oder gar nicht ausdruckbar sind (z.B. Simulationen von Prozessen, von denen für naturwissenschaftliche Studien Zahlenwerte abgelesen werden, oder Proto-Datenbanken, die in manchen geisteswissenschaftlichen Disziplinen den Zettelkasten ersetzt haben), ebenfalls.
Grundsätzlich stellt dieses Szenario dem Versuch, Informationen ausschließlich aus nicht-papiergebundenen Medien für die eigene Arbeit abzulesen, aber ein zweistufiges Hindernis entgegen.
Einerseits besteht der große Vorzug der derzeitigen Generation der Lesegeräte darin, dass es möglich ist, viele, ja sehr viele, Bücher mittels eines Displays mit sich führen zu können. Der Versuch, diese Texte gleichzeitig im Blick zu behalten würde jedoch erfordern, dass eine größere Anzahl derartiger Geräte parallel im Einsatz wäre – was zumindest kurzfristig weniger wahrscheinlich ist. Langfristig wird sich dies wohl dadurch lösen, dass der Arbeitsplatz der Zukunft zur Gänze mit einer hochauflösenden Präsentationsoberfläche bedeckt ist, auf der die relevanten Seiten dann mit einer an das jetzige iPhone angelehnten Verschiebelogik „übereinander“ oder nebeneinander positioniert werden können. Dies erwarten wir aber frühestens zum Ende der hier diskutierten Planungsperiode: Wie aus dem oben stehenden Blickachsenargument ablesbar, wäre es dazu notwendig, die Seiten stufenlos rotieren zu können. Zumindest bei Rasterbildern führt aber jede nicht orthogonale Rotation zu einer sofortigen Verschlechterung der Bildqualität, wegen der Notwendigkeit zusätzliche Bildpunkte zu interpolieren, was erst bei einem Umstieg auf sehr deutlich höhere Auflösungen nicht mehr bemerkbar ist. Dass die Endgeräte gleichzeitig eine massive Zunahme der Größe der Projektionsfläche und eine massive Erhöhung der Auflösung erleben werden, ist für uns derzeit nicht erkennbar.
Wir weisen allerdings darauf hin, dass diese Frage für die weitere Entwicklung der Informationsversorgung relativ wenig Relevanz hat: Entscheidend ist nicht, ob die jetzt in gedruckten Publikationen beim Endverbraucher ankommende Information gedruckt oder bei ihm auf dem Bildschirm dargestellt wird. Tendenzen hin zur immer stärkeren Verschmelzung von Druck- und Kopierausstattung machen es sehr wahrscheinlich, dass die Kosten des Ausdrucks auch großer Textmengen, bis hin zur dezentralen Erstellung gebundener Texte als Print-on-Demand, nochmals deutlich abnehmen werden. Ob die Information auf Papier oder am Bildschirm konsumiert wird, sollte dem Endnutzer überlassen bleiben: Aufgabe der Informationsversorgung – und damit alleinig relevant für deren Planung – ist, dafür zu sorgen, dass sie bei ihm ankommt. Und dass dies noch in wesentlich höherem Maße als heute digital geschehen wird, ist eindeutig absehbar.
Ein interessantes Ergebnis der Interviews mit Informationseinrichtungen in der ersten Phase dieser Studie ist der – allerdings bei unstrukturierten, freien Interviews nicht quantitativ präzise festmachbare – Eindruck, dass auf die Frage, welche Bedeutung Print- vs. Nonprint-Medien im Jahre 2025 nach Ansicht der Interviewpartner haben würden, Personen die diese Entwicklung mit Unruhe oder negativ zu bewerten schienen, tendenziell einen höheren Nonprint-Anteil annahmen, als Personen die dieser Entwicklung eher positiv gegenüberstanden.
Unseres Erachtens besteht die primäre Aufgabe der bibliothekarischen Komponenten der Informationsversorgung der Hochschulen im Jahre 2025 also in der Bereitstellung digital transportierter Informationsobjekte.
Einwände von Seiten hierarchisch hochstehender Angehöriger der Universitäten, die die Bedeutung der Haptik des Mediums für seine Rezeption und Interpretation betonen, sollten nicht ernst genommen werden: Sie beruhen üblicherweise auf Arbeitssituationen, wo die Informationsversorgung de facto durch studentische Hilfskräfte durchgeführt wird, ein direkter Kontakt mit dem praktischen Ablauf der Informationsversorgung also nur bedingt gegeben ist. Insoweit erinnert die Diskussion frappierend an die Debatten der 1980er Jahre über den Wert der Textverarbeitung in der Wissenschaft, bei dem die retardierenden Argumente – auf intellektuell durchaus hohem Niveau – üblicherweise von hierarchisch hochstehenden Angehörigen der Universitäten vorgebracht wurden, bei denen druckreife Typoskripte in frühen Karrierephasen durch Ehefrauen und in späteren durch Sekretariate angefertigt wurden.
Zusammenfassende These: Während auch das Büro des Jahres 2025 nicht papierlos sein wird, wird die auf dem Papier stehende Information nahezu ausschließlich digital in das Büro transportiert. Einrichtungen, die die Informationsbereitstellung an einem von einem anderen Präsentationsmedium abgeleiteten Paradigma ausrichten werden als liebenswerte, aber nicht alltagstaugliche, Relikte wahrgenommen.
Von allen technischen Trends am schwierigsten abzuschätzen scheint uns die weitere Entwicklung des Semantic Web.
Einerseits sind die Argumente für die semantischen Technologien offensichtlich; nicht ohne Grund hat die Vision6 von Tim Berners-Lee, James Hendler and Ora Lassila berechtigten Einfluss entwickelt. Andererseits ist diese Vision mittlerweile zehn Jahre alt und es ist äußerst mühsam festzustellen, welche reale Bedeutung sie tatsächlich hat. Im Vergleich dazu: Das Konzept des WWW wurde von Tim Berners-Lee 19897 vorgelegt – und zehn Jahre später war es zwar wesentlich weniger entwickelt als heute, aber offensichtlich Realität und dabei rasend schnell immer wichtiger zu werden. In einer Antwort auf die Frage nach der realen Bedeutung des Semantic Web wird im Scientific American, der 2001 den üblicherweise als Startpunkt der öffentlichen Diskussion zitierten Aufsatz veröffentlichte, 2007 in einer Darstellung, die als so zentral galt, dass sie 2009 wieder veröffentlicht wurde, festgehalten:
„Perhaps the most visible examples, though limited in scope, are the tagging systems that have flourished on the Web. These systems include del.icio.us, Digg and the DOI system used by publishers, as well as the sets of custom tags available on social sites such as MySpace and Flickr. In these schemes, people select common terms to describe information they find or post on certain Web sites. Those efforts, in turn, enable Web programs and browsers to find and crudely understand the tagged information—such as finding all Flickr photographs of sunrises and sunsets taken along the coast of the Pacific Ocean. Yet the tags within one system do not work on the other, even when the same term, such as „expensive,” is used. As a result, these systems cannot scale up to analyze all the information on the Web.“8
Das ist vor allem deshalb interessant, weil Systeme wie del.icio.us, MySpace und Flickr mittlerweile als typische Web 2.0 Anwendungen gesehen werden – und das Web 2.0 beschreibt eben jene Entwicklungen, die das WWW zwischen 2001 und 2011 tatsächlich genommen hat, nicht die, die von der Vision des Semantic Web vorgesehen waren. Es ist aber auch deshalb interessant, weil diese Tagging Systeme – die zwar Semantic Web Konzepte und Datenstandards nutzen, aber ohne weiteres auch mit anderen Datenformaten hätten realisiert werden können – das unseres Erachtens zentrale Problem des Semantic Web ansprechen: Die Gewinnung der semantischen Kategorisierung für Inhalte.
Die Semantic Web Community, weite Teile der Information Retrieval Forschung älterer Schule und Teile der bibliothekarischen Community haben einen Ansatz gemeinsam: Sie gehen davon aus, dass Systeme wie die Google Suchmaschine schlecht funktionieren und deshalb durch einen besseren Ansatz ersetzt werden müssten. Bei Betrachtung von Teilen der Diskussion gewinnt man den Eindruck, dass hier eine gewisse Blindheit vorliegt – Google befriedigt die Informationsbedürfnisse einer großen Zahl von Nutzern und weitreichende Strategien darauf auf zu bauen, dass dies nicht so sei, ist für den neutralen Beobachter zumindest ein wenig weltfremd; bestenfalls scheint sie stark ideologisch geprägt, weil sie den Erfolg der Google-Suchmaschine als einen Angriff auf als fundamental angesehene Wahrheiten betrachtet.
Unseres Erachtens verdeckt dieser ideologische Widerstand die wesentliche, aus dem Erfolg der Google Suchmaschine abzuleitende Erkenntnis: Ihr Erfolg ist, mindestens in den frühen, gut dokumentierten, Versionen, ein Resultat der ihr zu Grunde liegenden Algorithmen. Das Semantic Web basiert in hohem Maße auf einer Beschreibung der zu seiner Realisierung notwendigen Datenstrukturen – bzw. der in ihnen enthaltenen Metainformationen. Anders ausgedrückt: Googles Suchmaschine setzt eine erhebliche Rechenleistung voraus; das Semantic Web, nach dem derzeitigen Stand der Entwicklung, eine große Anzahl von Inhaltsspezialisten, die die notwendigen Erschliessungsinformationen auf Grund menschlicher intellektueller Analyse eintippen.
Unsere Ambivalenz dem Semantic Web gegenüber beruht genau auf diesem Zwiespalt: Wenn, aber nur wenn, es gelingt, innerhalb der Semantic Web Forschung einen wesentlich größeren Anteil der Ressourcen auf die algorithmische Gewinnung von Metadaten aus vorliegenden Rohdaten einerseits und auf die algorithmische Anwendung komplexer Regelsysteme andererseits zu verlagern, ist das Bündel unter dieser Bezeichnung zusammengefasster Ansätze von sehr hoher Signifikanz für die Zukunft. Bleibt es beim bisherigen Zustand, so werden die Knowledge Worker des Semantic Web wohl den gleichen Weg gehen, wie die Knowledge Engineers der Ära der Expertensysteme, die sich ja mit genau der gleichen Aufgabe – der manuellen Eingabe von Kategorisierungen – beschäftigt haben.
Die Informationsversorgung der Hochschulen könnte diese technische Entscheidung im Prinzip gelassen abwarten. In der Praxis ist sie allerdings in hohem Maße von dem oben beschriebenen unerfreulichen Schwebezustand betroffen. Die Erschließung von Inhalten ist in den Bibliotheken im Allgemeinen und den wissenschaftlichen Bibliotheken im Besonderen ein wesentlicher konstituierender Bestandteil des Berufsbildes und der institutionellen Strategie. Dies betrifft einerseits die Formalkatalogisierung, andererseits aber auch die inhaltlich / intellektuelle Erschließung im Sinne der Regeln für den Schlagwortkatalog9 (RSWK). In den dieser Studie zu Grunde liegenden Interviews ist es uns nicht gelungen einen Leitenden Bibliotheksdirektor zu finden, der die Katalogisierung nach RSWK als sinnvoll betrachtet hätte. Gleiches gilt für Leitende Bibliotheksdirektorinnen. Trotzdem fließen in diese Tätigkeit nicht unerhebliche Ressourcen.
Dies vermittelt insgesamt den Eindruck, dass die Erstellung von Erschließungsinformationen innerhalb des Bibliothekswesens der Hochschulen sich in vieler Hinsicht verselbständigt hat und als selbstverständliche und nicht mehr hinterfragenswerte Tätigkeit wahr genommen wird.
In diesem Kontext halten wir bestimmte Möglichkeiten der Rezeption des Semantic Web für nachgerade gefährlich. Wie erwähnt setzt es in hohem Maße voraus, dass erschließende Information von Hand eingegeben werden, also genau das, was die bibliothekarische Tätigkeit seit jeher in hohem Maße geprägt hat. Durch recht oberflächliche Anpassungen von Eingabeformen und Formen der Datenspeicherung kann dadurch der Eindruck entstehen, dass bestehende Tätigkeitsfelder in Wirklichkeit ungemein zukunftsträchtig seien, da sie ja einer im Zentrum der Debatte stehenden Technologie zuarbeiten würden. Dass das Eingeben von Kategorien in Erfassungssysteme keinerlei technisches Verständnis der verwendeten Systeme erfordert, führt gleichzeitig zur gefährlichen Situation, dass Personen ohne jedes technische Verständnis über ihre Kenntnisse „des Semantic Web“ leicht zu offensichtlichen Kandidaten für Positionen werden können, die für technische Weichenstellungen verantwortlich sind.
Zusammenfassende These: Die Nutzung im Umfeld des Semantic Web entstandener einzelner Technologien wird als selbstverständlich vorausgesetzt werden; als übergreifende Vision wird das Semantic Web jedoch durch andere Konzepte abgelöst werden.
Die sich aus dem zweiten beschriebenen Trend – der Notwendigkeit durch institutionsübergreifende technische Infrastrukturen die Verfügbarkeit informationstechnischer Ressourcen zu erhöhen – ergebenden Entwicklungen führen auch zu strukturellen Konsequenzen der an der Informationsversorgung beteiligten Einrichtungen. Diese Konsequenzen besitzen aber einen von der rein technischen Entwicklung unabhängigen Character. Vor allem wenn man den diesen Trend im Zusammenhang mit einem nicht technischen anderen Trend betrachtet.
Denn die Entwicklung der wissenschaftlichen Bibliotheken ist derzeit international von zwei gegenläufigen Phänomenen gekennzeichnet:
Einerseits gewinnen non-Print Medien wie schon diskutiert immer stärker an Gewicht. Schon deutlich mehr als die Hälfte des Beschaffungshaushalts vieler wissenschaftlicher Bibliotheken fließt in die Beschaffung von Zeitschriften, von denen gerade die kostenintensiven in der Regel auch – wenn nicht nur – digital bereitstehen. (Bei einem der geführten Informationsgespräche fiel der Satz „Wir haben keine gedruckten Zeitschriften mehr.“) Dies bedeutet eigentlich, dass die Bibliotheken an Zuspruch verlieren sollten, da es ja mehr und mehr an Informationsressourcen gibt, zu deren Konsultation das Aufsuchen der Bibliothek nicht mehr notwendig ist.
Andererseits weisen nahezu alle Hochschulbibliotheken im Widerspruch dazu explodierende Benutzerzahlen nach. Die Gründe dafür sind vielfältig: Das gruppendynamische Argument, dass die zu Hause auf dem eigenen Rechner erzielten Erkenntnisse sozial besprochen werden müssten, weshalb der Bibliotheksbesuch jetzt eher wichtiger sei, als zu einem Zeitpunkt, wo das Konsultieren gedruckten Materials zwangsläufig zu sozialen Kontakten führte. Eine stärkere Betonung teamorientierten Unterrichts, die das gemeinsame Vor- oder Nachbereiten von Seminararbeiten in den Gruppenarbeitsräumen der Social Library wichtiger mache, als zuvor.
Die Wertschätzung der Bibliotheksathmosphäre als Anreiz zum ablenkungsfreien, konzentrierten Vorbereiten von Examina und Verfassen von schriftlichen Arbeiten in Einzelarbeit.
Es sollte aber darauf hingewiesen werden, dass dieser Trend von der Erkenntnis, dass „Studierende eine angenehme Arbeitsatmosphäre und -umgebung in der Bibliothek schätzen würden und man die Bibliotheken dementsprechend besser ausstatten müsse“ unabhängig ist: Jedenfalls ist in den Vereinigten Staaten, deren Hochschulbibliotheken was Benutzerfreundlichkeit und Arbeitskomfort betrifft, immer wieder als Vorbild für deutsche Bibliotheken angeführt wurden, exakt derselbe Trend zur intensiveren Präsenznutzung zu beobachten.
Abgesehen davon, dass die Erkenntnis, Studierende schätzten ein angenehmes Arbeitsambiente uns selbst in generationsüberspannender Sicht nicht wirklich überraschend scheint, sollte man den eben geschilderten gegenläufigen Trend unseres Erachtens nach als Anregung verstehen, ihn konstruktiv weiter zu denken. Beiden Trends gerecht zu werden verlangt unterschiedliche Ansätze – und könnte durch eine stärkere Entflechtung der betroffenen Fachabteilungen aufgegriffen werden. Die effektive Bereitstellung digitaler Ressourcen verlangt für das betreuende Personal vor allem hohe technische Qualifikationen; wobei es völlig irrelevant ist, ob die digitalen Informationen vor Ort oder an anderer Stelle vorgehalten werden. Dementsprechend scheint es ungemein naheliegend, diesen Teils des bibliothekarischen Informationsangebotes gleichermaßen von der einzelnen Institution weg zu einer standortbezogenen Infrastruktur zu transferieren, für die das Problem, dass erst bei einer gewissen Mindestgröße der Einrichtung die effektive Auslastung aller mindestens benötigten technischen Qualifikationsprofile gelingen kann, genauso zutrifft, wie für die Bereitstellung der im inhaltsagnostischen Basis-IT-Infrastruktur, für die wir die mittelfristige Auslagerung aus den einzelnen Hochschulen in späteren Abschnitten empfehlen werden.
Im Unterschied dazu ist die bestmögliche Beratung bei der Informationsnutzung vor Ort unstreitig nur an den Institutionen selbst durch Personal mit hoher kommunikativer Kompetenz zu leisten: Und ein offensichtliches Feld, auf dem der Wettbewerb zwischen den Hochschulen wünschenswert und naheliegend ist. Diese Beratung kann und sollte mindestens vier Aufgaben übernehmen: Zunächst natürlich die administrativen Tätigkeiten, die die Arbeitsatmosphäre im Sinne der Social Library Diskussion ermöglicht; ferner die Beratung bei der Benutzung der Informationsressourcen im Sinne der Vermittlung von Informationskompetenz; weiterhin die Bereitstellung verbleibender Printmedien; und schließlich die Erzeugung von Informationsoberflächen – als Weiterschreibung des jetzigen Konzepts von digitalen Semesterapparaten – die für einzelne Veranstaltungen auf der Ebene der Lehre, aber auch für die längerfristige Unterstützung von Forschungsschwerpunkten einen gezielten Zugriff auf spezielle Ressourcen ermöglichen.
Für die hier ins Zentrum der Erörterung gestellten Hochschulbibliotheken ergibt sich daraus und aus dem einleitend noch mal zitierten technischen Trend zur Bildung größerer Cloud-orientierter Infrastrukturen die Forderung, die technischen und die sozialen, also auf unmittelbaren Benutzerkontakt angelegten, Teile der Einrichtung noch wesentlich stärker zu entflechten als bisher.
Dasselbe gilt aber auch für alle anderen Zweige universitärer Informationsinfrastrukturen. Sobald davon ausgegangen werden kann, dass Informationstechnologie robust und hoch verfügbar ist, kann die technische Kompetenz auch in Benutzerberatungen von Rechenzentren sinken und durch stärkere Konzentration auf die Kompetenz im Umgang mit Benutzern zumindest zum Teil ersetzt werden.
Dies reflektiert offensichtlich die innerhalb der Wirtschaft schon länger übliche sorgfältige Trennung in Frontoffice und Backoffice Strukturen. In weiterer Folge gehen wir daher davon aus, dass alle Zweige der Informationsversorgung an Hochschulen in eine primär technische (potentiell institutionsübergreifende) und eine primär soziale (gezwungenermaßen lokale) Komponente gegliedert werden können.
Zusammenfassende These: Bereitstellung und Nutzung der Informationsversorgung sind weiter zu entflechten. Natürlich darf die Wahl der bereitzustellenden Information auch weiterhin nicht als ingenieurswissenschaftliche Aufgabe verstanden werden. Der effektive Betrieb informationstechnischer Infrastrukturen setzt jedoch primär informationstechnische Qualifikationen voraus.
Aus den beschriebenen technischen Trends ergeben sich Anforderungen an die Restrukturierung der informationsversorgenden Einrichtungen der Hochschulen. Wir beginnen dabei zunächst mit einer Beschreibung der notwendigen Restrukturierungsmaßnahmen und schließen daran eine Erläuterung der erforderlichen Maßnahmen mit denen die Hochschulleitungen diese umsetzen sollten. Bei der Schilderung der notwendigen Restrukturierungsmaßnahmen beginnen wir dabei mit Prozessen, wie sie an vielen, ja nahezu allen, einschlägigen Einrichtungen des Lands bereits eingeleitet wurden, ohne in weiterer Folge den Schritt zwischen derzeit bereits in Angriff genommenen Maßnahmen und noch in Angriff zu nehmenden besonders zu kennzeichnen.
Vor einigen Jahren fanden sich die Hochschulen des Landes in einer Situation wieder, in der alle die Informationstechnologie intensiver nutzenden Einheiten jeweils eine eigene in sich geschlossene Infrastruktur betrieben.
Das sind insbesondere: (a) Rechenzentrum, (b) Bibliothek, (c) Verwaltung und andere nicht an allen Hochschulen voll ausgeprägte Organisationseinheiten ((d) Medien- / (e) eLearning-Zentren). Jede dieser Einrichtungen betrieb mindestens eine eigene, selbständig gewartete technische Infrastruktur, eigene Serverkapazitäten, ein eigenes eMail-Hosting, eine eigene Benutzerverwaltung und eine eigene Datensicherung. (Wobei letztere auch in allen Fällen als reines Backup-, bestenfalls als Archivierungssystem ohne echte Langzeitarchivierungsfunktion betrieben wurde.10)
Es besteht Konsens darüber, dass diese Redundanz in dieser Form unsinnig ist und es notwendig ist, sie zu verringern. Wenn und soweit sich an einzelnen Hochschulen einige der die IT nutzenden Fachabteilungen aus diesen Konvergenzbemühungen auszuschließen bemüht sind, ist dies wohl in allen Fällen auf örtliche institutionelle Machtstrukturen, nicht auf tatsächliche organisatorische Erfordernisse zurückzuführen. Tatsächlich ist die Einführung von CIO Strukturen an den besuchten Hochschulen – auch außerhalb NRWs – häufig mit dem Eintreten von Ruheständen verbunden.
Der Redundanzabbau – im Folgenden als infrastrukturelle Konvergenz bezeichnet – betrifft dabei derzeit vor allem folgende Bestrebungen:
1. An allen Hochschulen des Landes wird eine vereinheitlichte Nutzerverwaltung, als Single Sign-On für alle Dienste der Hochschule, als vordringliche organisatorische Aufgabe gewertet.
2. Es gibt einen prinzipiellen Konsens darüber, dass Dienste eines Typs an der Hochschule nur einmal erbracht werden sollten. Das bezieht sich insbesondere auf die Wartung der Netzinfrastruktur, die Hardwarewartung der eingesetzten arbeitsplatznahen Geräte, die Verwaltung der eMail-Dienste, und die Einrichtung eines hochschulweiten Backup- und Archivdienstes.
3. Die Tatsache, dass durch die Virtualisierung von Speicherkapazitäten und Rechnerleistung erhebliche Synergien im besten Sinne des Wortes erreichbar sind, also tatsächliche signifikante Einsparungen von Haushaltsmitteln, wird bisher vor allem von den Hochschulrechenzentren betont. Sie spielt in den derzeit laufenden Konvergenzprozessen insgesamt aber vorläufig eine eher geringe Rolle.
Die zu beobachtende infrastrukturelle Konvergenz läuft wohl eindeutig auf ein Modell hinaus, bei dem eine hochschulweite Infrastruktur – bestehend aus den oben aufgezählten Komponenten / Diensten – einheitlich bereitgestellt und von einzelnen Fachabteilungen für fachspezifische Dienste genutzt wird. Dabei ist hervorzuheben, dass mit sehr wenigen Ausnahmen an fast allen Hochschulen betont wird, dass es keinen technischen Grund mehr gebe, die Verwaltungs-IT aus dieser gemeinsamen Struktur auszuklinken, da die Datensicherheit mittlerweile auch in einer gemeinsamen Infrastruktur hinreichend zu gewährleisten sei; ähnlich wird eine selbständige IT der Bibliotheken, jenseits der Verwaltung der bibliotheksspezifischen Dienste, nur in seltenen Ausnahmefällen als mittelfristig notwendig erachtet, wenn auf Grund technischer legacy Lasten vom allgemeinen Modell der Universität abweichende Plattformen notwendig sind.
Die prinzipielle Notwendigkeit der infrastrukturellen Konvergenz wird kaum bestritten. Interessant und bestätigend ist, dass ihre optimale Unterstützung in unterschiedlichen Gesprächen sowohl zur Begründung zentralistischer als auch bewusst und nachdrücklich dezentraler Organisationsmodelle angeführt wurde.
Der infrastrukturellen Konvergenz entspricht eine Konvergenz zwischen einzelnen Dienstleistungen, die derzeit noch getrennt angeboten werden. Danach ist zu erwarten, dass die IT-Dienste der Hochschulen in den nächsten Jahren aus drei großen Blöcken bestehen werden:
1. Einer Einrichtung, der die Medienverwaltung, Informationsbeschaffung und Medienproduktion obliegt, die die klassischen bibliothekarischen Aufgaben weiterführt, aber in den meisten Fällen wohl auch die Aufgaben, die sich aus der Open Access Bewegung bzw. der Medienproduktion ergeben, übernimmt.
2. Einer Einrichtung, die alle Dienste anbietet, die auf personenbezogenen Daten und Angeboten aufbaut. Hier sind erhebliche Konvergenzerscheinungen zwischen Campus-Management, Verwaltungs- und eLearning-Systemen erkennbar.
3. Einer Einrichtung, die das wissenschaftliche Rechnen – nach dem ursprünglichen Paradigma der Rechenzentren – betreut.
Unklar ist im Moment, wie sich das Verhältnis dieser Abteilungen zur Erbringung der oben angeführten Basisdienstleitungen gestalten wird. Verschiedene Modelle sind dabei zu beobachten:
a) Modelle, bei denen die Basis-IT-Infrastruktur durch das Hochschulrechenzentrum, das das eigentliche wissenschaftliche Rechnen betreut, unterstützt wird sowie
b) Modelle, bei denen die inhaltsagnostische Infrastruktur durch eine neugegründete Abteilung / Einrichtung übernommen wird, von der das wissenschaftliche Rechnen abgetrennt bleibt.
Aus der Sicht der einzelnen Hochschulen ergibt sich für uns das in Abbildung 2 wiedergegebene Modell, mit dessen Erreichung in den nächsten fünf Jahren in der Mehrzahl der Hochschulen zu rechnen ist.
Die Trennung in „Soc[ial] Lib / X“ und „Fach IT“ gibt dabei einen bereits beschriebenen Trend wieder, der neben der infrastrukturellen Konvergenz alle IT nutzenden Einrichtungen der Hochschulen in den nächsten Jahren prägen wird. Einerseits die Herausbildung von für den Erfolg einzelner Hochschuleinrichtungen sehr wesentlicher IT bezogener „technischer Kerne“, von deren Effektivität sowohl das Funktionieren und Ansehen der Hochschule sehr wesentlich abhängen wird; andererseits die stärkere Trennung aller Aspekte der einzelnen Einrichtungen, die eine soziale Kommunikation mit den Benutzern in den jeweiligen Hochschulen erfordern, von diesen technischen Kernen.
Abbildung 2: Ergebnis derzeitiger IT-Konvergenz innerhalb der Hochschulen
Das wird dazu führen, dass es sehr viel einfacher und naheliegender wird, technische Leistungen, die jetzt der Basisinfrastruktur einzelner Hochschulen zugeordnet werden, aus diesen auszugliedern. Sei es durch das Outsourcing – etwa im Bereich der Wartung von Arbeitsplatzgeräten –, sei es durch den Betrieb von gemeinsamen Infrastruktureinrichtungen durch mehrere Hochschulen – etwa im Bereich der „echten“ Langzeitspeicherung. Dass Cloud-orientierte Technologien – etwa im Sinne einer „Academic Cloud“ hier eine große Rolle spielen werden ist sicher; ob es zum vermehrten Einkauf von Leistungen aus einer allgemeinen kommerziellen Cloud kommen wird, scheint uns aus den bereits genannten Gründen zweifelhaft.
Abbildung 2 gibt, wie gesagt, das Ergebnis relativ kurzfristiger Entwicklungen wieder, die an allen von uns besuchten Hochschulen des Landes begonnen haben, freilich sehr unterschiedlich weit gediehen sind. Am wenigsten weit ist dabei in der Regel die Entwicklung eines einheitlichen, wirklich integrierten Hochschulportals. Unter einem solchen verstehen wir eine Nutzeroberfläche, die den Übergang zwischen einzelnen Komponenten transparent macht. Solche Komponenten sind – beispielsweise – die von den einzelnen Instituten betriebenen Homepages, die vom lokalen eLearning-System bereitgestellten Lehrmodule, die dazu benötigten digitalen Inhalte, die die Hochschulbibliothek anbietet, und die Belegungs- und Prüfungsinformationen, die ein von der Verwaltung verantwortetes Campusmanagementsystem kontrolliert. Dass diese Teilsysteme oft deutlich unterschiedliche Userinterfaces anbieten ist derzeit wohl vor allem eine Konsequenz aus der Vorgeschichte der Systeme, die ja zu einer Zeit ausgebildet wurden, als jedes der Teilsysteme auf einer abgetrennten Infrastruktur aufbaute.
Diese Zersplitterung des Informationsangebotes der Hochschulen halten wir für nachteilig, sowohl aus technischen, als auch aus strukturellen Gründen. Technisch führt die Uneinheitlichkeit zu erheblichen Synergieverlusten. Wenn beispielsweise Benutzerdaten in den verschiedenen Teilsystemen unterschiedlich vorgehalten werden. Diese technischen Gründe für die mangelnde Einheitlichkeit verlieren auf Grund der bereits beschriebenen Trends jedoch an Bedeutung: Sobald eine Universität ein einheitliches Identity Management betreibt, wird jedes Teilsystem ineffektiv und Quelle zusätzlicher Kosten, das nicht in der Lage ist, sich der Dienste dieses Identity Management zu bedienen.
Der strukturelle Nachteil dieser Zersplitterung ist schwieriger zu begründen; gleichzeitig ist er schwieriger zu überwinden. Der Mangel eines wirklich einheitlich aufgebauten und übergangslos integrierten Informationssystems der Hochschulen muss nicht unmittelbar zu Usability-Nachteilen führen: Benutzer des Internet haben im Jahre 2010 gelernt, dass es große Informationssysteme gibt, die unterschiedlich funktionieren: Innerhalb von eBay sucht man anders als innerhalb von Amazon. Ästhetische Vorteile eines durchgehenden Designs sollten auch keineswegs überschätzt werden: Google, Amazon, StudiVZ, Facebook, eBay gewinnen Ihre Benutzer durch ihre offensichtliche Nützlichkeit; keineswegs durch die hohen Designaufwendungen.
Man darf auch nicht übersehen, dass an einer Einrichtung, die die Zukunft mitgestalten soll – was unseres Erachtens eine konstitutive Aufgabe der Hochschulen ist – gerade im Bereich der Informationstechnologien eine gewisse Uneinheitlichkeit unvermeidbar ist. Experimentiert eine Professur aus eigenen Mitteln mit der Bereitstellung von digitalen Lehrmaterialien im Internet, fünf Jahre vor der Einführung einer fakultätsweiten Lösung, wirkt die Offerte bei der Einführung eines fakultätsweiten Angebotes beraten zu werden, wenig attraktiv. Denn dadurch kommen nur Kosten für den Ersatz einer vollfunktionalen Lösung durch eine Andere auf die Professur zu.
Trotz beider Einschränkungen halten wir die beschriebene übergangslose Integration der Informationsdienste einer Hochschule in ein übergreifendes Hochschulportal jedoch für unverzichtbar, um die Integration der unterliegenden Dienste nicht zu behindern. Synergien zwischen allen Anbietern von Informationsdienstleistungen sind leichter herbei zu führen, wenn von vorne herein klar ist, dass ein gemeinsames Angebot angestrebt wird. Und die Annahme, die eigene Abteilung brauche ein deutlich abgegrenztes Auftreten innerhalb des Informationsangebotes der Hochschule, führt vor allem anderen sehr leicht zur Konsequenz, dass auch die Bereitschaft der Fachabteilungen zur Verwendung gemeinsamer technischer Infrastrukturelemente sinkt.
Wie schon mehrfach betont, haben wir im letzten Abschnitt einen Prozess beschrieben, der bereits im Gange ist. Dass er an den Hochschulen unterschiedlich weit fortgeschritten ist, hängt zum Teil von objektiven Gründen ab, vor allem der unterschiedlich guten Ausstattung einzelner Abteilungen mit Mitteln und dem Alter der derzeit laufenden Hard- und Software.
Hochschulen, die bewusste Bemühungen unternommen haben, die notwendigen Reformen in ihrer Informationsinfrastruktur strukturell in der Hochschulleitung zu verankern, sind bei den entsprechenden Konvergenzprozessen wesentlich weiter fortgeschritten, als die, bei denen diese Prozesse an der Hochschulleitung vorbeilaufen. Der entscheidende Punkt ist dabei nicht die Ausgestaltung der Verankerung in der Hochschulleitung – ob dies durch einen persönlich verantwortlichen CIO (ggf. auch unter anderem Namen) – oder ein Gremium (mit überschaubarer Mitgliederzahl) geschieht, scheint wenig relevant.
Jedoch sind bei den beschriebenen Konvergenzprozessen eindeutig jene Hochschulen besonders erfolgreich, auf die die folgenden Kriterien zutreffen:
1. Es existiert direkt in der Hochschulleitung eine für die Informationstechnik an der Hochschule verantwortliche Person / ein Gremium dieser Art.
2. Diese(s) Person / Gremium hat Haushaltshoheit insofern, als zumindest Anschaffungen ab einer bestimmten Höhe nicht ohne zentralen Genehmigungsprozess ablaufen dürfen.
3. Es herrscht Anzeigepflicht für alle einschlägigen Vorhaben.
4. Person / Gremium sind so ausgestattet, dass sie zu strategischer Planung zeitlich / kapazitativ in der Lage sind.
Wichtig sind dabei die Kriterien 2 bis 4, insbesondere die Fähigkeit durch die Haushaltshoheit Maßnahmen durchzusetzen. Vorangegangene Empfehlungen der DFG und anderer Einrichtungen haben in den letzten zehn Jahren dazu geführt, dass an relativ vielen Hochschulen CIO-artige Strukturen eingeführt wurden, die de facto evasive Feigenblatt-Reformen darstellen. Die hier betriebenen Strukturen sind vielfältig: Umbenennungen bestehender Positionen ohne Kompetenzausweitung oder Unterscheidung zwischen operativen und strategischen Maßnahmen, Einführung von an das Rektorat angegliederten Ämtern ohne Kompetenzen und Budget, Benennung hierarchisch niedriger, strikt weisungsgebundener Verwaltungsangestellter als „CIO“.
Um die Hochschulen bei der konsequenten Umsetzung der beschriebenen Konvergenzen zu unterstützen, empfehlen wir dem MIWF des Landes NRW daher folgende kurzfristig umzusetzende Maßnahmen:
1. Sämtliche Förderprogramme im Bereich der Informationstechnologie oder Informationsversorgung im einleitend definierten Sinn, also sämtliche Förderungen universitärer Projekte – außerhalb des Globalhaushaltes – in den Bereichen Rechenzentren, Medien, Bibliothek, eLearning sowie der Informationsverarbeitung der Verwaltung, sind an das Bestehen einer in die Hochschulleitung eingebundenen IT-Governance im oben beschriebenen Sinne gebunden. Der als Person oder als Gremium ausgebildete Träger der Verantwortung für die Informationsversorgungspolitik der Hochschule ist den genannten Bereichen übergeordnet.
2. Förderprogramme für die Informationsversorgung, die sich dezidiert an einzelne der genannten Bereiche wenden, werden eingestellt.
3. Förderprogramme, die die Herausbildung einer gemeinsamen technischen Infrastruktur und eines gemeinsamen voll integrierten Angebotes der Informationsversorgung zum Inhalt haben, werden aufgelegt.
In unseren bisherigen Überlegungen gingen wir von der einzelnen Hochschule aus. Diese Perspektive ist naheliegend, da dies der eingeführten Vorstellung von Hochschulen als voneinander unabhängigen Einrichtungen entspricht. Die Hochschul-Perspektive ist ferner besonders jetzt naheliegend, da das Hochschulfreiheitsgesetz in NRW in den letzten Jahren als deutlicher Ausdruck des politischen Willens zur Verstärkung der Autonomie der Hochschulen verstanden wurde.
Aus Sicht des Steuerzahlers und aus Sicht einer übergeordneten Landespolitik finanziert das Land NRW jedoch nicht einzelne Hochschulen, sondern ein staatliches Hochschulsystem. Dass dieser Begriff in der deutschen Hochschuldiskussion nicht stärker betont wird, scheint uns darauf zurück zu führen, dass er auf Grund der überragenden Bedeutung staatlicher Hochschulen in Deutschland redundant erschien: Das System staatlich finanzierter Hochschulen und das der Hochschulen insgesamt waren lange Zeit fast deckungsgleich. Das mag den Blick darauf verstellen, dass die Kooperation zwischen den staatlichen Hochschulen keineswegs einen Bruch mit dem Wettbewerbsgedanken impliziert. Der gemeinsame Betrieb von Infrastruktureinrichtungen für das gesamte öffentliche Hochschulsystem ist daher etwa in den USA, bei denen der Betrieb der staatlichen Hochschulen mit dem der privaten im Wettbewerb steht, selbstverständlich: So ist die gemeinsam betriebene California Digital Library11 ein von den einzelnen Campus der als Ganzes verstandenen University of California – die auch ein von den einzelnen Campus unabhängiges Präsidium kennt – sehr wichtiges Element der modernen amerikanischen Bibliothekslandschaft.
Aus Sicht des Steuerzahlers in NRW ist die geringe Bedeutung, die dem System staatlicher Hochschulen als System eingeräumt wird, mit unmittelbaren Nachteilen verbunden, wenn Probleme gelöst werden müssen, bei denen ein koordiniertes Zusammenwirken mehrerer Hochschulen wirtschaftlich notwendig ist. Unabhängig von abstrakten Fragen der Autonomie einzelner Hochschulen sind die von den Hochschulen des Landes Baden-Württemberg gekauften Arbeitsplatzrechner objektiv billiger, als die von den Hochschulen des Landes NRW gekauften, weil das zuständige Ministerium im Lande Baden-Württemberg eine Möglichkeit gefunden hat, die Beschaffungspolitik – und damit die Marktmacht der Hochschulen in der Marktwirtschaft – zu bündeln.
Zu diesen allgemeinen Fragen der Ausnutzung einer möglichen Marktposition kommen im Bereich der Informationsversorgung noch spezifische Gründe, die eine wesentlich engere Kooperation zwischen den Hochschulen nahelegen. Die Hochschullandschaft des Landes NRW fällt dadurch auf, dass an vielen Standorten mehrere Hochschulen existieren. Auch vor den letzten Gründungen von Fachhochschulen, die die Zahl extrem kleiner Einrichtungen nochmals vermehrt hat, waren die Größenunterschiede zwischen diesen Einrichtungen beträchtlich. Andererseits ist festzuhalten, dass in weiten Teilen des Landes – deutlich über das Ruhrgebiet hinaus – die einzelnen Standorte oft extrem nahe aneinander liegen.
In dieser Situation sind einige technische Feststellungen zu treffen:
1. Die Bereitstellung einer allgemeinen inhaltsagnostischen IT-Infrastruktur für eine Hochschule, aber auch die allgemeineren Komponenten der darauf aufbauenden Einrichtungen, wie etwa eines Bibliotheksverwaltungssystems, setzen eine gewisse Mindestgröße voraus. Jede derartige Problemlösung erfordert ein Qualifikationsbündel, das in der Regel nur durch eine Mindestanzahl von Mitarbeitern realisiert werden kann. Andererseits kann der tatsächliche Betreuungsbedarf einer kleinen Einrichtung jedoch so niedrig sein, dass diese Mitarbeiter in Wirklichkeit keineswegs ausgelastet sind. Sowohl die Vorstellung in einem Bereich gut qualifizierte Mitarbeiter zeitfüllend in einem anderen Bereich, für den sie nicht ausgebildet sind, zu beschäftigen, als auch die Vorstellung an einer kleinen Einrichtung wichtige Funktionen nicht zu besetzen, liegen zwar nahe, führen aber bestenfalls zur Ineffizienz, in der Regel wohl dazu, dass manche Aufgaben einfach nicht wahrgenommen werden. Bei zunehmender Komplexität der notwendigen Basisdienstleistungen wird dieses Problem von Einrichtungen unterkritischer Größe noch zunehmen.
2. Die Identifikation einer gemeinsamen IT-Infrastruktur, auf der die einzelnen Sparten der informationsverarbeitenden Einrichtungen einer Hochschule aufsetzen, legt natürlich nahe, auf der Basis des erwähnten Cloud Computing Paradigmas diesen Bereich sukzessive per Outsourcing gänzlich aus den Hochschulen zu entfernen. Da dies auf jeden Fall ein längerer Prozess wäre, würde er das eben beschriebene Problem aber potentiell noch verschärfen: Werden einzelne Dienste sukzessive ausgelagert, so sinkt zunächst die Auslastung der Fachmitarbeiter; es wäre aber unrealistisch anzunehmen, dass sie unmittelbar überflüssig würden, da verschiedene Probleme der Einbindung zugekaufter Ressourcen in die von den Anwendern betriebenen Informationssysteme verbleiben.
3. Schließlich besteht die Vorstellung, dass die Gesellschaft und Wirtschaft der nächsten fünfzehn Jahre von der Informationstechnologie geprägt sein werden. Hierdurch wird gleichzeitig der Wunsch gefördert, dass die Hochschulen jene Gebiete besonders beeinflussen, die die Zukunft der von ihnen Auszubildenden prägen. Daraus folgt der Bedarf, dass die Hochschulen – und zwar wesentlich stärker als bisher – nicht nur als Konsumenten von Informationsdienstleistungen auftreten mögen, sondern die Entwicklung der Informationstechnologien aktiv beeinflussen und prägen. Die Erfüllung dieses Bedarfs kann nur gelingen, wenn die von ihnen verwendete IT-Infrastruktur so nahe an den universitären Endnutzern verwaltet wird, dass die Einbindung neuer und innovativer Informationstechnologien, die aus der Arbeit der Hochschulen entstehen, möglichst erleichtert wird.