Wenn die Kompressoren zischen und die Vakuumpumpen ihre Luft einziehen, klingt die Maschine wie ein schlafendes, vorzeitliches Ungetüm. Doch das Monster schläft nie. Wochen- und monatelang kann es die immergleiche Bewegung ausführen: ansaugen, hoch-heben, umdrehen, flach drücken. Es braucht nichts weiter als Strom – und Futter. Seine Nahrung sind alte Bücher, die es sensorgesteuert umblättert, vorsichtig, fast zärtlich, und einscannt in eine neue, digitale, universale Bibliothek des Wissens. Zwei Kameras saugen den Inhalt der Buchseiten auf – bis zu 3000 pro Stunde, 72 000 pro Tag, 26 Millionen im Jahr. Ivo Iossiger, 39, wirkt klein neben diesem gewaltigen Apparat, den er erfunden und konstruiert hat. Durchs Fenster seiner Firma 4DigitalBooks im schweizerischen Ecublens sieht man malerische Kuhweiden, aber Iossiger blickt lieber in die Zukunft. »Dies ist der Beginn einer neuen Ära«, sagt er. »Und wohl das Ende des Buches, wie wir es kennen.«
Iossiger ist nur einer von unzähligen Technikern, Bibliothekaren und Unternehmern auf der ganzen Welt, die ihre Arbeit derzeit in den Dienst einer großen Vision stellen: Alle wichtigen Informatio-nen, die bisher nur auf Papier gedruckt vorliegen, möglichst bald in körperlose, digitale Daten zu verwandeln. Dahinter steht ein Traum, der bis ins Altertum zurückreicht: Alle schriftlichen Zeugnisse der Menschheit an einem einzigen Ort zu versammeln, für jeden zugänglich zu machen – und für alle Zeiten zu bewahren. Die Große Bibliothek von Alexandria, 288 v. Chr. gegründet, war der erste umfassende Versuch in dieser Richtung – und, nach ihrer Zerstörung ein paar Jahrhunderte später, vorerst auch der letzte. Zu schnell ist die menschliche Textproduktion seitdem voran-geschritten, zu hoch schienen die Kosten, alle bisher gedruckten Bücher – man schätzt, dass das etwa 32 Millionen sind – an einem einzigen Ort zu lagern. Bis jetzt.
Denn unbezwingbar sind eigentlich nur die Berge von Papier, die bisher als Datenträger dienen. Computerprogramme, die Tausende von Buchseiten in wenige digitale Kilobytes verwandeln, sind seit Jahren vorhanden, das Internet dient längst als virtueller, rund um die Uhr geöffneter Lesesaal – und Informationen, die sich einmal von ihren physischen Trägern gelöst haben, lassen sich in nahezu unendlichen Mengen elektronisch verarbeiten, katalogisieren und innerhalb von Millisekunden wieder abrufen. Gleichzeitig finden selbst Studenten und Wissenschaftler immer seltener den Weg in jene ehrwürdigen Hallen der Bildung, die tatsächlich echte Bücher beherbergen. »Unsere Zeit ist schon heute zu kostbar für Bibliotheken«, sagt die amtierende Bachmann-Preisträgerin und Internet-Autorin Kathrin Passig. »Bücher, die nicht per Mausklick verfügbar sind, werden für uns bald genauso wenig existieren wie Bücher, die nur auf Aramäisch ohne Übersetzung vorliegen.«
Sie bringt den Gedanken auf den Punkt, der derzeit Konstrukteure wie Ivo Iossiger bewegt, Funktionäre wie Jean-Noël Jeanneney, den Leiter der Bibliothèque Nationale in Paris, und Internet-Zukunftsforscher wie Larry Page und Sergey Brin, die mit ihrer marktbeherrschenden Suchmaschine Google wie nebenbei zwei der reichsten und mächtigsten Unternehmer der Welt geworden sind. Sie alle arbeiten nicht unbedingt zusammen, momentan teilweise sogar gegeneinander – und dennoch glauben sie an dieselbe Idee einer umfassenden Digitalisierungsinitiative, die verhindern soll, dass große Teile des menschlichen Wissens schon bald vom Radar der vernetzen Gesellschaft verschwinden. Google fiel dabei die Aufgabe zu, den ersten gewaltigen Schritt Richtung Praxis zu tun: Seit Dezember 2004 läuft das »Google Bibliotheksprojekt« mit dem ehrgeizigen Ziel, die Millionenbestände von einigen der weltgrößten Bibliotheken einzuscannen – darunter jene der New York Public Library und der Universitätsbibliotheken von Stanford, Harvard, Michigan und Oxford.
So wird nun seit April 2006 beispielsweise ein unscheinbares, fabrikähnliches Bürogebäude am Rande von Oxford pausenlos von Lieferwagen angesteuert. Sie pendeln zu den zinnenbewehrten Türmen und ehrwürdigen Hallen der Bodleian Library im Zentrum der Stadt, einer der ältesten Bibliotheken Europas. Dort werden sie mit wertvollen Bänden des 19. Jahrhunderts vollgeladen – zwischen einer und anderthalb Millionen sollen es am Ende sein, genauer kann es auch die Bibliothek nicht sagen – und liefern Nachschub für eine Art hochmoderne Produktionsstraße, an der sich Hilfskräfte in zwei Schichten über V-förmig eingekerbte Tische beugen, in Windeseile ein Buch von Hand durchblättern – und bei jeder Doppelseite den Auslöser einer hoch-auflösenden Digitalkamera betä-tigen. »Viele dieser Bücher sind so wertvoll, dass wir auf mensch-liches Fingerspitzengefühl nicht verzichten können«, sagt Jens Redmer, 39, der jugendlich-dynamische Direktor von Google Book Search Europa.
Erkennbar stolz ist er auf eine von Google selbst entwickelte Software, die alle Verzerrungen herausrechnet, die beim Scannen einer gekrümmten Buchseite entstehen: »So müssen wir besonders fragile Bände nicht mehr gewaltsam flach drücken.« Anders wäre Google an die kostbaren Bestände der 1602 gegründeten Bodleian Library, die in Oxford seit Jahrhunderten nur »the Bod« genannt wird und wertvollste Erstausgaben von Isaac Newton bis Charles Darwin verwahrt, auch kaum herangekommen. Für Ronald Milne, den Direktor der Bibliothek, war die Teilnahme an dem Projekt nach der Klärung der technischen Fragen allerdings fast eine Selbstverständlichkeit – zumindest hört es sich heute so an. »Unser Gründervater Thomas Bodley träumte von einer ›Republic of Letters‹, die Schriften für jeden bereitstellen sollte, der Gebrauch dafür hatte. Google hilft uns jetzt, dieses Ethos ins 21. Jahrhundert zu transportieren.«
Dabei geht es, unter anderem, auch um ein Ethos der Vollständigkeit. Im Jahr 1610 traf Bodley eine Vereinbarung mit der Londoner Stationers’ Company, die ein Monopol auf alle verlegerischen Aktivitäten besaß: Eine Kopie jedes dort registrierten Buches sollte seiner Bibliothek überlassen bleiben. So geschah es – und natürlich waren schon bald Hunderte und Tausende von Werken darunter, die nach wenigen Jahren niemanden mehr interessierten. Bodley und seine Nachfolger im Geist der universalen Bibliothek beschlossen aber, sich genau darum nicht zu kümmern: Vollständig hieß vollständig, die Aufgabe des Bewahrens durfte nicht auf Hits und Klassiker beschränkt bleiben – und die »Long Tail«-Theorie des Internets bestätigt diesen Sammeltrieb nun auf höchst zeitgemäße Weise. Sobald Zugangsbarrieren wie unvollständige Kataloge, unzugängliche Archive und fehlende Lesegenehmigungen beseitigt sind, prophezeit der Web-Analytiker Chris Anderson, kann das World Wide Web dafür sorgen, dass nahezu jeder vergessene Text jener Handvoll Interessenten zugeführt wird, für die er eben doch einen großen Wert hat.
Doch längst nicht alle Betroffenen sehen das Projekt der großen Digitalisierung als Traum. Der mächtigste Gegner sind zweifellos die Verleger und die althergebrachte Grundlage ihrer Existenz, das Copyright – verstanden als umfassendes Geschäftsmodell zur Entlohnung von Kreativität. Neben Selbstverständlichkeiten wie der Bezahlung der Autoren verlangt dieses alte Modell auch nach Zugangssperren, weil sich nur so die gegenwärtigen Preise für geistiges Eigentum halten lassen. Wären alle Bücher der Welt per Mausklick abrufbar, würde der Preis des einzelnen Bandes vermutlich ins Bodenlose fallen. Verlage und Autoren kämpfen deshalb einen zunehmend hektischen Kampf gegen Google und Co. Dabei geht es um Feinheiten der Gesetzeslage, um die Frage, wer wann und wie scannen darf, wem eine digitale Kopie gehört und wie leicht man sie weiter vervielfältigen kann – und um Gegeninitiativen, wie sie zum Beispiel auch der Börsenverein des deutschen Buchhandels entwickelt. Dieser Kampf dominiert einen Großteil der Berichterstattung. Völlig zu Unrecht, findet Kathrin Passig. »Ungehinderter Zugang zu Informationen wäre doch eine Dreisterne-Weltverbesserung – die derzeitigen Copyrightfragen sind dagegen nur ein bürokratischer Nebenkriegsschauplatz, an dessen Einzelheiten sich in wenigen Jahren schon niemand mehr erinnern wird.«
Ein anderer großer Gegner des Traums aber ist das Buch selbst. Es hat sich in der digitalen Welt als erstaunlich störrisch erwiesen. Trotz immer besserer Scan-Methoden bleibt es ein hochkomplizierter und erstaunlich aufwändiger Vorgang, das Wissen der Menschheit aus diesem analogen, oft vergilbten und zerfledderten Medium zu extrahieren und in eine Zahlenkette aus Einsen und Nullen zu verwandeln. Als die Website von »Google Book Search« im September erste digitale Ergebnisse aus Stanford, Harvard und New York präsentierte, war die Erwartung groß – die ersten paar tausend Bände, deren Copyright bereits erloschen war, sollten in der Anmutung der Originale kostenlos zur Verfügung stehen, auch per Download für die eigene Festplatte. Die Enttäuschung in der Fachwelt aber folgte prompt: Da konnte man selbst bei flüchtigen Stichproben Frakturschrift finden, die von der Suchmaschine nur als Zahlensalat wiedergegeben wurde, da gab es, von Fingern halb verdeckt, schiefe Seiten, fehlerhafte Katalogdaten und andere Pannen mehr. Das Ethos der Vollständigkeit, das den Traum von der universalen Bibliothek inspiriert hat, schlägt nun auf seine Propagandisten zurück. Ein Buch, von dem auch nur eine halbe Seite fehlt, ist als Referenz für die Nachwelt so gut wie wertlos. Hat sich Google, das sonst für seine smarten Problemlösungen bekannt ist, hier schlichtweg übernommen?
»Keineswegs«, versichert Jens Redmer. Der ehrgeizige Zeitplan – zehn Millionen Bände in zwei Jahren – werde eingehalten. »Wir denken, dass wir unsere Projekte erst einmal starten müssen, um die Sache in Bewegung zu bringen. Wenn wir so lange warten, bis alles perfekt ist, würden wir in zehn Jahren noch nicht so weit sein.« Das ist in der Tat die Strategie der Google-Entwicklungen, die allesamt in einer langwierigen öffentlichen Probephase perfektioniert werden. Längst hat der große Traum auch neue Verbün-dete gefunden: leidenschaftliche Leser, die trotz ihrer Liebe für Gedrucktes die Zukunft doch im Internet sehen.
Sie nehmen es gerade selbst in die Hand, das Erbe der Weltliteratur im Netz zu korrigieren, zu annotieren und in eine fehlerlose Struktur zu überführen. Bei »Wikisource« arbeitet die Wikipedia-Gemeinde genau an diesem Thema, und auch die Pioniere des deutschen »Gutenberg-Projekts« vertrauen immer mehr auf das wachsame Auge freiwilliger Helfer. Dort kann sich jeder beim Gegenlesen von bereits gescannten, digitalisierten, aber noch nicht korrigierten Buchseiten klassischer Literatur beteiligen. 2400 Freiwillige machen regelmäßig mit, weit mehr wären dazu bereit – aber hier fehlt paradoxerweise der Nachschub an Büchern. »Wir haben einfach zu wenig Geld, um mehr zu scannen«, seufzt Gunter Hille, der das Projekt seit 1994 mehr oder weniger als Hobby betreibt – und dennoch bereits etwa 5000 fehlerfreie und für das wissenschaftliche Arbeiten taugliche Klassiker kostenlos ins Netz gestellt hat. »Bei Google schaut kaum noch ein menschliches Auge drauf«, sagt der Veteran. »Sonst könnten sie ihre hohe Geschwindigkeit niemals halten.«
Am Ende der Reise zu den Pionieren des vernetzten Wissens bleibt ein paradoxer Befund: So gut sich Rechner und Software inzwischen zusammenschalten lassen, so schwierig scheint das noch bei Menschen und Institutionen zu sein. Google hat derzeit keinen Kontakt zu Gunter Hille, obwohl dieser eine Menge höchst populärer klassischer Werke einfach fertig über die Datenleitung schicken könnte. Hunderte von Scan-Projekten, Methoden und Ansätzen existieren bereits, alle folgen derselben Grundidee – aber niemand weiß, wie man sie am Ende zusammenbringen soll. Wie schnell und wie fehlerfrei sich die universale Bibliothek mit Text füllen wird, ist also noch keineswegs sicher – aber eins ist doch klar: Ihr ortloses Gerüst ist längst errichtet, und als Idee ist sie nicht mehr aufzuhalten. Das Buch als solches könnte dabei eine interessante Verwandlung durchmachen: Nicht mehr der unersetzliche Wissensspeicher früherer Zeiten, aber doch immer noch die praktischste Methode, größere Textmengen durchzulesen – und mehr denn je Sammlerstück, Augenweide und Zeugnis einzigartigen Druckerhandwerks. »Es ist schon wahr, meine Maschinen fressen die Inhalte der Bücher in sich hinein und machen sie überflüssig«, sagt der Konstrukteur Iossiger, während nebenan sein Scan-Ungetüm weiter vor sich hinröchelt. »Aber dadurch betrachte ich sie auch mit völlig neuen Augen. Heute freue ich mich an ihrem Gewicht, atme gern ihren säuerlichen Geruch ein – und ich streiche mit den Fingern über die Textur ihrer Seiten.«