Dynamische Anpassung des Designs auf Basis von Daten

Um mir über das Ziel meiner Master-Arbeit klar zu werden, habe ich mich im letzten Schritt noch einmal von den bisherigen Überlegungen frei gemacht. Zum einen habe ich meine bisherigen Ansätze und Themen während der kompletten Recherche-Zeit Revue passieren lassen. Zum anderen kategorisierte ich die Themen systematisch, welche mir gleichermaßen als gesellschaftlich relevant als auch für mich persönlich wichtig erschienen. Dadurch konnte ich sowohl Inhalte ausschließen, als auch neu verknüpfen.

Um mir über das Ziel meiner Master-Arbeit klar zu werden, habe ich mich im letzten Schritt noch einmal von den bisherigen Überlegungen frei gemacht. Zum einen habe ich meine bisherigen Ansätze und Themen während der kompletten Recherche-Zeit Revue passieren lassen. Zum anderen kategorisierte ich die Themen systematisch, welche mir gleichermaßen als gesellschaftlich relevant als auch für mich persönlich wichtig erschienen. Dadurch konnte ich sowohl Inhalte ausschließen, als auch neu verknüpfen. Abschließend hat mir das bei der Themenfindung massiv geholfen.

Zu meinem finalen Master-Thema führen dabei verschiedene Überlegungen und Erkenntnisse, welche ich innerhalb meines Researches erhielt und nun kategorisiert, verknüpft und mit weiteren Gedanken ergänzt habe. Zum besseren Verständnis möchte ich an dieser Stelle einen kurzen Überblick geben, den detaillierten Verlauf werde ich jedoch in meiner Master-Thesis skizzieren.

Wichtiger Ausgangspunkt ist die Tatsache, dass wir in unserer westlichen Gesellschaft von Informationen abhängig sind. Das World Wide Web – als leicht zugänglicher Teil des Internets und als universeller Informationsraum – hilft uns massiv dabei, Informationen, Daten und menschliches Wissen zu sammeln, zu indexieren und miteinander zu verknüpfen. Immer feinere Algorithmen des maschinellen Lernens helfen uns dabei, innerhalb von Daten Zusammenhänge und Muster zu erkennen.
Die Zugänglichkeit des Informationsraums ist dabei mindestens gleichermaßen essenziell; der Zugriff findet üblicherweise über eine grafische Benutzeroberfläche innerhalb des Browsers statt. Meine bisherige Recherche sowie mein erster Ansatz, nämlich die Untersuchung dieser Oberflächen und deren visuelle Evolution unter Berücksichtigung kultureller und technologischer Aspekte, liefern mir dabei entscheidende Erkenntnisse, welche mich nun unterstützen. Die analytische Auseinandersetzung mit der bisherigen visuellen Evolution, meine theoretische Recherche, sowie das Bewusstsein, dass unsere Denkweise dynamischer wird und sich unsere Interfaces verändern, geben mir weitere Impulse.

Tim Berners-Lee beschreibt das »World Wide Web als Ort, wo Mensch und Maschine in einer idealen, kraftvollen Mischung koexistieren können.«I Nichtsdestotrotz steht letztendlich der Mensch im Mittelpunkt. Daher sollte es grundsätzlich immer um das Ziel gehen, Systeme und Methoden so zu verbessern, dass ein tatsächlicher Mehrwert und Fortschritt für uns geschaffen wird. Es geht also um die Frage: Wie können wir Technologie zum Vorteil der Menschheit nutzen?

Die vorangestellten Erkenntnisse, Gedanken und Fragen führen mich zu meinem letztendlichen Master-Thema, mit dem ich das Ziel verfolge, den Zugang zum und den Umgang mit dem World Wide Web auf gestalterischer Ebene mithilfe von maschinellem Lernen weiter zu vereinfachen. Meine These ist, dieses Ziel durch eine dynamische Anpassung des Designs, basierend auf den Daten eines einzelnen Menschen, zu erreichen.

Ich stelle mir darunter eine automatisierte Adaption des Interface Designs vor, welche an bestimmte Bedingungen und Parameter geknüpft ist. Erste und naheliegende Gedanken sind dabei beispielsweise die Veränderungen von Schriftgrößen oder Farbkontrasten bei Beeinträchtigung des Sehvermögens oder das Entfallen bestimmter Schritte innerhalb eines Prozesses, wenn die Daten schon vorhanden sind.

Überlegungen, ob und wie so ein Datenpool technologisch und gesellschaftlich umgesetzt werden kann oder welche ethischen Herausforderungen sich dabei in Bezug auf z. B. Datenschutz und Privatsphäre ergeben, möchte ich dabei nicht im Detail bearbeiten, jedoch theoretisch bedenken. Mein Master-Projekt soll zudem kein flexibles Designsystem in Form eines fertigen Lösungsvorschlags darstellen oder schwerpunktmäßig Themen wie Accessibility oder Usability abdecken.

Vielmehr möchte ich mein Master-Projekt als Experiment ansehen, um gestalterische Ansätze zu finden und Anreize zu geben, dieses Ziel umzusetzen. Ich sehe meine Arbeit dabei als Startpunkt und Ideenpool für weitere Nachforschungen.

Quellen
  1. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 158.

(Un-)Menschlickeit im digitalen Mittelalter

Der Film »Lo and Behold – Wovon träumt das Internet?« des Regisseurs Werner Herzog geht in seinen zehn Kapiteln der Geschichte des Internets und dessen Auswirkungen auf unsere Gesellschaft nach. In Gesprächen werden beispielsweise »Die Herrlichkeit des Netzes«, »Die dunkle Seite«, »Internet auf dem Mars« oder die Zukunft des Netzes thematisiert. Gesprächspartner sind dabei Leonard Kleinrock, Elon Musk, Sebastian Thrun sowie viele weitere wichtige Protagonisten dessen tägliche Arbeit vom Internet bestimmt wird oder deren Leben durch das Netz massiv verändert wurde.

Der Film »Lo and Behold – Wovon träumt das Internet?« des Regisseurs Werner Herzog geht in seinen zehn Kapiteln der Geschichte des Internets und dessen Auswirkungen auf unsere Gesellschaft nach. In Gesprächen werden beispielsweise »Die Herrlichkeit des Netzes«, »Die dunkle Seite«, »Internet auf dem Mars« oder die Zukunft des Netzes thematisiert. Gesprächspartner sind dabei Leonard Kleinrock, Elon Musk, Sebastian Thrun sowie viele weitere wichtige Protagonisten dessen tägliche Arbeit vom Internet bestimmt wird oder deren Leben durch das Netz massiv verändert wurde. Wie in meiner Dokumentation üblich, möchte ich keine Filmrezension schreiben, sondern lediglich die wichtigen Punkte herauspicken. Vor allem die Kapitel »Künstliche Intelligenz« und »Das Internet des Ichs« sind dabei spannend für mich.

In ersterem prophezeit Sebastian Thrun, dass wir an einen Punkt kommen werden, an dem fast alles von Maschinen übernommen werden kann und dass sie das meiste besser als wir Menschen können. Das liegt unter anderem daran, dass Maschinen sehr viel schneller lernen.1 Zudem erklärt er schon zuvor, dass die Fehler, die selbstfahrende Autos machen, sofort mit anderen – auch »ungeborenen« – Autos geteilt werden. Dadurch wird dieser Fehler niemals wiederholt, was ein enormer Vorteil gegenüber menschlichen Fahrern ist.2

Theologische Revolution

Solche grundlegenden Veränderungen, die durch das Internet und die Maschinen, die für uns denken, einhergehen, benötigen laut Computerwissenschaftler Danny Hillis eine Veränderung unserer Moral. Wir müssten über die Definition, was menschlich sein wirklich bedeutet, nachdenken und er sagt eine theologische Revolution voraus. Wir ergründen und entwickeln eine neue Gesellschaft sowie neue Ideen darüber, was richtig und falsch ist. Er sieht die momentane Zeit zudem als eine unglaublich kreative Zeit in der Menschheitsgeschichte – nicht nur technologisch, sondern auch moralisch und kulturell.3 Dieser Gedanke ist dem Luciano Floridis, der von einer neuen Informationsphilosophie spricht, sehr nahe. Auch er ist der Meinung, dass die Entwicklung einer neuen Philosophie notwendig ist, um dem rasanten Wandel, dem unsere Zeit unterliegt, gerecht zu werden.

Das digitale Mittelalter

Der Computerwissenschaftler sieht eine weitere Entwicklung, die den Gedanken Floridis sehr ähnlich ist. Während der Informationsphilosoph es als »Digitalen Gedächtnisverlust« formuliert (Die Hypergeschichte »), spricht Hillis vom »Digitalen Mittelalter«. Seinen Beobachtungen nach passieren heutzutage viele Dinge deren Hintergründe später nicht mehr nachvollziehbar sind. Während es noch handschriftliche Briefe der Gründerväter der USA gibt, wird heute vieles per E-Mail geklärt. Diese Unterhaltungen vorweg werden höchstwahrscheinlich also nicht mehr rekonstruierbar sein und verloren gehen.4 Während die Ausführung beider ziemlich unterschiedlich sind, entsprechen sie sich im Kern doch sehr. Im Grunde geht es bei beiden um eine nicht vorhandene oder verlorene Historie, welche es den Generationen nach uns sehr schwierig machen wird, die Hintergründe zu verstehen.

Das unsichtbare Internet

Während meines Researchs beschäftigt mich immer wieder das Verschwinden von Schnittstellen. Technologie wird zunehmend unsichtbar und rückt in den Hintergrund. Der Internetpionier Leonard Kleinrock erläutert im Film, dass ein Raum wissen müsste, wenn man da ist. Er spricht von Voice User Interfaces, so dass man mit der Technologie kommunizieren kann, welche wiederum mit Sprache, einem Hologram oder einem Display auf natürliche Weise antworten kann. Auch Gesten, Berührungen oder sogar das Miteinbeziehen des Geruchssinns hält er für möglich. Er vergleicht sie dabei mit der Elektrizität, welche einfach unsichtbar in unseren Wänden eingelassen ist. Zu dieser Unsichtbarkeit müsste sich das Internet jedoch noch entwickeln.5 Ähnlich sieht das der Sicherheitsanalytiker Sam Curry, welcher von Räumen spricht, in denen das Licht nach eigenen Vorlieben gedimmt oder die Musik angeschaltet wird, wenn man den Raum betritt.6 Vor allem der letzte Ansatz eines Smart Homes, ist heutzutage teilweise schon möglich. So können beispielsweise HUE-Lampen eingeschaltet werden, sobald sich das Smartphone mit dem W-LAN verbindet oder Lampen von z. B. Trilux je nach Tageslicht gesteuert werden.

Abschließend liefert mir der Film »Lo and Behold – Wovon träumt das Internet?« leider kaum neue Erkenntnisse oder Ansätze, welche ich für meine Master-Arbeit verwenden kann. Die interessanten Gedanken habe ich hier für mich zusammengefasst, jedoch habe ich vor allem im Hinblick darauf, dass Elon Musk oder Ted Nelson Teil des Films sind, mehr erwartet.

Quellen
  1. Vgl. Herzog, Werner: »Lo and Behold – Wovon träumt das Internet?«, 98 Minuten, Vereinigte Staaten 2016 [Deutschland 2017], TC: 01:23:30–01:24:22, VIII. Künstliche Intelligenz.
  2. Vgl. Ebd., TC: 00:34:56–00:36:18, II. Die Herrlichkeit des Netzes.
  3. Vgl. Ebd., TC: 01:24:23–01:25:08, VIII. Künstliche Intelligenz.
  4. Vgl. Ebd., TC: 01:29:46–01:30:20, IX. Das Internet des Ichs.
  5. Vgl. Ebd., TC: 01:26:17–01:27:20, IX. Das Internet des Ich.
  6. Vgl. Ebd., TC: 01:27:20–01:28:28, IX. Das Internet des Ich.

Punkt.

Bei meiner Auseinandersetzung mit Informationssystemen, Hypermedia sowie der Entwicklung des Internets stoße ich regelmäßig auf neue Namen, welche im Vorfeld des World Wide Webs richtungsweisende Konzepte und Arbeiten entwickelten. Mit manchen von ihnen habe ich mich bereits während meiner Recherche beschäftigt, andere muss ich leider bewusst außen vor lassen, um mich auf die wesentlichen Punkte meiner Arbeit zu konzentrieren.

Bei meiner Auseinandersetzung mit Informationssystemen, Hypermedia sowie der Entwicklung des Internets stoße ich regelmäßig auf neue Namen, welche im Vorfeld des World Wide Webs richtungsweisende Konzepte und Arbeiten entwickelten. Darunter einige mir bis dahin unbekannte, wie beispielsweise Andries van Dam, Eugene Garfield, Wendy Hall oder Ada Lovelace, sowie in der Allgemeinheit sicherlich bekanntere, wie Charles Babbage, Gottfried Wilhelm Leibniz, Ted Nelson, Alan Mathison Turing oder Konrad Zuse.

Die Namen stehen für die unterschiedlichsten Erfindungen: für Rechenmaschinen, den ersten Algorithmus, Hypermedia-Systeme oder Theorien über Computerentwicklung und Informatik. Die meisten haben jedoch eines gemeinsam: Sie sind thematisch zu weit von meinem Thema weg. Mit manchen von ihnen habe ich mich bereits während meiner Recherche beschäftigt, andere muss ich leider bewusst außen vor lassen, um mich auf die wesentlichen Punkte meiner Arbeit zu konzentrieren.

Hypertext Editing System Console Brown University 1969
Das Hypertext Editing System von Ted Nelson und Andries van Dam in Zusammenarbeit mit Studenten der Brown UniversityI
Photograph of Eugene Garfield, recipient of the 2007 Richard J. Bolte Sr. Award, at Heritage Day, May 9, 2007, at the Chemical Heritage Foundation.
Eugene Garfield, Erfinder des »Science Citation Index« (SCI) sowie »Journal Impact Factor«. Diese Gewichtung von Zitationszusammenhängen bildet die Basis des heutigen Google PageRanks.II
Wendy Hall
Wendy Hall entwickelte das Hypermedia-System »Microcosm«, welches sich vor allen Dingen durch die dynamische Verlinkung von Informationen basierend auf Inhalten, dem Kontext und Metadaten auszeichnet.III
Ada Lovelace
Ada Lovelace gilt als erste Programmiererin. Sie schrieb 1843 den ersten Algorithmus und veröffentlichte ein Programm für Charles Babbages nie vollendeten, mechanischen Computer »Analytical Engine«.
Charles Babbage | Analytical Engine
Charles Babbage entwarf den unfertigen, mechanischen Computer »Analytical Engine«. Sie stellt eine Rechenmaschine für allgemeine Anwendungen dar.IV
Rechenmaschine Gottfried Wilhelm Leibniz
Gottfried Wilhelm Leibniz erfand eine Rechenmaschine, welche die vier Grundrechenarten beherrscht.V
Ted Nelson – Xanadu
Ted Nelson prägt 1965 den Begriff Hypertext und schrieb von literarischen Maschinen, welche dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren. Seine wahrscheinlich bekannteste Arbeit ist das Hypertext-Projekt Xanadu, welches 1960 seinen Anfang nahm.VI
Alan Turing
Alan Turing führte 1963 die Turingmaschine ein, welches ein wichtiges Rechnermodell der theoretischen Informatik ist. Der Turing-Test gilt als Probe für den Nachweis künstlicher Intelligenz und die 4. Revolution wird Turing-Revolution genannt. Spätestens seit dem Film »Imitation Game« dürfte er weitestgehend bekannt sein.VII
Konrad Zuse Z3
Mit dem Z3 entwickelte Konrad Zuse den ersten funktionstüchtigen, vollautomatischen, programmgesteuerten und frei programmierbaren Digitalrechner. Er gilt damit als Erfinder des Computers.VIII
Abbildungen
  1. Lloyd, Gregory: »Photo of the Hypertext Editing System (HES) console in use at Brown University«, Stand: Oktober 1969, via Wikimedia Commons, abgerufen am 30.9.2017, Lizenz: CC BY 2.0.
  2. Science History Institute: »Photograph of Eugene Garfield, recipient of the 2007 Richard J. Bolte Sr. Award, at Heritage Day, May 9, 2007, at the Chemical Heritage Foundation.«, Stand: 9.5.2007, via Wikimedia Commons, abgerufen am 26.1.2017, Lizenz: CC BY-SA 3.0.
  3. Mabbett, Andy: »Wendy Hall at the Wikipedia Science Conference, London 2/3 September 2015«, Stand: 2.9.2015, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 4.0.
  4. Science Museum London/Science and Society Picture Library: »Babbages Analytical Engine, 1834-1871«, Stand: 28.8.2013, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 2.0.
  5. Museum Herrenhausen Palace: »Leibniz‘ Vier-Spezies-Rechenmaschine – Original, um 1690«, Stand: 7.9.2013, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY 3.0.
  6. Unbekannt: »Mockup of transpointing windows, closeup view, 1972«, URL: http://www.xanadu.com.au/ted/XUsurvey/xuDation.html, abgerufen am 23.10.2017.
  7. Yates, Tom: »Bombe – Rebuild«, Stand: 17.4.2014, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 3.0.
  8. Venusianer, Wikipedia Deutschland: »Nachbau der Zuse Z3 im Deutschen Museum in München«, Stand: 20.9.2006, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 3.0.

Hyperland: Durch Micons ans Ziel

Der Dokumentarfilm (oder die Fantasy-Dokumentation) »Hyperland« aus dem Jahr 1990 wurde von Douglas Adams geschrieben und von Max Whitby produziert. In dem 50-minütigen Film geht es unter anderem um interaktives Multimedia sowie andere Technologien wie z.B. einen VR-Helm. Er zeigt dabei vorstellbare Ansätze für ein Hypermedium.

Der Dokumentarfilm (oder die Fantasy-Dokumentation1) »Hyperland« aus dem Jahr 1990 wurde von Douglas Adams geschrieben und von Max Whitby produziert. In dem 50-minütigen Film geht es unter anderem um interaktives Multimedia sowie andere Technologien wie z.B. einen VR-Helm. Er zeigt dabei vorstellbare Ansätze für ein Hypermedium.

Der Software-Agent stellt sich vor

Der Hauptdarsteller Douglas Adams schläft vor dem Fernseher ein und trifft in seinem Traum auf Tom Baker – die Personifizierung eines Software-Agenten. Mit der Frage, ob Adams gelangweilt vom linearen, nicht-interaktiven Fernsehen ist, tritt er mit Adams in Kontakt. Da jener aber überfordert mit dieser neuen Form der Kommunikation ist, fordert ihn der Agent auf, mit ihm zu interagieren. Baker beschreibt sich als eine Simulation, eine künstliche und komplett anpassbare Persönlichkeit, die nur als Anwendung in seinem Computer existiert.
Optisch an einen Butler angelehnt, präsentiert er sich dabei als selbstloser Assistent, der jederzeit für jede Art von Arbeit bereit ist. Er könne ihm sofortigen Zugang zu jedem Stück Information, das digital irgendwo auf der Welt gespeichert ist, ermöglichen: Jedes Bild, jeder Film, jeder Sound, jedes Buch, jede Statistik, jeder Fakt. Jede Verbindung zwischen allem, was er sich nur vorstellen kann.2

Hyperland | Konfigurationsoberfläche
Konfigurationsoberfläche für den Software-Agenten Tom BakerII

Als nächstes stellt der Agent die Konfigurationsoberfläche vor, von wo aus Adams alle Einstellungen vornehmen kann. Über eine grafische Benutzeroberfläche hat man die Wahl, wie der Assistent sprechen soll – ob forsch oder freundlich oder mit welchem Akzent –, was er an hat oder welche Spezies er sein soll.3 Es wird suggeriert, dass der Nutzer die komplette Kontrolle besitzt und alles erdenkliche auch möglich ist.
Bei der Frage, welchen Namen diese Software hat, nennt Tom Baker eine ganze Liste: Dynabook, Hyperspace, Cyberia, Infinite Virtual Address Space, Intelligent TV, Interactive Television, Interactive Multimedia oder Hypertext.4

Anlehnung an ein Hypermedium

Hyperland ist in seinem Aufbau selbst an ein Hypermedium angelehnt. So klickt sich Adams mithilfe seines Agenten über sogenannte Micons – ein Kunstwort aus Moving und Icons – durch den Informationsraum. Die geloopten Micons stehen dabei für eine Idee, ein Konzept oder ein Stück Information in irgendeiner Form.5
Neben diversen Beispielen interaktiver Systeme stellt Tom Baker Auszüge der historischen Entwicklung vor. So erwähnt er Vannevar Bushs Memex, Ted Nelsons Hypertext-Idee, die Gründung des MIT Media Labs und des Multimedia Labs, sowie Robert Abel,6 welcher als Pionier der Computeranimation und visueller Effekte7 oder sogar als Vater interaktiver Erfahrungen gilt.

Adams gelangt dabei zusammen mit Baker immer tiefer in die Informationssphäre, was am Beispiel des Atlantic Monthly, in dem Vannevar Bush seinen berühmten Essay »As We May Think« veröffentlichte, demonstriert wird. Douglas Adams wählt naheliegenderweise den Atlantik als nächstes Ziel. Hierüber gelangen sie zur Ökologie, Ozeanografie, Schifffahrt, Literatur und zu einem Live Feed. Der Live Feed zeigt als Quellen die Labrador-Basis und den Azoren-Gibraltar-Rücken. Auf Nachfrage, ob das wirklich live wäre, gesteht Baker ein, dass die Bilder 10 Sekunden Verzögerung hätten, was also live wäre.
Als weiteren »Tiefgang« wird die Sparte Literatur vorgestellt, welche passend zum Atlantik, assoziative Verknüpfungen zu Melville, Conrad, Hemingway, Coloridge, CS Forrester oder »Mehr« zeigt. Texte werden dabei parallel vorgelesen, da die Autoren scheinbar über Wasser schreiben.8

Im weiteren Verlauf werden verschiedene Systeme vorgestellt, so z. B. die interaktive Anwendung »Life Story – Demonstration Prototype« des MIT Labs. Auf den Film »Life Story« zugeschnitten, können beispielsweise spezielle Inhalte ausgewählt oder Transkriptionen abgerufen werden. Das Team bestand aus Steve Gano, Kristee Kreitman, Kristina Hooper, Mike Naimark und Fabrice Florin. Letzterer spricht im Interview davon, dass das interessante an Multimedia die Tatsache ist, dass man viele Stories zusammenführen kann. Es gibt nicht nur eine, sondern eine Verflechtung vieler. Diese Vielzahl macht aus seiner Sicht den Unterschied, so dass man von einer zur anderen wandert und den Themenkomplex aus unterschiedlichsten Blickwinkeln betrachten und miteinander vergleichen kann.9

Resümee

Für meine Nachforschungen hat der Film inhaltlich leider keinen großen Mehrwert. Zum einen liebe ich jedoch die Art und Weise, wie er umgesetzt ist. Zum anderen faszinieren mich die damaligen Ansichten, welche einerseits sehr zukunftsweisend wirken, andererseits aber sicher genau am Geist der Zeit liegen. Mitten im Aufbruch und längst auf dem Weg in ein neues Zeitalter.

Quellen
  1. Vgl. »Hyperland« in: »Wikipedia, the free encyclopedia«, Stand: 7.3.2017, URL: https://en.wikipedia.org/wiki/Hyperland, abgerufen am 6.12.2017.
  2. Vgl. Whitby, Max; geschrieben von: Adams, Douglas: »Hyperland«, Dokumentation, 50 Minuten, Vereinigtes Königreich 1990, TC: 00:03:17–00:05:14.
  3. Vgl. Ebd., TC: 00:05:14–00:06:18.
  4. Vgl. Ebd., TC: 00:06:32–00:06:40.
  5. Vgl. Ebd., TC: 00:07:20–00:08:10.
  6. Vgl. Ebd., TC: 00:06:40–00:07:20.
  7. Vgl. »Robert Abel (animator)« in: »Wikipedia, the free encyclopedia«, Stand: 28.8.2017, URL: https://en.wikipedia.org/wiki/Robert_Abel_(animator), abgerufen am 6.12.2017.
  8. Vgl. Whitby, Max; geschrieben von: Adams, Douglas: »Hyperland«, Dokumentation, 50 Minuten, Vereinigtes Königreich 1990, TC: 00:12:0–00:14:20.
  9. Vgl. Ebd., TC: 00:31:32–00:32:53.
Abbildungen
  1. Titelbild: Eigener Screenshot; Whitby, Max; geschrieben von: Adams, Douglas; mprove: »Hyperland‹«, Dokumentation, 50 Minuten, Vereinigtes Königreich 1990, URL: https://vimeo.com/72501076, TC: 00:07:27, abgerufen am 6.12.2017.
  2. Vgl. Ebd., TC: 00:06:14.

Fußnoten als Wegpunkte der Assoziations-Pfade

Eugene Garfield ist unter anderem der Gründer des »Science Citation Index« (SCI) sowie der Erfinder des »Journal Impact Factor«. Der SCI ist eine Zitationsdatenbank, welche als Vorläufer des »Web of Science« zählt. Die Anfang der 60er Jahre erfundene Datenbank enthält Informationen darüber, welche Publikationen von welchen zitiert werden. Die systematische Erfassung der wissenschaftlichen Fußnoten macht damit Zitationszusammenhängen deutlich. Der Journal Impact Factor ist dagegen ein Art Ranking, welches die Häufigkeit der Zitationen – somit also den Einfluss auf andere Veröffentlichungen – angibt.

Eugene Garfield ist unter anderem der Gründer des »Science Citation Index« (SCI) sowie der Erfinder des »Journal Impact Factor«. Der SCI ist eine Zitationsdatenbank, welche als Vorläufer des »Web of Science« zählt. Die Anfang der 60er Jahre erfundene Datenbank enthält Informationen darüber, welche Publikationen von welchen zitiert werden. Die systematische Erfassung der wissenschaftlichen Fußnoten macht damit Zitationszusammenhänge deutlich.1 Der Journal Impact Factor ist dagegen ein Art Ranking, welches die Häufigkeit der Zitationen – somit also den Einfluss auf andere Veröffentlichungen – angibt.

Photograph of Eugene Garfield, recipient of the 2007 Richard J. Bolte Sr. Award, at Heritage Day, May 9, 2007, at the Chemical Heritage Foundation.
Eugene Garfield am 9. Mai 2007I

Seine grundsätzliche Idee war dabei, so Alex Wright, dass man vergessen kann, was im Artikel selbst steht. Das wichtigste findet man in den Fußnoten und als eine Art Hyperlink kann man über sie den Pfaden aus Assoziationen folgen.2 Wright erläutert weiter, dass dieses Citation Ranking die direkte Basis für das heutige Google PageRank ist.3

Auch wenn ich Eugene Garfields Erfindung nicht in einer Sparte mit denen von beispielsweise Paul Otlet oder Vannevar Bush sehe, erkenne ich eine ähnliche Wertschätzung gegenüber assoziativen Verknüpfungen. Während sich Otlet und Bush auch dem »dazwischen«, nämlich den Informationen und dem Wissen zwischen den Verbindungen, widmen, hebt Garfield ausschließlich die Verknüpfungen selbst hervor. Auch Berners-Lee betont bei jeder Gelegenheit, dass man in einer extremen Sichtweise die Welt ausschließlich als aus Verbindungen bestehend sehen kann und er die Idee mag, dass jedes Stück Information nur durch dessen Beziehung zu anderen Informationen definiert wird.4 Auch wenn es im World Wide Web im Allgemeinen nicht um die Gewichtung von Inhalten geht – das übernimmt Google PageRank –, liegt der grundsätzliche Gedanke, nämlich dass eine Information durch eine andere definiert wird, sehr nah beieinander.

Quellen
  1. Vgl. »Science Citation Index« in: »Wikipedia, Die freie Enzyklopädie«, Stand: 26.2.2017, URL: https://de.wikipedia.org/wiki/Science_Citation_Index, abgerufen am 26.11.2017.
  2. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:33:49–00:35:40, abgerufen am 18.8.2017.
  3. Vgl. Ebd., TC: 00:35:45–00:36:09.
  4. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 12.
Abbildungen
  1. Science History Institute: »Photograph of Eugene Garfield, recipient of the 2007 Richard J. Bolte Sr. Award, at Heritage Day, May 9, 2007, at the Chemical Heritage Foundation.«, Stand: 9.5.2007, via Wikimedia Commons, abgerufen am 26.1.2017, Lizenz: CC BY-SA 3.0.

Von der SciFi-Vision zur Wissenschaft

H. G. Wells ist ein englischer Schriftsteller und träumte von einem »World Brain«. In seiner gleichnamigen Sammlung aus Essays und Talks aus den Jahren 1936–1938 beschreibt er seine Vision einer neuen, freien, synthetischen, autoritativen und permanenten Welt-Enzyklopädie.

H. G. Wells ist ein englischer Schriftsteller und träumte von einem »World Brain«. In seiner gleichnamigen Sammlung aus Essays und Talks aus den Jahren 1936–1938 beschreibt er seine Vision einer neuen, freien, synthetischen, autoritativen und permanenten Welt-Enzyklopädie.1

»World Brain« von H. G. Wells aus dem Jahr 1938I

Laut Alex Wright glaubt er daran, dass der Schlüssel Konflikte zwischen Ländern zu lösen darin liegt, den freien Fluss von Informationen zu ermöglichen. So käme es nämlich zu einem Ungleichgewicht, welches mit einem Art universellen Verständnis, wie die Welt funktioniert, wieder ausgeglichen wird.2
Weiter zitiert er H. G. Wells, dass das gesamte menschliche Wissen für jedes Individuum verfügbar gemacht werden könnte und das wahrscheinlich schon bald so sein wird. Zwar wurde Information mit dem Telefon oder Telegraf nur elektronisch und nicht digital, womit jedoch möglicherweise eine globale Enzyklopädie und ein Netzwerk der Wissensgenerierung geschaffen werden könnte.3 Alex Wright hebt hervor, dass Wells in seinen Beschreibungen eine Reihe von organischen Metaphern verwendet. So spricht er beispielsweise von einer Enzyklopädie mit zahlreichen Tentakeln und Ganglien.4

Eine erste Vorstellung war jedoch eine Welt-Enzyklopädie, die aus einer Reihe von Bänden besteht und im eigenen Haus oder zumindest in Häusern oder Bibliotheken in der Nähe gelagert wären und die auf dem aktuellen Stand gehalten werden würden. Die Inhalte wären dabei sehr sorgfältig ausgewählt.5

Mit seiner SciFi-Vision hielt Wells sogar einen Vortrag auf dem Weltkongress der universellen Dokumentation, welcher unter anderem das Ziel hatte, Ideen und Methoden zur Umsetzung des »World Brains« zu diskutieren.6
Sowohl H. G. Wells als auch Paul Otlet waren bereits 1933 bei diesem Kongress, jedoch ist unklar, ob sich die beiden dort getroffen hatten. Ähnlich wie Wells spricht jedoch auch Otlet von einem Schreibtisch der Zukunft, der ausgestattet mit einem Bildschirm sowie möglicherweise einem Telefon zulässt, Dokumente automatisch abzurufen.7

Weiter scheint der Autor Arthur C. Clarke von Wells inspiriert worden zu sein. So sagt er in »Profiles of the Future« vorher, dass Wells World Brain in zwei Schritten stattfinden würde. Der erste würde der Bau einer Welt-Bibliothek sein, welche für Jedermann per Computer-Terminal von zu Hause zugänglich sein würde. Diese Phase 1 sagte er für das Jahr 2000 voraus. In der zweiten Phase könnten Menschen mit dem World Brain als superintelligente AI interagieren und mit ihr diverse Probleme der Welt lösen. Die Welt-Bibliothek wäre dabei ein Teil des World Brains, welches 2010 komplett wäre.8 Auch Eugene Garfield konstatiert Wells Vision eine großartige Zukunft und prophezeit, dass der Science Citation Index ein Vorläufer dessen ist.9 Brian R. Gaines sieht sogar das World Wide Web als Erweiterung des World Brains, auf das Menschen nun mit PCs zugreifen konnten.10

Wie schon in meiner Ausführung über Paul Otlet hervorgebracht, finde ich es erstaunlich, wie früh schon an Konzepten und Gedankenexperimenten für einen universellen Informationsraums gearbeitet wurde. Umso deutlicher wird mir, dass der Status Quo des Webs noch lange nicht das erreichte Ziel ist. Ich habe bereits Teile von Ted Nelsons Kritik an der Umsetzung des World Wide Webs angeführt und auch Alex Wright sieht Otlets Vision in mancher Hinsicht als anspruchsvoller als das World Wide Web selbst. Zwar ist das Web tief verankert in unserem Alltag, nichtsdestotrotz ist es erst 30 Jahre alt. Da das in der Geschichte nur ein winziger Zeitraum ist, ist es tatsächlich fraglich, ob das Web in seiner heutigen Form überleben kann – selbst, wenn es unglaublich ist, dass nicht. Ein weiteres amüsantes Detail ist, dass Wells SciFi-Vision in der Welt der Wissenschaft angekommen ist und sogar als Redner Platz auf dem genannten Kongress gefunden hat.

H. G. Wells wird mich in meiner Recherche vermutlich nicht weiter voranbringen, seine Idee wird jedoch immerhin einen kleinen Nebenzweig meiner Dokumentation darstellen. Des Weiteren motiviert mich diese Auseinandersetzung, Arthur C. Clarkes Buch zu lesen, da ich den Autor schon durch »2001: Odyssee im Weltraum« zu schätzen gelernt habe.

Quellen
  1. Vgl. »World Brain« in: »Wikipedia, the free encyclopedia«, Stand: 22.10.2017, URL: https://en.wikipedia.org/wiki/World_Brain, abgerufen am 10.11.2017.
  2. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:10:12–00:11:23, abgerufen am 18.8.2017.
  3. Vgl. Ebd., TC: 00:11:24–00:12:06.
  4. Vgl. Ebd., TC: 00:12:07–00:13:33.
  5. Vgl. »World Brain« in: »Wikipedia, the free encyclopedia«, Stand: 22.10.2017, URL: https://en.wikipedia.org/wiki/World_Brain, abgerufen am 10.11.2017.
  6. Vgl. Ebd.
  7. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 99, abgerufen am 28.9.2017.
  8. Vgl. »World Brain« in: »Wikipedia, the free encyclopedia«, Stand: 22.10.2017, URL: https://en.wikipedia.org/wiki/World_Brain, abgerufen am 10.11.2017.
  9. Vgl. Ebd.
  10. Vgl. Ebd.
Abbildungen
  1. H.G. Wells: »Cover of the book World Brain by H. G. Wells. Published by Methuen & Co Ltd, London, 1938.«, Stand: 26.2.2015, via Wikimedia Commons, abgerufen am 10.11.2017.

Das Hypertext Editing System

Als Wegbegleiter Ted Nelsons möchte ich zumindest beiläufig Andries van Dam in meine Dokumentation mit aufnehmen.
Zusammen mit Studenten der Brown University arbeiteten sie am ersten Hypertext-System, dem Hypertext Editing System (HES), sowie am Nachfolger, dem File Retrieval and Editing System (FRESS). Es erschien 1967 und somit ein Jahr vor Doug Engelbarts oNLine-System.

Als Wegbegleiter Ted Nelsons möchte ich zumindest beiläufig Andries van Dam in meine Dokumentation mit aufnehmen.
Zusammen mit Studenten der Brown University arbeiteten sie am ersten Hypertext-System, dem Hypertext Editing System (HES), sowie am Nachfolger, dem File Retrieval and Editing System (FRESS).1 Es erschien 1967 und somit ein Jahr vor Doug Engelbarts oNLine-System.

David Edward Rice beschreibt es in einer schriftlichen Ausarbeitung aus dem Jahr 1967 als interaktives Mensch-Maschine-Computersystem zur Textmanipulation, -darstellung und -setzung. Zudem besitzt es ein ausgefeiltes System zur Erstellung und Bearbeitung von Manuskripten, sowie einer Lesemaschine, auf dem das Geschriebene durchsucht und beliebig komplexer Struktur abgefragt werden konnte.2

Die Textstrukturen können in dem System auf beliebige Weise miteinander verknüpft werden, während sich der Benutzer während dem Lesen an diesen Verbindungen entlang hangeln kann. Herkömmliche Unterteilungen wie beispielsweise Zeilen, Seiten und Seitenzahlen sind laut ihm nicht vorhanden, da die Verknüpfungsstruktur an allen Anwendungen im System beteiligt ist.3 Texte, die nicht semantisch sind, aber komplexe Verknüpfungen zwischen ihren Fragmenten besitzen, nennt man dabei »Hypertext«. Das hebt es von der linearen Struktur ab und das System ermöglicht es Hypertexte zu erstellen, sie zu bearbeiten, neu anzuordnen und auszudrucken.
Die zerstückelten Texte können mit einem »Standardcomputer«, nämlich dem IBM 360/50 und einem 2250 Display (12″ x 12″), auf verschiedene Arten durchsucht werden.4

Rice schreibt, dass das Ziel des Systems sei, ein »universelles Textverarbeitungs- und -bearbeitungssystem für Autoren, Redakteure und Online-Leser zu erstellen«5.

Das Hypertext Editing System scheint entgegen erster Erwartungen sehr umfangreich zu sein, Andries van Dams Benutzerhandbuch besteht immerhin aus 33 Seiten.

Quellen
  1. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:48:58–00:50:40, abgerufen am 18.8.2017.
  2. Vgl. Rice, David Edward: »Computer-Assisted Text Manipulation – A Look at The Current State of the Art And a Particular Example, The Hypertext Editing System«, Stand: 1967, URL: https://archive.org/details/TNM_The_Hypertext_Editing_System_computer-assiste_20171120_0001, S. 46, abgerufen am 1.11.2017.
  3. Vgl. Ebd., S. 46 f.
  4. Vgl. Ebd., S. 47.
  5. Ebd., S. 48 f.
Abbildungen
  1. Lloyd, Gregory: »Photo of the Hypertext Editing System (HES) console in use at Brown University«, Stand: Oktober 1969, via Wikimedia Commons, abgerufen am 30.9.2017, Lizenz: CC BY 2.0.

Ted Nelsons Xanadu als Wegbereiter des World Wide Webs?

Bei der Recherche über das World Wide Web darf Ted Nelson nicht fehlen. Er prägt 1965 den Begriff Hypertext und schrieb von literarischen Maschinen, welche dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren. Zudem träumt er von einer utopischen Gesellschaft, in der Menschen alle Informationen teilen können und sich auf Augenhöhe begegnen. Die wahrscheinlich bekannteste Arbeit von Ted Nelson ist das Hypertext-Projekt Xanadu, welches 1960 seinen Anfang nahm.

Bei der Recherche über das World Wide Web darf Ted Nelson nicht fehlen. Er prägt 1965 den Begriff Hypertext und schrieb von literarischen Maschinen, welche dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren.1 Zudem träumt er von einer utopischen Gesellschaft, in der Menschen alle Informationen teilen können und sich auf Augenhöhe begegnen.2 Seine wahrscheinlich bekannteste Arbeit ist das Hypertext-Projekt Xanadu, welches 1960 seinen Anfang nahm.

Das Projekt Xanadu

Durch das Projekt Xanadu soll ein »Docuverse«, ein Universum aus Dokumenten, entstehen, welches es möglich macht, jegliche Literatur fest miteinander zu verflechten.
Alex Wright beschreibt in seinem Vortrag, dass es bei Xanadu nicht nur um simple Verlinkungen geht, sondern um dynamische Beziehungen, wenn ein Abschnitt in einen anderen Abschnitt kopiert wird. Das Dokument lebt innerhalb des anderen weiter, jedes hat seinen Platz und wird dynamisch upgedatet.3

In einer Demonstration von Xanadu Space, der meinem Verständnis nach letzten Xanadu-Version vor der aktuellen OpenXanadu aus dem Jahr 2013, spricht Ted Nelson über seine ursprüngliche Hypertext-Idee. Als Schreibender sah er das Blatt Papier als Gefängnis, durch das der Text von vier Wänden eingesperrt wurde und aus dem Ideen entfliehen wollten. Klammern oder Fußnoten sind dabei erste Hinweise darauf, dass ein Bedarf besteht, Texte miteinander zu verbinden oder mit zusätzlichen Informationen zu versehen. Mit der Erfindung von Computern sah er die Möglichkeit, aus diesem Papiergefängnis zu entfliehen.4
Mit elektronischen Dokumenten sind viele Dinge möglich, die mit Papier nicht umsetzbar sind. Umso irrsinniger ist es aus seiner Sicht, dass alle versuchen Papier zu imitieren; so z. B. Adobes Acrobat oder Microsofts Word. Er kann nicht verstehen, wieso es nicht möglich ist Randnotizen zu machen, da er Parallelität als großen Vorteil elektronischer Schriftstücke sieht. Diese Parallelität macht es laut ihm einfacher, Texte zu schreiben und zu lesen.5

Xanadu sieht Nelson als Lösung des Problems. Bei seiner Präsentation zeigt er den dreidimensionalen Raum, der in seinem Beispiel aus elf Dokumenten und 27 Verweisen besteht. Neben den »Deep Links« für Inhaltsverknüpfungen, liefert er einen wichtigen Ansatz mit dem von ihm geprägten Begriff »Transklusion«.

Mit Transklusion ist die Verbindung zwischen einem Hauptdokument und einer Begleitseite gemeint. Dabei sind die Inhalte an verschiedenen Orten verfügbar und das Hauptdokument wird auf diese Weise mit weiteren Informationen verbunden.6 Dabei geht es nicht um einen Link zum ursprünglichen Inhalt, sondern um eine Wiederverwendung dessen.7 Das bedeutet, dass beispielsweise Änderungen im originalen Text, dynamisch im aktuellen Dokument geupdatet werden. Nelsons Beschreibung nach »ist die Transklusion das, was Zitat, Nachahmung und Querverweis lediglich versuchen. […] Alias und Caches sind Formen der Transklusion«8. Er bemerkt zusätzlich, dass Vannevar Bushs Idee des Memex mit Transklusionen anstelle von Links arbeitet.9

In Xanadu Space werden sie sichtbar, wenn man sich durch die Hauptseite klickt. Man erhält parallel die verbundene Information, die auf der Begleitseite im eigentlichen Kontext zu sehen ist.10 In diesem riesigen Kosmos aus Verknüpfungen, kann man einer Verbindung folgen und genau nachvollziehen, was sie bedeutet.11 Damit besteht der Informationsraum aus vielen Informationsatomen, die Klammern, Fußnoten oder Formulierungen wie »Wie schon erwähnt« überflüssig machen.

Unterschiede zum und Probleme mit dem World Wide Web

Ted Nelson hat offensichtlich ein Problem mit dem aktuellen Aufbau des World Wide Webs. So schreibt er beispielsweise in »I DON’T BUY IN«, dass das Web kein Hypertext ist, sondern nur dekorierte Verzeichnisse. Er fügt hinzu, dass es bei Xanadu ausschließlich um die Dokumentenstruktur geht, so dass Autoren und Leser nicht über Dateistrukturen oder hierarchische Verzeichnisse nachdenken müssen, sondern sich auf das wesentliche konzentrieren können. Gleichermaßen ist er der Ansicht, dass das Dokument und das MarkUp voneinander getrennt sein müssen, um den Inhalt nicht mit der Präsentation zu vermischen.12 Auf technischer Ebene sieht er einen fundamentalen Fehler des Webs darin, dass Links nur in eine Richtung führen. Er macht deutlich, dass es eine Alternative zum aktuellen Aufbau des World Wide Webs gibt und sie – vermutlich das Team und Xanadu-Anhänger – weiter dafür kämpfen werden.13

Offen gesagt fällt es mir schwer zu beurteilen, inwiefern Ted Nelson mit seinen Aussagen richtig liegt. In manchen Teilen meiner Auseinandersetzungen hatte ich das Gefühl, dass er den verlorenen Kampf nicht akzeptieren will und aus diesem Grund an mancher Stelle behauptet wird, dass Tim Berners-Lee seine Idee geklaut und schlecht umgesetzt hat. Auf der anderen Seite halte ich vor allem die Verwendung von Transklusionen für großartig und dem Web bei weitem voraus. Das treibt meiner Meinung nach den Gedanken einer völligen Vernetzung sinnvoll weiter. Auch die Verwendung bidirektionaler Links halte ich hierbei für einen Fortschritt. Ähnlich wie bei Bushs Memex sehe ich die Möglichkeit, Inhalte nicht nur miteinander zu verknüpfen, sondern Verknüpfungen nachvollziehen zu können. Hierdurch kann wiederum neues Wissen generiert werden.

Um diese Frage final zu klären, müsste ich mich durch die unzählig vorhandenen Dokumente über Xanadu arbeiten, was ich aus Zeitgründen nicht tun werde; dafür ist sie für mein gesamtes Masterthema letztendlich nicht wichtig genug. Jedoch werde ich mich eventuell in einem weiteren Beitrag der Frage widmen, inwiefern ein System wie Xanadu Auswirkungen auf das UI im Web hätte. Bisherige visuelle Eindrücke halte ich nämlich nicht für sonderlich praktikabel oder zumindest nicht für sehr ansprechend.

Abschließend möchte ich noch – völlig umkommentiert – weitere Begriffe für mich festhalten, die Nelson geprägt hat. Alex Wright erwähnt sie in seinem Vortrag und sie könnten möglicherweise zu einem späteren Zeitpunkt wichtig werden: stretchtext, zippered list, window sandwiches, indexing vortexes, part-punces, tumblers, collateral hypertext, Hummers, thinkertoys, fresh hyperbooks, anthological hyperbooks, grand systems.14

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 5.
  2. Vgl. Ebd.
  3. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:44:40–00:45:56, abgerufen am 18.8.2017.
  4. Vgl. Nelson, Theodor Holm, photonhunter: »Ted Nelson demonstrates Xanadu Space«, Stand: 6.9.2008, URL: https://www.youtube.com/watch?v=En_2T7KH6RA, TC: 00:30:00–00:01:20, abgerufen am 23.10.2017.
  5. Vgl. Ebd., TC: 00:01:20–00:02:30.
  6. Vgl. Ebd., TC: 00:03:12–00:04:52.
  7. Vgl. Nelson, Theodor Holm; Project Xanadu; Keio University: »Xanalogical Structure, Needed Now More than Ever: Parallel Documents, Deep Links to Content, Deep Versioning and Deep Re-Use«, URL: http://www.xanadu.com.au/ted/XUsurvey/xuDation.html, Absatz 4, abgerufen am 23.10.2017.
  8. Ebd., Absatz 6.
  9. Vgl. Ebd., Absatz 9.
  10. Vgl. Nelson, Theodor Holm, photonhunter: »Ted Nelson demonstrates Xanadu Space«, Stand: 6.9.2008, URL: https://www.youtube.com/watch?v=En_2T7KH6RA, TC: 00:03:12–00:04:52, abgerufen am 23.10.2017.
  11. Vgl. Ebd., TC: 00:04:56–00:05:10.
  12. Vgl. Nelson, Theodor Holm: »I DON‘T BUY IN«, URL: http://ted.hyperland.com/buyin.txt, abgerufen am 24.10.2017.
  13. Vgl. Ebd.
  14. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:46:53–00:47:46, abgerufen am 18.8.2017.
Abbildungen
  1. Titelbild: Unbekannt: »Mockup of transpointing windows, closeup view, 1972«, URL: http://www.xanadu.com.au/ted/XUsurvey/xuDation.html, abgerufen am 23.10.2017.

Der Memex als Ergänzung des Gedächtnis

Nachdem ich in meinen Beiträgen »Assoziative Verlinkungen und Generierung von Wissen« und »Wir wie vielleicht denken« dem fiktiven Schreibtisch von Vannevar Bush nachgegangen bin und dabei dritte Quellen verwendet hatte, möchte ich mich Bushs ursprünglichen Essay »As We May Think« widmen, der 1945 im The Atlantic Monthly veröffentlicht wurde.

Nachdem ich in meinen Beiträgen »Assoziative Verlinkungen und Generierung von Wissen« und »Wir wie vielleicht denken« dem fiktiven Schreibtisch von Vannevar Bush nachgegangen bin und dabei dritte Quellen verwendet hatte, möchte ich mich Bushs ursprünglichen Essay »As We May Think« widmen, der 1945 im The Atlantic Monthly veröffentlicht wurde.

Die Grundzüge des Memex hatte ich bereits verstanden. In seinem Essay erläutert er sein Arbeitsgerät detailliert, ordnet seine Vorstellung vorab in den zeitlichen Kontext ein und spricht über vorherrschende Bedürfnisse und mögliche Anwendungen.

Bushs Vision

Wie schon bekannt, ist Bush davon überzeugt, dass der Geist im Gegensatz bisheriger Indizierungssysteme, die alphabetisch oder numerisch aufgebaut sind, assoziativ arbeitet. Dabei ist es laut ihm die »Künstlichkeit der Indizierungssysteme, die es erschwert, Zugang zu den Aufzeichnungen zu bekommen«1. Gleichermaßen ist er der Auffassung, dass die Auswahl durch Assoziation mechanisiert werden müsse.2

Vannevar Bush 1940
Vannevar Bush 1940I

Wie Paul Otlet geht es ihm – unabhängig der abweichenden Visionen – offensichtlich darum, den Zugang zur Masse an menschlichem Wissen zu erleichtern und es sinnvoll zu verknüpfen. In seinem Essay warnt er davor, dass die Menschheit nach Errichtung einer komplizierten Zivilisation auf halbem Wege steckenbleibt, weil die Erinnerungsfähigkeit überlastet ist. Vielmehr bevorzugt er das Privileg, Dinge zu vergessen, die man nicht benötigt, ohne zu befürchten, dass sie sich nicht wiederfinden lassen.3 Maschinen sollen demnach der Auslagerung unseres Wissens dienen und jederzeit zugänglich sein. Wie mehrmals in meiner Dokumentation erwähnt, bewegen wir uns zunehmend in den Status, in dem wir ausschließlich wissen müssen, wo wir Informationen abrufen können. Das reine Auswendiglernen von Daten ist längst überflüssig. Er selbst bezeichnet den Memex als »persönliche Ergänzung zum Gedächtnis«4.

Bevor ich an späterer Stelle Hartmut Winklers Kritik an Bushs ursprünglicher Problemstellung und dem abweichendem Entwurf mit aufnehmen möchte, gehe ich auf Bushs detaillierte Beschreibung des Memex sowie dessen Nutzen ein.

Der Aufbau des Memex

Auf zwei durchscheinenden Schirmen wird das Material projiziert, welches entweder selbst erstellt oder als fertiger Mikrofilm erworben werden kann; so z. B. Bücher, Bilder, Zeitungen etc. Das Arbeitsgerät wird mit Hebeln und Knöpfen bedient und Fotografien können mittels Trockenfotografie angefertigt werden. Mithilfe der Hebel werden Aufzeichnungen in verschiedenen Geschwindigkeiten durchgeblättert und mit den Knöpfen wird unter anderem ein Code eingegeben, der den direkten Zugriff auf bestimmtes Material zulässt oder das Inhaltsverzeichnis anzeigt.5

Das Kernstück des Memex sieht Bush in einem Vorgang, der zwei Informationen miteinander verknüpft. Nebeneinanderliegende Materialien werden per Knopfdruck verbunden, der Pfad wird benannt und ins Codebuch mit aufgenommen. Die Codes sind auf Codeflächen am unteren Bildschirmrand angebracht; wird der entsprechende Knopf gedrückt, können Informationen wieder abgerufen werden. Die Verbindung wird dabei durch nicht sichtbare Punkte, die für Fotozellen lesbar sind, ermöglicht.6

Beispielhaftes Gerät zum Lesen von Mikrofilmen
Beispielhaftes Gerät zum Lesen von MikrofilmenII

Der Memex als unterstützendes Arbeitsgerät

Durch diese Vorgehensweise können ganze Pfade und Seitenpfade für ein bestimmtes Thema erstellt und abgerufen werden.7 Ein wesentlicher Bestandteil seiner Vorstellung ist der, dass Pfade durch Abfotografieren und erneute Integration weitergegeben und somit von anderen Menschen abgerufen werden können.8 Er stellt sich eine völlig neue Art von Enzyklopädie vor, welche bereits mit einem Netz assoziativer Pfade versehen ist. Zudem sieht er den Vorteil darin, dass z. B. ein Meister seinen Schülern nicht nur Aufzeichnungen, sondern ein gesamtes Gerüst, mit dessen Hilfe sie entstanden sind, hinterlassen würde. Ein weiteres Beispiel ist das eines Arztes, welcher bei der Behandlung eines Patienten den Pfad einer ähnlichen Krankengeschichte aufrufen und somit schneller zum Ergebnis kommen könnte.9 Aus seiner Sicht kann auf diese Weise »die Wissenschaft der Menschheit Werkzeuge zur Produktion, Speicherung und Nutzung ihrer Aufzeichnungen liefern«10.

Hartmut Winklers Kritik

Als Ausgangsproblem sieht Bush aus meiner Sicht Wissenschaftler, welchen es aufgrund der Masse schwerfällt, Forschungsergebnisse anderer sinnvoll zu nutzen.11 Hartmut Winkler, welcher in »form diskurs« Bushs Essay kommentiert, sieht in Bushs Aussagen ein grundsätzliches Kommunikationsproblem, auf das sich Bush beruft. Seine These ist dabei die, »dass der Memex zwar den Austausch mit einzelnen Kollegen unterstützt, das eigentliche Problem – die Kommunikation mit dem Pool des Wissens insgesamt – aber nahezu unberührt läßt«12. Daher klaffen aus seiner Sicht das Ausgangsproblem Informationsüberflutung und der Memex als technische Antwort weit auseinander. Zudem merkt er an, dass das eigentliche Problem der Menge, so wie es Bush sagt, nicht mit mechanischer Selektion oder assoziativer Speicherung zu lösen ist.13

Meiner Auffassung nach geht es Bush erstmals nicht um die generelle Kommunikation zwischen Wissenschaftlern. Meinem Verständnis nach geht es vielmehr darum, dass man seinen eigenen Pool des persönlichen Wissens manifestiert und mit anderen, fremden Quellen in Verbindung setzen kann. Eigene Gedankenwege werden in Pfaden untergebracht und somit jederzeit abrufbar. Das Teilen der Pfade ist aus meiner Sicht zwar wesentlich, aber für mein grundsätzliches Verständnis zunächst nicht nötig. Auch die Erstellung einer völlig neuen Art der Enzyklopädie unterstreicht natürlich den Ansatz, menschliches Wissen generell verbinden zu wollen. Wie ich den Text verstehe, wäre das jedoch schon der nächste logische und mögliche Schritt, nachdem das Arbeitsgerät im Einsatz wäre.

Abschließend war es für mich nun wichtig, den originalen Essay »As We May Think« zu lesen, um die Denkweise Bushs noch besser verstehen zu können. Zudem sind mir die Funktionsweise und die Möglichkeiten des Memex noch bewusster.
An dieser Stelle möchte ich meine Nachforschungen über Vannevar Bush zudem beenden, da sein Essay und seine Vision letztendlich nur einen kleinen, theoretischen Part in meiner Master-Arbeit einnehmen werden.

Quellen
  1. Bush, Vannevar: »As We May Think«, Stand: Juli 1945, URL: http://web.mit.edu/STS.035/www/PDFs/think.pdf, Seite 14, abgerufen am 29.9.2017.
  2. Vgl. Ebd.
  3. Vgl. Ebd., S. 19.
  4. Ebd., S. 15.
  5. Vgl. Ebd.
  6. Vgl. Ebd., S. 16.
  7. Vgl. Ebd.
  8. Vgl. Ebd.
  9. Vgl. Ebd., S. 17.
  10. Ebd.
  11. Vgl. Ebd., S. 3.
  12. Winkler, Hartmut: »Vannevar Bush: As We May Think« in: FormDiskurs. Nr. 2, I/1997, S. 136–147, Stand: 1997, URL: http://homepages.uni-paderborn.de/winkler/bush_d.pdf, Seite 146, abgerufen am 29.9.2017.
  13. Vgl. Ebd.
  14. Abbildungen
    1. US Department of Energy: »Vannevar Bush at Berkeley (29 March 1940)«, Stand: 11.3.2016, via Wikimedia Commons, abgerufen am 30.9.2017.
    2. Unbekannt: »Microfilm reader for articles and daily papers, Haifa University library, the 1980s«, Stand: 7.3.2013, via Wikimedia Commons, abgerufen am 30.9.2017, Lizenz: CC BY-SA 3.0.

Paul Otlets Proto-Web

Ursprünglich wollte ich mich mit Paul Otlet, dem Pionier des Informationsmanagements, nur weiter auseinandersetzen, wenn es für meinen Master relevanter wird. Im Zuge meiner Recherche über wichtige Vorreiter in Bezug auf Informationsräume oder spezieller das World Wide Web, fällt Paul Otlet zwar nicht mehr oder weniger Gewicht als zuvor. Während ich mich mit der universellen Dezimalklassifikation, dem Mundaneum und seiner Vision der World City auseinandergesetzt habe, entgingen mir jedoch weitere interessante Details sowie Pläne, die er für neue Technologien hatte.

Ursprünglich wollte ich mich mit Paul Otlet, dem Pionier des Informationsmanagements, nur weiter auseinandersetzen, wenn es für meinen Master relevanter wird. Im Zuge meiner Recherche über wichtige Vorreiter in Bezug auf Informationsräume oder spezieller das World Wide Web, fällt Paul Otlet zwar nicht mehr oder weniger ins Gewicht als zuvor. Nichtsdestotrotz möchte ich neue Erkenntnisse dokumentieren, auf welche ich inzwischen gestoßen bin.

Während ich mich mit der universellen Dezimalklassifikation, dem Mundaneum und seiner Vision der World City beschäftigt habe, entgingen mir weitere interessante Details sowie Pläne, die er für neue Technologien hatte. Da man über Paul Otlet sicher ganze Doktorarbeiten schreiben könnte, hoffe ich die Gedanken dieses Genies in dieser kurzen Form gerecht und vor allem korrekt wiederzugeben.

Karteikarten und Telegraphenmaschinen als Hypermedium

Durch die benutzten Karteikarten war es möglich, einzelne Informationen – ob bibliographisch oder inhaltlich – analytisch festzuhalten und größere Informationsbrocken konnten auf separaten Blättern manifestiert werden. Das nennt Otlet das »monographische Prinzip«.1 Warden Boyd Rayward, der erste Biograph Otlets, vergleicht das mit den Knoten und Textstücken in Hypertext2 und tatsächlich kann die Arbeit als Hypermedium bezeichnet werden. Alex Wright schreibt in einem Artikel, dass Otlets Proto-Web zwar auf einem Patchwork aus analogen Technologien wie Karteikarten und Telegraphenmaschinen beruhte, es jedoch die vernetzte Struktur des heutigen Webs vorwegnahm.3 Auch laut Rayward legt eine Untersuchung der Ideen und Verfahren, auf denen die Entwicklung der Datenbanken basieren, nahe, dass sie sehr ähnlich zu Hypertext-Systemen sind. Sie bestanden aus Knoten und Abschnitten und durch ein System aus Links und Navigationsvorrichtungen gelangte der Nutzer von bibliographischen Referenzen zu Volltext, Bildern oder Objekten.4

Informationen können so losgelöst vom Gesamtwerk des jeweiligen Autors gelesen und kombiniert werden. Rayward erläutert, dass Otlet diese Möglichkeit Wissen in einer flexiblen, enzyklopädischen Weise anzuordnen »Kodifizierung« nennt.5 Diese Form von »Datenbanken« war wichtig, um eine neue Art von »Bezugs- und Konsultationsfunktionen«6 zu schaffen. Zudem war Otlet dieses Herauslösen der Informationen wichtig, um dem Autor nicht »sklavisch durch das Labyrinth eines persönlichen Plans folgen zu müssen«7. Dem Leser sollte ermöglicht werden, wichtige Inhalte zu scannen und den uninteressanten fernzubleiben.8

Neben der Tatsache, dass es neue Möglichkeiten dafür geben sollte, Texte in maschinenlesbarer Form zu bearbeiten, so dass die ursprüngliche Integrität des Dokuments erhalten bleibt,9 hatte Otlet die Idee, Texte so verfügbar zu machen, dass sie »nach Belieben durchsucht, analysiert, abstrahiert und neu formatiert werden konnten«10. Das ist konzeptionell sehr nah an heutigen Textverarbeitungsprogrammen und auch eine Form von Computer hatte er sich schon damals vorgestellt.

Das Proto-Web

Als das Mundaneum mit seinen unzähligen Karten und Blättern mehr und mehr wuchs, suchte er nach Lösungen, die Masse an Papier in den Griff zu bekommen. Er begann daher, so Alex Wright, neue Technologien zu entwerfen. Darunter unter anderem ein Art Papiercomputer, der – ausgestattet mit Rädern und Speichen – Dokumente auf der Schreibtischoberfläche bewegte. Seine finale Antwort soll jedoch das Verschrotten von Papier insgesamt gewesen sein.11
Weiter dachte er über die Möglichkeit einer elektronischen Datenspeicherung nach, welche später in seine Vision eines »mechanischen, kollektiven Gehirns« mündete, das alle Informationen der Welt innerhalb eines globalen Telekommunikationsnetzes abrufbar machen sollte.12 Ein Ansatz war der, Informationen in einer neuen Form der Enzyklopädie – der Encyclopedia Microphotica Mundaneum – über Mikrofilme verfügbar zu machen.13 Diesen Weg der Informationsverbreitung findet man später beispielsweise auch bei Vannevar Bushs Idee des Memex.

Paul Otlet | Telekommunikation
Eine von Otlets Skizzen über Telekommunikation

Folgend sah er die Möglichkeit, auf dieses angedachte universelle Netzwerk für Informationen und Dokumentation via Multimedia-Arbeitsstationen zuzugreifen, die zu dieser Zeit jedoch noch nicht erfunden waren.14 Er hatte aber bereits die Vision, dass eine Maschine benötigt werde, die das Fernschreiben und -lesen ermöglichten, so dass Gelehrte auch zu Hause Dokumente lesen konnten – verbunden per Kabel wie das Telefon oder ohne Kabel wie das Radio.15 In Otlets medienübergreifendem Netz sollte Raum für die Partizipation des Lesers sein.
Ferner spekulierte er, dass der »Schreibtisch der Zukunft nur aus einem Bildschirm oder mehreren Bildschirmen sowie einem Telefon bestehen könnte, um Dokumente abrufen zu können«16. Auch die Tonübertragung mit einer Art Lautsprecher sowie die komplette Verschmelzung innerhalb einer Maschine sah er dabei vor.17 Alex Wright führt diese skizzierten Pläne für ein globales Netzwerk von Computern bzw. »elektrischen Teleskopen« weiter aus. So sollen die Millionen miteinander verknüpften Dokumente, Bilder, Audio- und Videodateien durchsuchbar sein. Über die Geräte könnte man zudem Nachrichten versenden, Dateien teilen und sich in sozialen Netzwerken versammeln. Das nannte er réseau mondiale, ein weltweites Netzwerk.18 In diesen Netzwerken könnte man teilnehmen, applaudieren, Ovationen geben und im Chor singen.19

Paul Otlet und das World Wide Web

Paul Otlets Visionen sind aus meiner Sicht unglaublich nah an der heutigen Welt. Schreibtische mit Bildschirmen, vernetzte Informationen und die Möglichkeit am gesamten Informationsraum teilzuhaben, hören sich für damalige Verhältnisse revolutionär an. Umso ungläubiger macht es mich zum einen, dass seine Arbeit über Jahrzehnte in der Versenkung verschwand und erst durch Rayward Ende der 60er Jahre wiederentdeckt wurde. Zum anderen stimmt es mich nachdenklich, dass das Potenzial dieser Entwicklungen und Gedanken erst so viel später erkannt wurde. Weiter finde ich es erstaunlich, dass das World Wide Web als universeller Informationsraum erst nach so langer Zeit entwickelt wurde. Sicher feilte man über Jahrzehnte an Informationssystemen, das Internet gab es sehr viel früher und auch Hypertext an sich war nicht Tim Berners-Lees Idee. Der technologische Fortschritt hielt sich vermutlich in Grenzen und gesellschaftlich war man eventuell noch nicht bereit. Nichtsdestotrotz sehe ich in Otlets Ideen grundsätzliche Gedanken des World Wide Webs sowie dessen fundamentale Struktur. Daher frage ich mich beispielsweise auch, wieso weniger an offenen als an geschlossenen Systemen gearbeitet wurde, obwohl das Internet schon Jahrzehnte vor dem Web erfunden wurde und wieso der Zugang zu Wissen so lange so sperrig war, obwohl bereits Otlet den einfachen Zugang zu Wissen als wichtigen Bestandteil sah.

Abschließend halte ich Otlet für ein wirkliches Genie, der mit seinen unzähligen Ideen großes in seinem Leben geleistet hat. Wie eingangs erwähnt könnte man sicher ganze Doktorarbeiten über ihn schreiben, da viele seiner Ideen revolutionär waren und man sich alleine mit seinen Publikationen zu Lebzeiten endlos beschäftigen hätte können. Gleichwohl möchte ich an dieser Stelle mit dem Visionär abschließen und mich nach meinem Master möglicherweise noch mit Alex Wrights Buch »Cataloging the World« auseinandersetzen.

Quellen
  1. Vgl. Rayward, Warden Boyd: »Visions of Xanadu: Paul Otlet (1868–1944) and Hypertext« in: »Journal of the American society for information science«, Band 45, Ausgabe 4, S. 235–250, Stand: Mai 1994, URL: https://pdfs.semanticscholar.org/48f4/51ecb5d5241a7780bf07ac15b4e5699c5c41.pdf, S. 238, abgerufen am 28.9.2017.
  2. Vgl. Ebd.
  3. Vgl. Wright Alex: »The web that time forgot«, Stand: 17.6.2008, URL: https://www.nytimes.com/2008/06/17/health/17iht-17mund.13760031.html, Absatz 4, abgerufen am 30.9.2017.
  4. Vgl. Rayward, Warden Boyd: »Visions of Xanadu: Paul Otlet (1868–1944) and Hypertext« in: »Journal of the American society for information science«, Band 45, Ausgabe 4, S. 235–250, Stand: Mai 1994, URL: https://pdfs.semanticscholar.org/48f4/51ecb5d5241a7780bf07ac15b4e5699c5c41.pdf, S. 240, abgerufen am 28.9.2017.
  5. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 97, abgerufen am 28.9.2017.
  6. Rayward, Warden Boyd: »Visions of Xanadu: Paul Otlet (1868–1944) and Hypertext« in: »Journal of the American society for information science«, Band 45, Ausgabe 4, S. 235–250, Stand: Mai 1994, URL: https://pdfs.semanticscholar.org/48f4/51ecb5d5241a7780bf07ac15b4e5699c5c41.pdf, S. 240, abgerufen am 28.9.2017.
  7. Ebd.
  8. Vgl. Ebd.
  9. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 98, abgerufen am 28.9.2017.
  10. Ebd.
  11. Vgl. Wright, Alex: »The web that time forgot«, Stand: 17.6.2008, URL: https://www.nytimes.com/2008/06/17/health/17iht-17mund.13760031.html, Absatz 15, abgerufen am 30.9.2017.
  12. Vgl. Ebd., Absatz 16.
  13. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 99, abgerufen am 28.9.2017.
  14. Vgl. Rayward, Warden Boyd: »Visions of Xanadu: Paul Otlet (1868–1944) and Hypertext« in: »Journal of the American society for information science«, Band 45, Ausgabe 4, S. 235–250, Stand: Mai 1994, URL: https://pdfs.semanticscholar.org/48f4/51ecb5d5241a7780bf07ac15b4e5699c5c41.pdf, S. 235, abgerufen am 28.9.2017.
  15. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 98, abgerufen am 28.9.2017.
  16. Ebd., S. 99.
  17. Vgl. Ebd.
  18. Vgl. Wright, Alex: »The web that time forgot«, Stand: 17.6.2008, URL: https://www.nytimes.com/2008/06/17/health/17iht-17mund.13760031.html, Absatz 2, abgerufen am 30.9.2017.
  19. Vgl. Ebd., Absatz 24.

oN-Line System – Template des modernen Computers

An verschiedenen Stellen bin ich auf Doug Engelbart, Forscher an der Standford University, gestoßen. Eine seiner Visionen war, dass Hypertext als Werkzeug für die Arbeit im Team genutzt wird und dass Personen in einem sehr nahen und natürlichen Weg mit Maschinen kommunizieren können.

An verschiedenen Stellen bin ich auf Doug Engelbart, Forscher an der Standford University, gestoßen. Eine seiner Visionen war, dass Hypertext als Werkzeug für die Arbeit im Team genutzt wird und dass Personen in einem sehr nahen und natürlichen Weg mit Maschinen kommunizieren können.1 In den 60er Jahren erschuf er das kollaborative Hypertext-System »oN-Line System« (NLS) und gilt als Erfinder der Computermaus.2 Die Erfindung seiner Einhand-Tastatur mit nur fünf Tasten, sieht Licklider rückblickend sogar als eine der wahrscheinlich größten Erfindungen.3

Engelbart gilt als stark beeinflusst von Vannevar Bush und ist zudem Autor von »Augmenting Human Intellect: A Conceptual Framework« (1962).4 Damit ist die Fähigkeit eines Menschen gemeint, »sich einer komplexen Problemsituation zu nähern, Verständnis für seine speziellen Bedürfnisse zu entwickeln und Problemlösungen abzuleiten. Unter erhöhter Fähigkeit wird in diesem Zusammenhang eine Mischung aus Folgendem verstanden: schnelleres Verständnis, besseres Verständnis, die Möglichkeit, in einer bisher zu komplexen Situation einen brauchbaren Grad an Verständnis zu gewinnen, schnellere Lösungen, bessere Lösungen und die Möglichkeit Lösungen für Probleme zu finden, die vorher unlösbar schienen«5. Zudem sieht er die Wichtigkeit, dass Ahnungen, Ausprobieren, immaterielle Werte und das menschliche »Gefühl für eine Situation« sinnvollerweise mit den rationalen Gegebenheiten der elektronischen Hilfsmittel koexistieren.6

Seine Ausarbeitung gilt als Pionierarbeit seiner Zeit und seine Denkweise ist der Lickliders sehr nahe. Die auf den ersten Blick für meine Arbeit relevantere Entwicklung ist jedoch die des oN-Line Systems. Selbstverständlich kann beides nicht gänzlich getrennt voneinander betrachtet werden, da genau dieses System zur Erweiterung der menschlichen Intelligenz bestimmt war.7 Jedoch möchte ich mich nicht zu sehr in seinem sehr umfangreichen, theoretischen Konzept verstricken.

Das oN-Line System

Wie schon erwähnt ist das oN-Line System ein Hypertext-System. Der Prototyp wurde erstmals 1968 demonstriert und Alex Wright hält es im Wesentlichen für das Template für den modernen Computer.8 Ian Ritchie beschreibt wie Engelbart das System mit Headset-Mikrophon mittels 5-Finger-Tastatur und der ersten Computermaus der Welt demonstriert und zwischen Dokumenten und Graphiken weiter schaltet.9 Aus Ritchies Sicht war das Problem unter anderem das, dass ein Computer zu dieser Zeit mehrere Millionen Pfund kostete und damit als Heimcomputer nicht wirklich praktisch war.10 Wright erläutert weiter, dass das System bereits Hyperlinks und ein Videokonferenz-System enthält,11 was mir als sehr fortschrittlich erscheint. Es gilt als das erste System, das den praktischen Einsatz von mit Hyperlinks vernetzten Dokumenten, der Maus, Raster-Scan-Monitoren, nach Relevanz organisierten Informationen, einer Bildschirmverwaltung, Präsentationsprogrammen und anderen modernen Computing-Konzepten angewandt hat.12

Für mich immer wieder erstaunlich ist die Tatsache, wie früh daran gearbeitet wurde Informationen nach Relevanz zu sortieren und wie lange es gedauert hat bis es mit dem World Wide Web tatsächlich praktikabel für Jedermann umgesetzt wurde. Natürlich gibt es davor schon analoge Systeme, die sich wie im Falle von Paul Otlet durch die Verbindung von Inhalten abheben oder fiktive Anwendungen, die wie bei Vannevar Bushs Memex Assoziationen zwischen Dokumenten auf elektronischem Wege hervorbringen sollten.
Gleichermaßen lässt sich der Antrieb, neue Wege für die Organisation von Informationen zu finden, als logische Konsequenz der menschlichen Entwicklung sehen und sich in den historischen Kontext einordnen. So nahm neben der Fülle an Informationen auch die Abhängigkeit von eben diesen massiv zu. Wohlstand und Fortschritt sind in der Hypergeschichte, in der wir uns beispielsweise in Deutschland befinden, enorm an sie gebunden. Zudem sieht man in Tim Berners-Lee Konzept von Linked Open Data eine weitere Evolution, welche mich stark an »The World City« erinnert, mit der Paul Otlet das Wissen der Menschheit vereinen wollte. Auch bei Linked Open Data ist letztendlich das Ziel alle Daten zusammenzutragen, so dass sie nicht auf lokalen Rechnern oder in geschlossenen Systemen verloren gehen. Zwar unterscheiden sich Informationen und Wissen grundlegend, aber durch das Zusammenführen der Daten bzw. Informationen lässt sich nicht nur Wissen herauslesen, sondern sogar neues generieren. So werden nämlich Sachverhalte assoziativ verbunden, welche vorher nicht als zusammenhängend betrachtet wurden.

Diese abschließenden Gedanken bringen mir insofern neue Erkenntnisse für meine Arbeit, dass mir der Gesamtkontext nun immer klarer wird. Die Recherche über vergangene Entwicklungen, die zeitliche Einordnung sowie aktuelle Konzepte helfen mir enorm beim Verständnis. In diesem Zusammenhang wird mir zudem bewusst, das Informationsdesign eine große Rolle in meiner Arbeit spielen könnte.

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 6.
  2. Vgl. Ebd., S. 50.
  3. Vgl. Licklider, Joseph Carl Robnett, Yoshiki Ohshima: »Some Reflections on Early History by J.C.R. Licklider (VPRI 0093)«, Stand: 5.8.2015, URL: https://www.youtube.com/watch?v=SN–t9jXQc0, TC: 00:12:22–00:13:50, abgerufen am 20.8.2017.
  4. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:36:11–00:37:18, abgerufen am 18.8.2017.
  5. Engelbart, Doug: »Augmenting Human Intellect: A Conceptual Framework«, Stand: Oktober 1962, URL: https://www.dougengelbart.org/pubs/augment-3906.html#2, abgerufen am 22.8.2017.
  6. Vgl. Ebd.
  7. Vgl. Ritchie, Ian: »The day I turned down Tim Berners-Lee«, URL: https://www.ted.com/talks/ian_ritchie_the_day_i_turned_down_tim_berners_lee/, TC: 00:01:17–00:01:51, abgerufen am 20.7.2017.
  8. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:38:04–00:39:36, abgerufen am 18.8.2017.
  9. Vgl. Ritchie, Ian: »The day I turned down Tim Berners-Lee«, URL: https://www.ted.com/talks/ian_ritchie_the_day_i_turned_down_tim_berners_lee/, TC: 00:01:51–00:02:24, abgerufen am 20.7.2017.
  10. Vgl. Ebd., TC: 00:02:24–00:02:37.
  11. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:38:04–00:39:36, abgerufen am 18.8.2017.
  12. Vgl. Gust, Kate, Software Preservation Group: »NLS Augment Index«, Stand: 6.11.2006, URL: http://www.softwarepreservation.org/projects/nlsproject, abgerufen am 22.8.2017.
Abbildungen
  1. Titelbild: DARPA: »oN-Line System«, URL: https://www.darpa.mil/about-us/timeline/nls, abgerufen am 14.9.2017.

This is for everyone

Der Dokumentarfilm »ForEveryone.net« verbindet die Vergangenheit, Gegenwart und Zukunft des Webs. Unter anderem durch Umfragen, Interviews sowie Tim Berners-Lee als Erzähler selbst, schafft die Regisseurin Jessica Yu einen Film, welcher einen kurzen, aber präzisen Einblick in die Entwicklung und Grundideen des World Wide Web gibt.

Der Dokumentarfilm »ForEveryone.net« verbindet die Vergangenheit, Gegenwart und Zukunft des Webs. Unter anderem durch Umfragen, Interviews sowie Tim Berners-Lee als Erzähler selbst, schafft die Regisseurin Jessica Yu einen Film, welcher einen kurzen, aber präzisen Einblick in die Entwicklung und Grundideen des World Wide Web gibt.

Schon in den ersten Minuten bringen Jeff Jaeff, Daniel Weitzner und Peggie Rimmer die Wichtigkeit des Webs auf den Punkt. Jaeff beschreibt das Web als die transformierende Entwicklung überhaupt in unserer Zeit.1 Daniel Weitzner glaubt fest daran, dass es keine andere Technologie gibt, die so viel für freie Meinungsäußerung, Zugang zu Wissen und Demokratie getan hat als das Web.2 Peggie Rimmer sagt vorher, dass die Welt buchstäblich angehalten wird, wenn das Web untergeht.3

Vor allem die letzte Aussage wirft bei mir viele Fragen und Gedanken auf. Während wir uns langsam, Jahr für Jahr, an das Web gewöhnt haben, wäre der Untergang ein tatsächlicher – sicher zeitlich begrenzter – Untergang. Das Web ist so präsent und selbstverständlich, dass das Leben vieler massiv davon abhängt. Ganze Berufe und Branchen sind ausschließlich dem Web zu verdanken und selbst in Bereichen, welche nicht in erster Linie mit dem Web verbunden sind, wäre es fatal, wenn keine Kommunikation über das Web bzw. das Internet stattfinden könnte. Es geht dabei nicht nur um die tägliche Kommunikation via E-Mail oder das Gestalten schöner Webseiten als Beruf. Allein die Forschung, die durch den weltweiten Austausch von Daten massiv von der Vernetzung profitiert, wäre sicher um einiges zurückgeworfen.

Umso besser, dass Tim Berners-Lee eines Tages mit seinem Vater eine Diskussion über eine Idee des Vaters hatte. Berners-Lee erzählt die Anekdote, dass sein Vater nach Ideen suchte, um Computer intuitiver zu machen und Verbindungen zu vervollständigen, wie es das Gehirn kann. Computer sind gut in der logischen Organisationsverarbeitung, aber nicht darin Verbindungen zu schaffen. Dass Computer sehr viel stärker wären, wenn unverbundene Informationen verbunden werden würden, schlummerte weiter als Vision in Berners-Lees Hinterkopf. Laut ihm sind die Verbindungen wichtig und in einer extremen Sichtweise könnte man sogar sagen, dass alles nur aus Verbindungen besteht.4

Die Anfänge des Internets sind schon in den 60er Jahren zu finden, doch Informationen abzurufen oder einzuspielen war für Lieschen Müller unmöglich. Daniel Weitzner drückt es so aus, dass Berners-Lee viel Komplexität weggenommen hatte und das Internet durch das World Wide Web zugänglich machte.5

Das grundsätzliche Problem war nämlich die Inkompatibilität der Computer, weshalb sie oft nicht miteinander kommunizieren konnten. Bei CERN lag die Schwierigkeit schon darin, dass nicht einmal die Stromstecker untereinander kompatibel waren. Die Mitarbeiter kamen aus der ganzen Welt und da es keine strengen Reglements gab, arbeitete jeder an unterschiedlichen Rechnern. Da Berners-Lee irgendwann genug davon hatte, baute er einen eigenen Adapter, der so flexibel war, dass er alles tun kann, was er damit tun möchte. Daraus entstand die weitere Vorstellung, wie es wäre, wenn er seinen Computer so programmieren könnte, dass er einen Raum kreiert, in dem alles verlinkt ist. Jede Information, jedes Bit auf dem Planeten wären für ihn sowie jeden anderen verfügbar. Ein einziger Informationsraum.6

Welche Ideen hinter diesem Informationsraum stecken, so wie z. B. die Dezentralisierung oder die Arbeit mit möglichst wenigen Regeln, fasse ich bereits in »Vision eines Visionärs« zusammen.

Während durch meine bisherige Auseinandersetzung viele Dinge wie die Namensgebung des Webs, die freie Herausgabe von CERN oder beispielsweise die Magna Carta nicht neu für mich waren, fand ich einen neuen Anhaltspunkt in den Erzählungen von Tilly Blyth, Kuratorin des Londoner Science Museum. Sie erklärt, dass schon viele darüber nachgedacht haben, wie man Informationen kategorisieren, verlinken und teilen kann.7 Auf der Webseite des Museums finde unzählige weitere Informationen, die im weiteren Verlauf hilfreich werden könnten. Zudem nennt sie Ted Nelson, Vannevar Bush oder Paul Otlet, welcher die Idee eines physischen Platzes entwickelte, wo alle Informationen aufbewahrt und auf Anfrage abgerufen werden können.8

Insgesamt fühlt sich der Film wie eine Hommage an das Web an, welche es durchaus auch verdient hat. In den letzten Szenen wird Tim Berners-Lees Auftritt bei der Eröffnungsfeier der olympischen Spiele 2012 in London gezeigt, wo er als Erfinder des Webs vorgestellt und mit riesigen Lettern »THIS IS FOR EVERYONE« auf den Zuschauertribünen begleitet wird.9 Das unterstreicht seinen Kampf um das offene Web und die weltweite Verbreitung. Erst wenn jeder Mensch am World Wide Web teilnehmen wird und garantiert werden kann, dass das Web ein offener Informationsraum bleibt, wird Tim Berners-Lees Vision in so mancher Hinsicht erfüllt sein.

Quellen
  1. Vgl. Yu, Jessica, Non-Fiction Unlimited: »ForEveryone.net«, USA 2016, URL: http://www.foreveryone.net/, TC: 00:00:40–00:00:45, abgerufen am 17.4.2017.
  2. Vgl. Ebd., TC: 00:01:05–00:01:16.
  3. Vgl. Ebd., TC: 00:01:30–00:01:35.
  4. Vgl. Ebd., TC: 00:05:02–00:05:57.
  5. Vgl. Ebd., TC: 00:07:20–00:07:32.
  6. Vgl. Ebd., TC: 00:09:44–00:11:47.
  7. Vgl. Ebd., TC: 00:06:15–00:07:20.
  8. Vgl. Ebd.
  9. Vgl. Ebd., TC: 00:23:32–00:33:56.
Abbildungen
  1. Titelbild: Eigener Screenshot; Yu, Jessica, Non-Fiction Unlimited: »ForEveryone.net«, USA 2016, URL: http://www.foreveryone.net/, TC: 00:33:37, abgerufen am 17.4.2017./li>

Intergalactic Computer Network

Bei der Entstehung des World Wide Webs spielt die Erfindung des Internets die grundlegende Rolle überhaupt. Joseph Carl Robnett Licklider gilt als einer der wichtigsten Begründer, weshalb ich ihn in meine Dokumentation aufnehmen möchte.

Bei der Entstehung des World Wide Webs spielt die Erfindung des Internets die grundlegende Rolle überhaupt. Joseph Carl Robnett Licklider gilt als einer der wichtigsten Begründer, weshalb ich ihn in meine Dokumentation aufnehmen möchte. Meine Recherche über ihn war verhältnismäßig lange, da ich es sehr schwierig fand geeignete Materialien zu finden. Jedoch möchte ich meine Ergebnisse sehr gebündelt zusammentragen, da die detaillierte Entstehung des Internets kein Kernthema für mich darstellt. Aus diesem Grund habe ich mich bisher auch nicht im Detail mit seinen Büchern wie z. B. »The Dream Machine« oder »Libraries of the future« auseinandergesetzt. Innerhalb eines Vortrags von Hannes Högni Vilhjálmsson spielen seine Arbeiten »Man-Computer-Symbiosis« und »The Computer as a Communication Device« eine Rolle. Zudem dient mir »Brief History of the Internet« der Internet Society als Basis.

Advanced Research Projects Agency

Den Grundstein des Internets legt Licklider in den 60er Jahren bei seiner Arbeit für die ARPA (Advanced Research Projects Agency). Schon vor seiner Zeit bei ARPA (später DARPA) entstand 1960 seine Arbeit »Man-Computer-Symbiosis«. Dabei geht es nicht darum, dass der Mensch von der Maschine ersetzt oder mechanisch erweitert wird, sondern eine tatsächliche Symbiose entsteht.1 Einen Vorteil sieht er vor allen Dingen darin, dass die Maschine Aufgaben übernehmen kann, welche dem Menschen die Zeit für intellektuelle Arbeit rauben.2 In seinen Anforderungen für die Symbiose spricht er bereits in dieser Arbeit von »Networked thinking centers«, welche durch Aufteilung der Computerleistung verhindern sollen, dass zu schnelle und teure Computer nicht ausgelastet werden und nur wenigen Menschen dienen.3 Licklider ist davon überzeugt, dass Computer die Mensch-Mensch-Kommunikation verbessern können und vor allem die Beschleunigung von Arbeitsprozessen spielt bei seinen Gedanken eine Rolle.4

Ab 1962 ist er Leiter bei ARPA, wo er in den kommenden Jahren über das »Intergalactic Computer Network« nachdenkt, erste Experimente durchführt und Verbindungen mit seinen Mitarbeitern realisiert.5 Nachdem er 1967 seinen Plan für das »ARPANET« veröffentlicht, wird die Umsetzung einer Schlüsselkomponente, dem »Interface Message Processor«, ausgeschrieben. »BBN Technologies« realisiert ihn letztendlich und legt damit den Grundstein für das erste Rechnernetz im Jahr 1969, welches in den kommenden Jahren immer mehr Computer aufnimmt.6 Dieses Netz gilt als Vorreiter des Internets.

Wie eingangs erwähnt möchte ich mich nur kurz mit diesem Thema befassen, weshalb ich es ohne Reflexion oder Erkenntnisse mit in meine Dokumentation aufnehme.

Quellen
  1. Vgl. Vilhjálmsson, Hannes Högni, RU Computer Science: »Pearls of Computation: „J. C. R. Licklider: Man-Computer Symbiosis on the Intergalactic Computer Network«, Stand: 13.2.2015, URL: https://www.youtube.com/watch?v=ncCPTgWX6a8, TC: 00:17:31–00:19:22, abgerufen am 24.8.2017.
  2. Vgl. Ebd., TC: 00:23:23–00:25:10.
  3. Vgl. Ebd., TC: 00:25:18–00:26:03.
  4. Vgl. Ebd., TC: 00:36:16–00:37:31.
  5. Vgl. Ebd., TC: 00:12:18–00:14:23.
  6. Vgl. Leiner, Barry M.; Cerf, Vinton G.; Clark, David D.; Kahn, Robert E.; Kleinrock, Leonard; Lynch, Daniel C.; Postel, Jon; Roberts, Larry G.; Wolff, Stephen, Internet Society: »Brief History of the Internet«, »Origins of the Internet« URL: https://www.internetsociety.org/internet/history-internet/brief-history-internet/, abgerufen am 26.8.2017.

Assoziative Verlinkungen und Generierung von Wissen

In zwei Beiträgen bin ich bereits kurz auf Vannevar Bush, den Erfinder der Memex, eingegangen. Durch einen Vortrag von Alex Wright habe ich die Funktionsweise der Memex noch ein Stück besser verstanden, weshalb ich nochmal kurz auf Bush eingehen möchte.

In meinen Beiträgen »Tim Berners-Lee über das World Wide Web« und »Wie wir vielleicht denken« bin ich bereits kurz auf Vannevar Bush, Erfinder des fikitven Schreibtisches Memex, eingegangen. Durch einen Vortrag von Alex Wright habe ich die Funktionsweise des Memex noch ein Stück besser verstanden, weshalb ich nochmal kurz auf Bush eingehen möchte.

Als Grundlage dient mir erneut Bushs Überzeugung, dass das Gehirn nicht wie Bibliotheken oder ein Katalogsystem funktionieren würde, sondern durch Assoziationen arbeitet und zwischen einzelnen Gedanken hin und her springt.1 Essenziell ist bei der Idee des Memex, dass Verbindungen zwischen Dokumenten kreiert werden können.2 Dabei hatte man assoziative Wege sie zu verknüpfen und die Pfade waren sichtbar. Wenn die Maschine also eine Woche vorher benutzt worden wäre, hätte der nächste gesehen, welcher Weg gegangen wurde. Man konnte dabei nicht nur sehen, wie man in das aktuelle Dokument gelangt ist, sondern wohin es weiter verlinkt. In dieser Hinsicht sieht Wright ein Vorteil gegenüber dem Web, da man üblicherweise nicht sieht, wer noch auf derselben Webseite ist – ausgenommen auf jenen, die genau darauf ausgelegt sind.3
Meiner Meinung nach ist das insofern vorteilhaft, dass dadurch völlig neue Assoziationen und Wege aufgezeigt werden, welche man selbst eventuell noch nicht bedacht hatte.

Sollte ich die Maschine zwischenzeitlich richtig verstehen, gibt es noch eine weitere Möglichkeit, Wissen einzelner zu vernetzen. So konnten viele Informationen auf den Mikrofilmen gelagert, zwei Dokumente nebeneinander geöffnet und Anmerkungen geschrieben werden.4 Speziell die Möglichkeit eigene Anmerkungen hinzuzufügen, sehe ich als enorm wichtiges Werkzeug für die gemeinschaftliche Auseinandersetzung mit und Generierung von Wissen.

Vannevar Bush wird häufig als der Mann erwähnt, auf dessen Arbeit viele weitere Ansätze in der Welt der Computer und des World Wide Webs basieren. Daher möchte ich mich zu einem späteren Zeitpunkt detaillierter durch den Essay »As We May Think« arbeiten.

Quellen
  1. Vgl. Bush, Vannevar: »As We May Think«, URL: http://web.mit.edu/STS.035/www/PDFs/think.pdf, Seite 14, abgerufen am 29.8.2017.
  2. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:26:40–00:29:23, abgerufen am 18.8.2017.
  3. Vgl. Ebd., TC: 00:24:57–00:27:00.
  4. Vgl. Ebd., TC: 00:30:57–00:32:00.
  5. Vgl. Ebd., TC: 00:29:25–00:30:56.

Paul Otlet – Pionier des Informationsmanagements

Im Zuge meiner Nachforschungen hinsichtlich der Entwicklung des World Wide Webs stoße ich häufig auf den Namen Paul Otlet. An diversen Stellen wird er als Pionier des Informationsmanagements oder als Wegbereiter des Webs oder Google genannt. Alex Wright, amerikanischer Autor und Informationsarchitekt, spricht in seinem Vortrag »The Web That Wasn’t: Forgotten Forebears of the Internet« bei UX Brighton über Paul Otlet sowie diverse andere Vorreiter des Internets.

Im Zuge meiner Nachforschungen hinsichtlich der Entwicklung des World Wide Webs stoße ich häufig auf den Namen Paul Otlet. An diversen Stellen wird er als Pionier des Informationsmanagements oder als Wegbereiter des Webs oder Google genannt. Alex Wright, amerikanischer Autor und Informationsarchitekt, spricht in seinem Vortrag »The Web That Wasn’t: Forgotten Forebears of the Internet« bei UX Brighton über Paul Otlet sowie diverse andere Vorreiter des Internets.

Otlets Organisationsstruktur intellektueller Arbeiten
Otlets Organisationsstruktur intellektueller Arbeiten

Die universelle Dezimalklassifikation

Der Belgier Otlet lebte von 1868 bis etwa Mitte des 20. Jahrhunderts und entwickelte seine Vision dementsprechend vor der Erfindung des ersten Computers. Ein zentraler Gedanke seiner Arbeit ist die systematische Anordnung, inhaltliche Verknüpfung und Darstellung menschlichen Wissens. Die bis dahin übliche Katalogisierung der Medien – weitestgehend Bücher – brachte ein großes Problem mit sich: Die Inhalte waren nicht ersichtlich. Das Ziel war also, ein System zu entwickeln, welches es zulässt, Inhalte zu extrahieren und sie auf intelligente Weise zu indexieren,1 um sie wiederum einfach verfügbar machen zu können. Basierend darauf entwickelt er zusammen mit Henri La Fontaine, beides Bibliothekare, die universelle Dezimalklassifikation, welches noch immer in fast ganz Europa von öffentlichen Bibliotheken verwendet wird2 und menschliches Wissen systematisch einteilt.

Wissen der Menschheit

Das bescheidene Ziel war es schließlich, das komplette Wissen der Menschheit seit Erfindung des Drucks zu sammeln und zu indexieren. Im Mundaneum war ab 1895 das »Institut International de Bibliographie« beheimatet,3 wo das Duo mit der Umsetzung dieser Vision begann. Die jahrzehntelange Arbeit wurde von der Regierung unterstützt und die Mitarbeiter versuchten absolut jede Information der Welt zu sammeln,4 um sie schließlich systematisch auf Karteikarten zu indexieren. Allein zwischen 1895 und dem 1. Weltkrieg entstanden so zehn Millionen Karteikarten,5 welche auch andere Medien wie Fotografien, Filme oder Audioaufnahmen mit einbezogen.6 Bis ins Jahr 1934 wurden mithilfe eines internationalen Netzwerks ganze 18 Millionen Karteikarten erstellt, welche innerhalb von Aktenschränken stolze 15.000 Zettelkästen füllten.7

Ab 1910 entstand das International Museum, das eher als Lehrinstitut als als Museum verstanden wurde. In 150 Räumen war Wissen thematisch sortiert aufbereitet und für die Öffentlichkeit zugänglich.8

The World City

Der Utopist ging gedanklich noch einen Schritt weiter. Er dachte über eine physische Manifestation der Informationen nach und arbeitete zusammen mit bekannten Architekten an Plänen für eine »World City«. Dessen Herz sollte das Mundaneum sein und unter anderem globale Universitäten oder ein Netzwerk von Museen beherbergen.9 Rund um das zentrale Mundaneum sollte ein Art Netzwerk fließender Informationen und Institutionen entstehen, welches durch Zweigstellen in der ganzen Welt unterstützt werden sollte. Die Aufgabe der Zweigstellen wäre die gewesen, Informationen des jeweiligen Landes zu verwalten, sie weiterzugeben und sie gegen Informationen aus der globalen Stadt einzutauschen.10

Inhaltliche Verlinkung

Alex Wright bewertet den Ansatz Otlets in mancher Hinsicht als anspruchsvoller als das World Wide Web selbst. Zwar wäre es heute unmöglich alle Informationen zu sammeln, doch das Web sei ein flacher Informationsraum ohne Organisationsprinzipien. Das macht es auf der einen Seite als offenes Medium aus, auf der anderen Seite sieht er genau das als Krankheit. Man käme etwas auf die Spur, Dinge verschwänden wieder, man müsse herausfinden, wem und was man vertrauen könne und es sei ohnehin unmöglich das große Ganze zu verstehen. Zudem fand Otlet sehr anspruchsvolle Wege Informationen zu verlinken, während Hyperlinks nur von A nach B führen, ohne dass man genau weiß in welcher Beziehung die Links zueinander stehen.
Otlet hatte dagegen eine ausgefeilte Syntax aus Zahlen und Zeichen, welche letztendlich zeigt, dass ein Dokument mit dem anderen übereinstimmt oder es in bestimmten Aspekten sogar erweitert. Aus Wrights Sicht besitzt das Web diese Art und Weise der Verbindungen noch nicht, obwohl viele Menschen daran arbeiten.11

Aus meiner Sicht ist die Vision Otlets ein wunderbarer Ansatz, um Informationen sammeln, organisieren und verbreiten zu können. Vor allem die globale Stadt, die sich letztendlich nur dem Fluss des menschlichen Wissens widmet, halte ich für großartig. Andererseits halte ich die Zentralisierung des Wissens aus heutiger Sicht nicht für den besten Ansatz. Dadurch, dass nur bestimmte Institutionen in den jeweiligen Ländern Informationen austauschen, wäre der freie Fluss sehr beschränkt. Man muss jedoch bedenken, dass ein digitaler Austausch wie heute natürlich noch nicht möglich war.

Mein Beitrag soll nur einen kurzen Einblick in Otlets Vision geben, um sein System besser verstehen zu können. Sollte es während meines Masters relevanter werden, möchte ich mich noch einmal detaillierter mit der tatsächlichen Systematik auseinandersetzen. Zudem werde ich meine Dokumentation durch einen kleinen Exkurs zu Otto Neurath erweitern. Er war österreichischer Design Thinker und an den Plänen der Stadt beteiligt.

Quellen
  1. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:14:34–00:15:14, abgerufen am 18.8.2017.
  2. Vgl. Ebd., TC: 00:13:43–00:14:34.
  3. Vgl. Tiny Big Story, in collaboration with Ikesu, Mundaneum: »Mundaneum – Small history of a big idea – Context EN«, Stand: 9.7.2015, URL: https://www.youtube.com/watch?v=flBcebZ7MCo, TC: 00:00:54–00:01:14, abgerufen am 18.8.2017.
  4. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:20:19–00:21:00, abgerufen am 18.8.2017.
  5. Vgl. Ebd., TC: 00:21:00–00:21:30.
  6. Vgl. Ebd., TC: 00:16:30–00:16:54.
  7. Vgl. Tiny Big Story, in collaboration with Ikesu, Mundaneum: »Mundaneum – Small history of a big idea – Context EN«, Stand: 9.7.2015, URL: https://www.youtube.com/watch?v=flBcebZ7MCo, TC: 00:01:15–00:01:29, abgerufen am 18.8.2017.
  8. Vgl. Ebd., TC: 00:01:59–00:02:26.
  9. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:17:14–00:18:40, abgerufen am 18.8.2017.
  10. Vgl. Ebd., TC: 00:18:40–00:19:20.
  11. Vgl. Ebd., TC: 00:24:57–00:27:00.

Wie wir vielleicht denken

Im TED-Beitrag »The day I turned down Tim Berners-Lee« erläutert Ian Ritchie, wie sich das Web entwickelt hat und wie es dazu kam, dass er 1990 Berners-Lees Anfrage einen Browser zu schreiben, ablehnte. Da ich mich mit Teilen der Entwicklung schon beschäftigt habe und die Essenz seines Vortrags nicht sonderlich erkenntnisreich finde, interessiert mich vor allen Dingen seine Schilderung über Vannevar Bush und Doug Engelbart.

Im TED-Beitrag »The day I turned down Tim Berners-Lee« erläutert Ian Ritchie, wie sich das Web entwickelt hat und wie es dazu kam, dass er 1990 Berners-Lees Anfrage einen Browser zu schreiben, ablehnte.1

Da ich mich mit Teilen der Entwicklung schon beschäftigt habe und die Essenz seines Vortrags nicht sonderlich erkenntnisreich finde, interessiert mich vor allen Dingen seine Schilderung über Vannevar Bush und Doug Engelbart.

Ritchie erwähnt Bushs Artikel »As We May Think«, der 1945 veröffentlicht wurde. Er behauptet damals, dass die Art, wie wir Informationen nutzen, zerstört sei und wir als Menschen nicht wie Bibliotheken oder Katalogsysteme funktionieren würden. Das Gehirn arbeitet durch Assoziationen und springt zwischen einzelnen Gedanken hin und her.2 Auf dieser Grundlage entwickelte er 1945 die fiktive Maschine Memex, welche Informationen miteinander verknüpfen würde. Ein Memex hatte eine Plattform, auf der man Informationen verbinden und abrufen konnte. Der Computer war zu dieser Zeit noch nicht erfunden.3

Bushs Artikel inspiriert Engelbart, welcher später das oN-Line System baute, das zur Erweiterung der menschlichen Intelligenz bestimmt war. Er präsentierte es 1968 live auf einer Konferenz. Man sah wie er es mithilfe der 5-Fingertastatur und der ersten Computermaus bediente und zwischen Dokumenten und Grafiken wechselte.4 Während Computer zu dieser Zeit noch unerschwinglich waren,5 ändert sich das in den 80er Jahren mit dem Einzug der Heimcomputer. Ritchies Unternehmen OWL entwickelte in dieser Zeit das erste erfolgreiche Hypertextsystem, später folgt Apples HyperCard6 und schließlich die Erfindung des World Wide Webs durch Tim Berners-Lee.

Auf Bushs »As We May Think« bin ich schon häufiger innerhalb meiner Recherche gestoßen und Doug Engelbart hat beispielsweise Tim Berners-Lee in seinem Gespräch bei Sternstunde Philosophie erwähnt. Daher möchte ich mich im Weiteren zumindest grob mit beiden auseinandersetzen, um deren Ansätze besser zu verstehen.

Quellen
  1. Vgl. Ritchie, Ian: »The day I turned down Tim Berners-Lee«, URL: https://www.ted.com/talks/ian_ritchie_the_day_i_turned_down_tim_berners_lee/, TC: 00:03:34–00:04:14, abgerufen am 20.7.2017.
  2. Vgl. Ebd., TC: 00:00:17–00:00:50.
  3. Vgl. Ebd., TC: 00:00:50–00:01:17.
  4. Vgl. Ebd., TC: 00:01:51–00:02:24.
  5. Vgl. Ebd., TC: 00:02:24–00:02:37.
  6. Vgl. Ebd., TC: 00:02:37–00:03:14.
Abbildungen
  1. Titelbild: Dunkoman: »The Memex«, abgerufen am 21.7.2017, Lizenz: CC BY 2.0.

Neue Zusammenhänge durch verbundene Daten

Ein Jahr nach Tim Berners-Lees TED-Vortrag »The next web« meldet er sich mit »The year open data went worldwide« auf der TED-Bühne zurück. Mitgebracht hat er Ergebnisse, die erneut unterstreichen, wie wichtig es ist, Rohdaten ins Web einzuschleusen.
Neben diversen Beispielen wie eingespeiste Daten der britischen Regierung oder ein Rechtsstreit auf Grundlage von Daten, halte ich einen Erfolg für besonders erwähnenswert.

Ein Jahr nach Tim Berners-Lees TED-Vortrag »The next web« meldet er sich mit »The year open data went worldwide« auf der TED-Bühne zurück. Mitgebracht hat er Ergebnisse, die erneut unterstreichen, wie wichtig es ist, Rohdaten ins Web einzuschleusen.

Neben diversen Beispielen wie eingespeiste Daten der britischen Regierung1 oder ein Rechtsstreit auf Grundlage von Daten,2 halte ich einen Erfolg für besonders erwähnenswert.

Schon im letztjährigen Talk wies Berners-Lee auf die Open Street Map hin, welche durch die Community wächst. Während Europa bereits sehr gut bearbeitet wird, sieht er in manchen Regionen Potenzial für Verbesserungen.3 Er setzt dabei Port-au-Prince auf Haiti in den Fokus, welches Ende 2009 nicht allzu gut bearbeitet war wie beispielsweise Kalifornien. Nach dem Erdbeben veröffentlichte GeoEye Satellitenaufnahmen, die von der Open-Source-Community verwendet werden durften, was dazu führte, dass die Bearbeitung enorm zunahm. Leute aus aller Welt griffen auf die Aufnahmen zurück und bauten sehr schnell eine Karte auf. Das unterstützte die Notstandsarbeit enorm, da z. B. Flüchtlingslager,4 Krankenhäuser oder blockierte Straßen angezeigt wurden. Zudem wurden beschädigte Gebäude und Flüchtlingslager sichtbar.5

Dieses Beispiel zeigt, wie essenziell Daten als Grundlage für die Lösung der Probleme der Menschheit sein können. Berners-Lee erwähnte bereits im Vorjahr die Vorteile in Bezug auf die Bekämpfung von Alzheimer und es gibt unzählige andere Szenarien, in denen Linked Open Data wertvolle Arbeit leisten kann. Das Zusammenführen einzelner Informationen, welche bisher bei sämtlichen Leuten für das Web unsichtbar gelagert werden, kann große Zusammenhänge herstellen. Werden diese bisher unsichtbaren Verbindungen sichtbar gemacht, können viele Missstände oder gemeinsame Probleme sicher schon heute aufgedeckt werden.

Quellen
  1. Vgl. Berners-Lee, Tim: »The year open data went worldwide«, URL: https://www.ted.com/talks/tim_berners_lee_the_year_open_data_went_worldwide, TC: 00:00:51–00:11:18, abgerufen am 16.7.2017.
  2. Vgl. Ebd., TC: 00:01:29–00:02:07.
  3. Vgl. Ebd., TC: 00:03:29–00:04:03.
  4. Vgl. Ebd., TC: 00:04:03–00:04:35.
  5. Vgl. Ebd., TC: 00:04:53–00:05:07.

The next web: Linked Data

Tim Berners-Lee erläutert in seinem TED-Vortrag »The next web« im Februar 2009, was genau unter seinem Konzept »Linked Data« zu verstehen ist und wie wichtig es ist, dass wir alle gemeinsam daran arbeiten, so viel Daten wie möglich im Internet bereitzustellen.

Tim Berners-Lee erläutert in seinem TED-Vortrag »The next web« im Februar 2009, was genau unter seinem Konzept »Linked Data« zu verstehen ist und wie wichtig es ist, dass wir alle gemeinsam daran arbeiten, so viel Daten wie möglich im Internet bereitzustellen.

Zunächst versucht Berners-Lee die Unterscheidung zwischen Dokumenten und Daten klarzumachen, da die bereits vorhandenen Dokumente im Web allgemein sicher auch als Daten verstanden werden.1 Daten müssen aber in einer speziellen, maschinenlesbaren Form aufbereitet werden, damit sie von Computern lesbar sind.

Er sieht ein, dass Daten zunächst langweilig erscheinen, weist aber darauf hin, dass sie enorm interessant werden, wenn man beginnt sie zu kombinieren.2 Er fordert das Publikum auf, sich vorzustellen, wie eine Welt aussehen könnte, in der alles, was man sich vorstellen kann in Form von Daten ins Web gespeist und verknüpft wird. Das ist das, was er linked data bzw. verknüpfte Daten nennt. Für die Erstellung von Daten nennt er drei wichtige Regeln. Nicht nur Dokumente, sondern alle Dinge, um die es in Dokumenten geht werden mit HTTP: beginnen und somit eindeutig benennbar sein.3 Die zweite Regel ist, dass man bei der Abfrage dieses HTTP:-Dokuments zusätzliche Daten erhält, die für die Anfrage relevant sind.4 Dass es allein um die Beziehung zwischen den Daten geht, sieht er als dritte Regel. So kann man die Daten effektiv Weise durchsuchen.5

Die Macht der Daten

Berners-Lee hebt mehrmals hervor, dass die Daten umso mächtiger werden, je mehr davon existieren und miteinander verbunden werden.6 Daher ist es für ihn so wichtig, dass es das Web ermöglicht, dass alle Arten von Daten eingespeist werden können: Ob Regierungsdaten, Unternehmensdaten, wissenschaftliche und persönliche Daten, Wetterdaten oder ganz andere Daten. Für ihn sind alles wichtige Daten.7

Um die Macht der Daten weiter zu unterstreichen, verdeutlicht er, wie wichtig sie für die Lösung der Herausforderungen der Menschheit sind. Wissenschaftler, die sich den Problemen stellen, können ohne Daten nicht ausreichend über das Web kommunizieren. Zudem wird laut Berners-Lee ein großer Teil des menschlichen Wissens in irgendwelchen Datenbanken verborgen, oft sogar auf Computern gelagert und nicht geteilt.8 Als anschauliches Beispiel nennt er die Forschung nach neuen Medikamenten gegen Alzheimer. Die Frage, welche Neuronen bei der Signalübertragung beteiligt und außerdem verwandt mit pyramidenförmigen Neuronen sind, liefert bei Google 223.00 Treffer mit null brauchbaren Ergebnissen, da keiner diese Frage je gestellt hat. In einer Datenbank mit verknüpften Daten lassen sich 32 Treffer, die alle auf die Ausgangsfrage zutreffen, finden. Auch die Querverbindung zwischen verschiedenen Wissenschaften sieht er als enorme Wende.9 Als weiteres Beispiel nennt er OpenStreetMap, das es jedem erlaubt, die Erde zu vermessen, einzutragen und Orte einzuspeisen. So kann jeder seinen Teil zu einem großen Ganzen beitragen.10

Der Begründer des Webs macht klar, dass Linked Data nicht nur große Institutionen angeht, sondern jeden einzelnen betreffen. Zudem fordert er beispielsweise Interoperabilität zwischen sozialen Netzwerken, um die Mauern zwischen ihnen abzubauen. Das müsse mit verknüpften Daten geschehen.11 Spätestens hier sehe ich viele zweifelnde Gesichter, mich selbst zum Teil mit eingeschlossen. Trotz der überzeugenden Beispiele und dem großen Wert, den ich in Linked Data erkennen kann, sehe ich vor allem die fehlende Privatsphäre durch Öffnung des Systems.

Alles in allem sehe ich jedoch überwiegend die Vorteile darin, einen großen allumfassenden Informationsraum zu schaffen, der nicht durch Silos voneinander abgegrenzt wird. Diesen Raum mithilfe von Daten zum semantischen Web aufzuwerten (Struktureller Aufbau des Webs und die Koexistenz von Mensch und Maschine ») halte ich zudem für einen enormen Fortschritt in der menschlichen Entwicklung, der die Masse an Informationen und Wissen in eine nutzbare Form bringen kann.

Quellen
  1. Vgl. Berners-Lee, Tim: »The next web«, URL: https://www.ted.com/talks/tim_berners_lee_on_the_next_web/, TC: 00:03:53–00:04:15, abgerufen am 17.8.2017.
  2. Vgl. Ebd., TC: 00:04:50–00:05:44.
  3. Vgl. Ebd., TC: 00:05:44–00:06:26.
  4. Vgl. Ebd., TC: 00:06:26–00:06:51.
  5. Vgl. Ebd., TC: 00:06:51–00:07:31.
  6. Vgl. Ebd., TC: 00:07:31–00:08:10.
  7. Vgl. Ebd., TC: 00:09:04–00:09:41.
  8. Vgl. Ebd., TC: 00:11:20–00:11:57.
  9. Vgl. Ebd., TC: 00:11:57–00:13:10.
  10. Vgl. Ebd., TC: 00:14:04–00:15:10.
  11. Vgl. Ebd., TC: 00:13:10–00:14:04.

Tim Berners-Lee über das World Wide Web

Im Gespräch mit Barbara Bleisch spricht Tim Berners-Lee in Sternstunde Philosophie über seine Erfindung, das World Wide Web. Dabei kommen Themen wie beispielsweise Linked Open Data, die World Wide Web Foundation, die Zusammenarbeit von Mensch und Maschine oder künstliche Intelligenz zur Sprache.

Im Gespräch mit Barbara Bleisch spricht Tim Berners-Lee in Sternstunde Philosophie über seine Erfindung, das World Wide Web. Dabei kommen Themen wie beispielsweise Linked Open Data, die World Wide Web Foundation, die Zusammenarbeit von Mensch und Maschine oder künstliche Intelligenz zur Sprache.

Eine gewaltige kulturelle Veränderung sieht der Begründer darin, dass Gruppen und Kulturen im World Wide Web von der Leidenschaft der Menschen bestimmt werden.1 Um diese durchbrochenen Barrieren vollständig zu nutzen, müssen wir laut ihm lernen, die neu gewonnene Freiheit zu nutzen. Er bewirbt dabei sein Konzept von Linked Open Data, indem er auf die Zusammenarbeit von Wissenschaftlern hinweist, die sich großen Herausforderungen wie die Bekämpfung von Krebs oder Alzheimer annehmen. Er sieht das Web als vernetzte Menschheit und wenn man in das Netz schaut, sieht man die Menschheit von ihrer guten sowie von ihrer schlechten Seite.2 Zudem ist er überzeugt davon, dass die Leute heutzutage »nicht mehr nur zum Spaß surfen, sondern es benutzen. Sie wissen, dass es riesig ist und kennen die Orte, die sie im Web mögen«3.

Die Erschließung des Planeten

Die Gründung der World Wide Web Foundation im Jahr 2008 basiert auf dem Wunsch, dass das Internet der Menschheit besser dienen soll. Ein wichtiges Ziel war die Verbreitung voranzubringen, da bei Aufnahme ihrer Arbeit erst 10, 15 % der Menschen Zugang zum Web hatten. Zur Zeit des Gesprächs (2015) waren immerhin schon 40 % versorgt,4 was ich noch immer als überraschend wenig empfinde. Er vermutet, dass in den kommenden 1–2 Jahre die 50 %-Marke überstiegen wird5 und durch eine kurze Recherche glaube ich, dass die Marke zurzeit geknackt werden dürfte.

Die Tatsache, dass nur etwa die Hälfte der Menschheit das World Wide Web nutzen kann, wirft bei mir unterschiedliche Gedanken auf. Zum einen wird es in seiner inhaltlichen Masse noch einmal enorm wachsen. Zudem bin ich gespannt, welche kulturelle Veränderungen vollzogen werden, wenn neben der entwickelten Welt andere Stimmen hörbar werden. Des Weiteren wird die Vernetzung mit der restlichen Welt sicherlich sehr viele neue Möglichkeiten eröffnen und einen enormen Fortschritt bedeuten.

Von der Künstlichen Intelligenz überholt

Tim Berners-Lee war schon immer darauf aus, Maschinen in sein System einzubinden. Er ist sich sicher, dass es sehr aufregend wird, wenn es ein gutes Datennetz gibt, welches Unmengen an Maschinen dazu bringen kann miteinander zu sprechen. Sie können dazulernen und verstehen wie die Welt funktioniert. Er ist überzeugt davon, dass wir ein Netz errichten müssen, in dem sich Mensch und Maschine die Aufgaben je nach Kompetenz teilen. Maschinen werden den schweren und die Menschen z. B. den kreativen Part übernehmen.6

Weiter sollten wir darauf gefasst sein, dass die künstliche Intelligenz so schlau wird wie wir Menschen. Früher konnte man sich nicht vorstellen, dass Computer Autos fahren oder Schach spielen. Beides ist nun der Fall und ähnlich ungläubig sind wir heutzutage, was die zukünftige Entwicklung der KI betrifft. Daher fordert er dazu auf, sich schon jetzt Gedanken zu machen, für den Zeitpunkt, wenn dieser Fall eintritt.7 Luciano Floridi sieht in dieser Turing-Revolution die 4. Revolution nach Kopernikus, Darwin und Freud. Er siedelt diese jedoch schon bei Turing an, da der Computer den Menschen schon längst z. B. in der logischen Informationsverarbeitung übersteigt.

Vorangegangene Entwicklungen

Als spannende vorherige Erfindungen nennt der Erfinder des Webs die Bulletin Boards, in die man sich mithilfe des Telefonhörers und einem Modem einwählen konnte. Außerdem erwähnt er Doug Engelbert und Vannevar Bush. Engelbert hatte das Internet nie namentlich erwähnt, sei aber durch die Idee Hypertext zu verwenden, Nachrichten zu versenden und Dinge zu verlinken, konzeptionell sehr nah dran. Bushs Idee der Memex erläutert Berners-Lee sehr praktisch. Memex wäre ein Tisch gewesen, an dem man Mikrofilme hätte lesen können. Am Ende wäre eine Verlinkung zum nächsten und durch einen Knopfdruck wäre ein ganzes mechanisches System in Bewegung gekommen und die Memex hätte einen vom einen zum nächsten Mikrofilm gebracht. Zudem hatte er die Idee Wissenschaftlern Zugang zum Human Record zu erleichtern. Das sind die Aufzeichnungen alldessen, was wir entdeckt haben. Zwar war seine Vision ohne tatsächliche Verwendung von elektronischen Computern, Berners-Lee ist sich aber sicher, dass er sich für die Forschung interessiert hätte.8

Utopische Räume

Einen sehr interessanten Ansatz lässt sich gegen Ende des Gesprächs finden. Auf die Frage, ob er seine Erfindung im Zusammenhang mit Problemen wie Datenschutz, Klimawandel, etc. sieht, hat er einen aus meiner Sicht sehr speziellen und guten Ansatz.
Er ist nicht der Meinung, dass das etwas mit utopischen Räumen zu tun hat. Solche Themen werden in einem wissenschaftlichen Umfeld diskutiert und in diesem Zusammenhang ist es wichtig, unsinnige Ideen von den guten zu trennen, um keine Zeit zu verlieren. Umso wichtiger ist es, dass Stimmen nach oben durchdringen, wenn tatsächlich ein Problem entdeckt wird. Er ist der Meinung, dass wir Systeme entwickeln, die nach Regeln funktionieren und keine utopischen Räume sind. Er ist sich sicher, dass man mit Hilfe von Auswahlsystemen diejenigen Menschen finden kann, welchen wir die richtigen Entscheidungen zutrauen und deren Stimmen wir vertrauen.9

Diese Überlegung finde ich insofern spannend, dass ich überzeugt davon bin, dass sich kompetentere Menschen finden lassen als diejenigen, die tatsächlich die Gesetze verabschieden. Nicht weil diese generell inkompetent sind, sondern weil sie sicher andere Schwerpunkte haben. John Perry Barlow bringt es so auf den Punkt, dass Menschen innerhalb der Regierung unter anderen Umständen geformt worden sind als die Leute, die die meiste Zeit virtuell verbringen. Wie soll jemand, der sich sonst für völlig andere Dinge einsetzt plötzlich entscheiden, ob irgendwelche Algorithmen so verwendet werden können, wie sie sind? Wie soll man ihnen Entscheidungen über das Land überlassen, wenn man vor der Entscheidung erst einmal die Technologie erklären muss? Hier wäre ein Zusammenschluss von wirklichen Experten, die sich tagtäglich unabhängig davon im World Wide Web bewegen, sehr sinnvoll.

Das und viele weitere Fragen tauchen regelmäßig auf, wenn ich mich mit der Arbeit und den Visionen von Tim Berners-Lee auseinandersetze. Erneut war dieses Gespräch sehr inspirierend, da es zum einen neue Gedankengänge öffnet und bei anderen Gedanken für Klarheit sorgt.

Quellen
  1. Vgl. Berners-Lee, Tim, Das Weltrettungsforum, dem nichts heilig ist.: »Tim Berners Lee – Der Erfinder des Internets (Sternstunde Philosophie)«, Stand: 30.8.2015, URL: https://www.youtube.com/watch?v=1uErJzcr3fU, TC: 00:15:41–00:16:21, abgerufen am 8.7.2017.
  2. Vgl. Ebd., TC: 00:16:56–00:18:22.
  3. Ebd., TC: 00:40:57–00:41:08.
  4. Vgl. Ebd., TC: 00:20:47–00:21:38.
  5. Vgl. Ebd.
  6. Vgl. Ebd., TC: 00:31:22–00:32:55.
  7. Vgl. Ebd., TC: 00:52:06–00:53:18.
  8. Vgl. Ebd., TC: 00:43:37–00:45:28.
  9. Vgl. Ebd., TC: 00:48:30–00:49:35.

Das Fundament des Webs

Die World Wide Web Foundation fasst die grundsätzlichen Ideen des Webs sehr präzise zusammen, weshalb ich erneut grob auf sie eingehen möchte. Die Ideen und deren Umsetzung sollen ermöglichen, dass das Web weiter ein offener Informationsraum für alle bleibt.

Bei meiner Nachforschung bezüglich der Geschichte des Webs, finde ich – das liegt in der Natur der Sache – natürlich Dopplungen zu den Inhalten mit denen ich mich bereits beschäftigt habe, wie z. B. in dem Beitrag »Vision eines Visionärs«.

Die World Wide Web Foundation fasst die grundsätzlichen Ideen des Webs sehr präzise zusammen,1 weshalb ich darauf erneut eingehen möchte.

Grundsätzliche Ideen des Webs

Dezentralisierung

Wichtig ist, dass es keine Erlaubnis benötigt, etwas im Web zu publizieren. Das bedeutet gleichermaßen, dass man auch frei von willkürlicher Zensur und Überwachung sein muss.

Nichtdiskriminierung

Jeder sollte unabhängig von finanziellen Möglichkeiten in der Lage sein am Web teilzuhaben. Dieses Prinzip der Gleichheit ist als Netzneutralität bekannt und die Beibehaltung dieser ist zur Zeit ein großes Thema in den Medien.

Bottom-Up-Design

Das Web wird gemeinsam gebaut und nicht von einer kleinen Gruppe kontrolliert. Jeder kann teilnehmen und experimentieren, um das Web weiter voranzubringen.

Universalität

Jeder sollte in der Lage sein, etwas im Web zu äußern. Das sollte unabhängig von der Hardware, dem Wohnort, der Kultur oder politischen Neigungen möglich sein.

Konsens

Um Universalität zu erreichen, muss ein gemeinsamer Konsens gefunden wird. Jeder kann durch einen transparenten, partizipativen Prozess beim W3C das Web mitgehalten.

Diese Ideen sind sinngemäß von der World Wide Web Foundation übernommen. Die Ideen und deren Umsetzung sollen ermöglichen, dass das Web weiter ein offener Informationsraum für alle bleibt. Dass das Web von niemandem kontrolliert wird und jeder ein Teil davon sein kann, sind enorm wichtige Voraussetzungen, um das Web in seiner offenen Form beibehalten zu können.

Quellen
  1. Vgl. World Wide Web Foundation: »History of the Web«, URL: https://webfoundation.org/about/vision/history-of-the-web/, abgerufen am 3.5.2017.

Meinungsfreiheit, Algorithmen und Fake News

Anlässlich zum 28. Jahrestag des World Wide Webs erscheint ein Brief von Tim Berners-Lee auf der Webseite der Web Foundation mit dem ich mich kurz auseinandergesetzt habe. In den vergangenen 12 Monaten beobachtet er drei kritische Trends, welche es anzupacken gilt, damit sich Web als Werkzeug für die gesamte Menschheit entfalten kann.

Neben dem Verlust über die Kontrolle unserer Daten, sieht er die Möglichkeit falsche Informationen im Netz zu verbreiten und die Undurchschaubarkeit und das Unverständnis über politische Werbung im Web als kritische Punkte.

Anlässlich des 28. Jahrestags des World Wide Webs erscheint ein Brief von Tim Berners-Lee auf der Webseite der World Wide Web Foundation, mit dem ich mich kurz auseinandergesetzt habe.

Seine ursprüngliche Vorstellung, dass das World Wide Web eine offene Plattform ist, die es jedem ermöglicht von überall Informationen auszutauschen oder über geografische und kulturelle Grenzen hinweg zusammenzuarbeiten, hat sich seiner Auffassung nach in vielerlei Hinsicht verwirklicht. In den vergangenen 12 Monaten beobachtet er jedoch drei kritische Trends, welche es anzupacken gilt, damit sich das Web als Werkzeug für die gesamte Menschheit entfalten kann.1

Neben dem Verlust über die Kontrolle unserer Daten, sieht er die Möglichkeit falsche Informationen im Netz zu verbreiten und die Undurchschaubarkeit und das Unverständnis über politische Werbung im Web als kritische Punkte.

Die Herausgabe unserer Daten gegen kostenlosen Content ist bereits ein viel diskutiertes Thema. Der Begründer des Webs sieht die Problematik zum einen darin, dass die Daten in Nirgendwo verschwinden und für uns unsichtbar sind. Zum anderen hätten wir Vorteile, wenn wir selbst darüber entscheiden könnten, wann und mit wem sie geteilt werden.2
Als weiteren Kritikpunkt sieht er, dass Regierungen Unternehmen nötigen, um jeden unserer Schritte verfolgen zu können und entwickeln Gesetze, die unser Recht auf Privatsphäre verletzen.3
In meinem Beitrag »Cyberspace als neue Heimat des Geistes« bezweifele ich bereits John Perry Barlows Vorstellung, dass wir unsere Meinung frei äußern können ohne in Schweigen oder Konformität gezwungen zu werden. In einigen Ländern ist die freie Meinungsäußerung nach wie vor sehr gefährlich und selbst in einem vermeintlich liberalen Land wie Deutschland gibt es gehäuft Diskussionen über Meinungsfreiheit und Zensur im Netz. Die nicht vorhandene Konformität sehe ich vor allem durch den entstehenden gesellschaftlichen Druck, wenn Inhalte weit gestreut werden können.
Berners-Lee empfindet vor allem die Tatsache, dass Bürger beobachtet werden als sehr abschreckend auf die freie Meinungsäußerung. Das verhindert, dass das Internet als freier Raum genutzt wird, um wichtige sensible Gesundheitsprobleme, Sexualität oder Religion zu erkunden.4 Dass das World Wide Web nicht frei als Informationsquelle genutzt werden kann bzw. nur mit der Sorge im Hinterkopf, dass jeder Schritt gespeichert wird, verletzt den Ursprungsgedanken des Webs, welches als freier Informationsraum konzipiert wurde.

Der zweite Punkt, den Tim Berners-Lee anspricht, steht aus meiner Sicht dem dritten Punkt sehr nah.
Basierend auf immer besseren Algorithmen werden uns auf Social-Media-Seiten und Suchmaschinen Seiten angezeigt, die uns höchstwahrscheinlich gefallen werden. Pro Klick verdienen die Unternehmen Geld und generell können sich dadurch auch Fake News wie ein Lauffeuer verbreiten. Durch den Einsatz von Data Science oder Bots kann dieses System perfektioniert und mit schlechten Absichten ausgenutzt werden.5
Während ich Nachrichten im Social Media außen vor lasse, möchte ich auf die Schwierigkeit eingehen, welche sich aus meiner Sicht bei Suchmaschinen ergibt. Unabhängig davon welche Suchmaschine man nutzt – primär wird Google wohl die Maschine der Wahl sein –, steckt ein gewinnorientiertes Unternehmen dahinter. Dass die Alphabet Inc. mit ihren Angeboten Geld verdienen möchte, sehe ich generell als nicht allzu problematisch an und daher kann man die Schaltung von Anzeigen bei Google oder die Bevorzugung einzelner Webseiten nicht ankreiden. Nichtsdestotrotz sehe ich das Unternehmen nicht nur in Bezug auf die Speicherung von Daten als kritisch an. Auch die Ausbreitung ihrer Angebote in sämtliche Lebensbereiche finde ich bedenklich, da dadurch sehr viele verschiedene Daten an einer Stelle gespeichert werden und ein ganzheitliches Bild der Menschen abzeichnet. Doch das Hauptproblem liegt nicht darin, dass Alphabet Geld verdienen möchte und das mit einer stetigen Verbesserung ihrer Algorithmen und Angebote auch schafft. Das Problem liegt meiner Ansicht nach in der aktuellen Alternativlosigkeit. Keine Karte zeigt besser den Stau und Alternativrouten an, als Google Maps und wer bietet umsonst eine Suchmaschine an, die bestrebt ist immer bessere Ergebnisse zu liefern? Welche Alternative gäbe es, alle Webinhalte in einer Suchmaschine zu durchforsten, ohne dass irgendjemand am Ende der Leitung Profit daraus schlägt? Sei es finanzieller Natur oder ein staatliches Interesse. Ich spreche mich nicht dafür aus, dass das Alphabet-Universum weiter wachsen soll, indem man sich zurücklehnt und das Ganze akzeptiert. Sämtliche Versuche meinerseits andere Suchmaschinen, Karten oder Kalender zu nutzen scheiterten jedoch mangels guter Alternativen.

Der letzte kritische Trend, den Berners-Lee in seinem Brief aufgreift, setzt sich mit der politischen Werbung im World Wide Web auseinander. Allein bei den US-Wahlen 2016 sind 50.000 verschiedene Anzeigen auf Facebook aufgetaucht. Berners-Lee nennt den Fakt, dass die meisten Menschen Informationen von nur wenigen Plattformen nutzen und die politischen Kampagnen auf Grundlage der persönlichen Daten individualisiert werden können. Neben tatsächlicher Information können auch Fake News so einfach verbreitet werden, dass unterschiedliche Personen jeweils unterschiedliche Aussagen vorfinden.6
Die Verbreitung von Fake News war rundum die US-Wahl ein brisantes Thema und Trump selbst nennt bis dahin als seriös geltende Medienunternehmen Fake Media. Meinem Empfinden nach nutzen Amerikaner soziale Netzwerke noch exzessiver als wir es in Deutschland tun, was die Netzwerke für das Verbreiten von Fake News absolut beliebt macht. Und wenn man den ganzen Tag von Fake News liest, wer weiß schon, was am Schluss wirklich Fake News sind? Wenn ich von zehn unterschiedlichen – bis dahin unbekannten – Nachrichtenunternehmen jeweils dieselbe Nachricht angezeigt bekomme: Glaube ich es irgendwann oder bin ich tatsächlich resistent? Was erstmal wie ein schlechter Witz klingt, kann aus der Ferne aber leider nicht wirklich nachvollzogen oder bewertet werden.

Tim Berners-Lee sieht die Probleme als sehr komplex an und weiß, dass die Lösung nicht einfach sein wird. Erste Ansätze sieht er darin mit den Web-Unternehmen zusammenzuarbeiten, damit ein faires Maß an Datenkontrolle entstehen kann. Zudem sieht er den Kampf gegen die Überwachungsgesetze der Regierung als sehr wichtig. Weiter muss gegen Fehlinformationen vorgegangen werden, in dem »Pförtner« wie Google und Facebook ermutigt werden, sich weiter für die Bekämpfung des Problems einzusetzen, um die Bildung zentraler Organe, die darüber entscheiden was wahr und was falsch ist zu vermeiden. Die Transparenz der Algorithmen ist außerdem essenziell, um zu verstehen wie wichtige Entscheidungen, die unser Leben beeinflussen, gemacht werden.7

Alles in allem sehe ich die kritische Entwicklung ähnlich und das spiegelt auch die Themen wider, über die häufig in den Medien berichtet wird. Beruhigend ist, dass durch den Brief zumindest das Gefühl entsteht, dass dort Leute an einer wichtigen Stelle sitzen, die sich um die Lösung solcher Probleme bemühen. Als einzelner ist das ohne Boykott nur schwierig und nach sämtlichen Datenskandalen hält der Aufschrei ohnehin nur für kurze Zeit an. Bis zum nächsten.

Quellen
  1. Vgl. Berners-Lee, Tim, World Wide Web Foundation: »Three challenges for the web, according to its inventor«, Stand: 12.3.2017, URL: https://webfoundation.org/2017/03/web-turns-28-letter/, Absatz 1, abgerufen am 28.4.2017.
  2. Vgl. Ebd., Absatz 3.
  3. Vgl. Ebd.
  4. Vgl. Ebd., Absatz 4.
  5. Vgl. Ebd., Absatz 3.
  6. Vgl. Ebd., Absatz 5.
  7. Vgl. Ebd., Absatz 6.

HyperCard – Lokales Äquivalent zum Web

In der Episode »Hypercard Maker« von Computer Chronicles aus dem Jahr 1987 stellen Bill Atkinson und Dan Winkler das Hypertext-System HyperCard vor. Das World Wide Web erinnert mich in einigen Eigenschaften stark an HyperCard, weshalb ich das System näher kennenlernen möchte.

In der Episode »Hypercard Maker« von Computer Chronicles aus dem Jahr 1987 stellen Bill Atkinson und Dan Winkler das Hypertext-System HyperCard vor. Zusammen haben sie den Software-Baukasten innerhalb von Apple entwickelt, welcher 1987 veröffentlicht wurde. HyperCard ist eins der ersten funktionierenden Hypermedia-Systeme.

Das World Wide Web erinnert mich in einigen Eigenschaften stark an HyperCard, weshalb ich das System näher kennenlernen möchte.

HyperCard ist ein Informationssystem und besteht aus einzelnen Karten, welche Texte, Grafiken oder Buttons darstellen können. Die Buttons können dabei unter anderem zu weiteren Informationen führen, Anrufe tätigen oder Töne abspielen.1 Das wichtige ist laut Bill Atkinson, dass die Karten sowohl Informationen als auch Interaktionen beinhalten können.2

Die einzelnen Karten werden als »Stacks« gruppiert, die man über Floppy-Disks mit anderen teilen kann.3 Es gibt jedoch auch die Möglichkeit, eigene zu kreieren.4 Die mitgelieferten Templates, »Art Ideas« oder z. B. Button-Librariers unterstützen den Nutzer dabei, eigene Karten und Stacks anzulegen.5

Die Informationen können thematisch organisiert und die Verbindungen zwischen den Karten völlig frei definiert werden.6 So kann man beispielsweise auch Grafiken miteinander verbinden, indem man Buttons auf bestimmte Teile der Grafik legt und zur nächsten Karte mit dem gleichen Inhalt verlinkt. Als Beispiel zeigt Bill Atkinson eine Karte mit einer Pferdekutsche, die bei einem Klick auf das Rad wiederum auf die nächste Karte, die ein Rad enthält, wechselt.7 Durch diese freie Organisation, lassen sich Informationen laut Atkinson sehr eng miteinander verbinden. Auch To-Do-Listen mit Terminen und der Verlinkung zu der dazugehörigen Adresse werden als Beispiel genannt.8

Wichtig ist laut Dan Winkler, dass man für die Arbeit mit HyperCard keine Programmierkenntnisse benötigt, außer man möchte die Buttons selbst modifizieren. Möglichkeiten wären hier z. B. visuelle oder auditive Effekte.9 Sonst ist der unerfahrene Nutzer aber auch in der Lage, Buttons über die Benutzeroberfläche einzubauen.10 Für die Programmierung von Buttons wird die Sprache Apple HyperTalk benutzt. Über eine Box, die an das Terminal erinnert, können in dieser Sprache beispielsweise Kalkulationen oder Kommandos abgefeuert werden.11

HyperCard erinnert mich wie anfangs schon erwähnt sehr an die Struktur des World Wide Webs. Zwar ist es kein offenes System, doch die freie Organisation der Informationen fällt mir primär auf. Wie Tim Berners-Lee Ansatz, alles mit allem zu verlinken, kann man auch in HyperCard – innerhalb des Systems – alles mit allem verlinken. Zudem erklärt Atkinson, dass es eine besondere Home Card gibt, die aus allen Stacks heraus auf die Home-Seite führt. Von dort navigiert man wieder um in die Inhalte, wie z. B. das Adress­buch.12
Das wäre zumindest begrifflich sehr nah an Webseiten, da es auch dort Startseiten gibt. Weiter könnte man es mit den nativen Browser-Startseiten, die bei einigen Browsern die favorisierten Seiten anzeigen, vergleichen. Durch die lokale Speicherung und Anzeige der persönlichen Stacks, erinnert es mich auch sehr stark an den Schreibtisch auf dem Rechner.
Durch Atkinsons Präsentation einer Karte mit Keyboard und klickbaren Tasten, welche Töne erzeugen,13 wird auch deutlich, dass schon ein stückweit an Mini-Anwendungen innerhalb der Karten/Webseiten gedacht wurde, welche im World Wide Web erst später mit JavaScript verwirklicht wurden.

Abschließend kann ich mir vorstellen, dass HyperCard durchaus etwas ähnliches wie das World Wide Web hätte werden können, wenn das System komplett geöffnet worden und die Karten über das Netz verfügbar gewesen wären.

Quellen
  1. Vgl. Public Broadcasting Service: »Computer Chronicles«, »Hypercard Maker«, URL: https://archive.org/details/CC501_hypercard, TC: 00:04:45–00:05:06, abgerufen am 13.4.2017.
  2. Vgl. Ebd., TC: 00:06:12–00:06:40.
  3. Vgl. Ebd., TC: 00:05:08–00:05:34.
  4. Vgl. Ebd., TC: 00:06:44–00:07:03.
  5. Vgl. Ebd., TC: 00:11:08–00:11:56.
  6. Vgl. Ebd., TC: 00:07:58–00:08:55.
  7. Vgl. Ebd.
  8. Vgl. Ebd., TC: 00:07:05–00:07:50.
  9. Vgl. Ebd., TC: 00:10:14–00:10:56.
  10. Vgl. Ebd., TC: 00:09:50–00:10:14.
  11. Vgl. Ebd., TC: 00:09:03–00:09:44.
  12. Vgl. Ebd., TC: 00:06:12–00:06:40.
  13. Vgl. Ebd., TC: 00:05:42–00:06:08.
  14. Abbildungen
    1. Titelbild: Macintosh Repository: »HyperCard 2.2«, URL: https://www.macintoshrepository.org/2328-hypercard-2-2, abgerufen am 13.4.2017.
    2. Eigener Screenshot; Public Broadcasting Service: »Computer Chronicles«, »Hypercard Maker«, URL: https://archive.org/details/CC501_hypercard, TC: 00:04:54, abgerufen am 13.4.2017.

Digitale Magna Carta

Durch meine bisherige Recherche bin ich auf den Artikel »An online Magna Carta: Berners-Lee calls for bill of rights for web« im The Guardian aufmerksam geworden.
Eine Online Magna Carta hält Tim Berners-Lees für notwendig, um die Unabhängigkeit des Mediums sowie der Nutzer weltweit zu schützen und zu verfestigen. Die digitale Verfassung könnte dabei von den Menschen selbst erarbeitet werden.

Durch meine bisherige Recherche bin ich auf den Artikel »An online Magna Carta: Berners-Lee calls for bill of rights for web« im The Guardian aufmerksam geworden.
Eine digitale Verfassung hält Tim Berners-Lees für notwendig, um die Unabhängigkeit des Mediums sowie der Nutzer weltweit zu schützen und zu verfestigen.1 Die digitale Verfassung könnte dabei von den Menschen selbst erarbeitet werden.2

Im begleitenden Video, weist er nachdrücklich darauf hin, dass wir nun nach 25 Jahren World Wide Web über das nächste viertel Jahrhundert nachdenken müssen. Dafür müssen wir unter anderem dafür Sorgen, dass sich die Grundsätze auf dem das Web basiert, etablieren. Darunter fallen Themen wie das Web als offenes Medium oder die Privatsphäre. Für die Demokratie ist außerdem die Frage wichtig, wie man seine Stimme erheben und seine Werte vor der Regierung vertreten kann, wenn man keinen Internetzugang hat.3

Berners-Lee ist weiter der Auffassung, dass wir keine offene Regierung, keine gute Demokratie, kein gutes Gesundheitssystem, keine vernetzten Gemeinschaften und keine kulturelle Vielfalt haben können, bevor wir kein offenes Web besitzen, bei dem wir uns keine Sorgen mehr darüber machen müssen, was an der Hintertür passiert.4 Anwälte und Politiker müssten das Programmieren verstehen, um tatsächlich zu verstehen, was mit Computern alles gemacht werden kann.5

Zudem ist er überzeugt davon, dass der Vorschlag für die Web-Verfassung auch die Auswirkungen von Urheberrechtsgesetzen und kulturell-gesellschaftlichen Themen rund um die Ethik der Technologie untersuchen sollte.6

In meinem Beitrag »Die Verformung der Gesellschaft« habe ich mich schon ansatzweise mit der Problematik auseinandergesetzt, dass das grenzenlose Web den nationalen Grenzen und Gesetzen gegenübersteht. Eine globale Verfassung könnte das Problem lösen. Bisher konnte ich mir jedoch nicht vorstellen, wie diese utopische Vorstellung aussehen könnte.
Laut Berners-Lee sei das wichtigste, dass die Leute für das Web kämpfen und begreifen, was für einen Schaden es hätte, wenn das Web zerstückelt werden würde. Nationale Gesetze bräuchten wir zwar nach wie vor, jedoch dürfen wir das Netz nicht in nationale Silos zerteilen.7
Dieser Ansatz hilft mir dabei, eine Vorstellung davon zu bekommen, wie das Problem lösbar wäre. Ich kann mir eine digitale Verfassung vorstellen, die ähnlich wie das Web selbst, als breites Netz über den nach wie vor vorherrschenden nationalen Gesetzen liegt.

Über eine weitere Suche, hab ich bereits erste Ergebnisse gefunden. Anlässlich zum 800. Geburtstag der Magna Carta, haben junge Menschen im Jahr 2015 bereits gemeinsam eine digitale Magna Carta erarbeitet. Die Öffentlichkeit konnte über die Regeln abstimmen, welche ich in einem weiteren Beitrag bearbeiten werde.

Quellen
  1. Vgl. Kiss, Jemima: »An online Magna Carta: Berners-Lee calls for bill of rights for web«, Stand: 12.3.2014, URL: https://www.theguardian.com/technology/2014/mar/12/online-magna-carta-berners-lee-web, Absatz 3, abgerufen am 27.3.2017.
  2. Vgl. Ebd., Absatz 4.
  3. Vgl. Ebd., Begleitendes Video, TC: 00:0044–00:01:14.
  4. Vgl. Ebd., Absatz 5.
  5. Vgl. Ebd., Absatz 13.
  6. Vgl. Ebd., Absatz 9.
  7. Vgl. Ebd., Absatz 18.

How much wood would a woodchuck chuck?

Als Unterstützung für meine weitere Recherche, möchte ich mich nun auf die technische Entwicklung des Webs konzentrieren. Als Grundlage dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee. In »Vision eines Visionärs« gehe ich näher auf Tim Berners-Lees Vorstellung des Webs ein, weshalb ich sie hier außen vor lassen möchte. An dieser Stelle möchte ich mich nur auf die technischen Fakten konzentrieren, welche ich im Buch finde und sie lediglich auflisten.

Als Unterstützung für meine weitere Recherche, möchte ich mich nun auf die technische Entwicklung des Webs konzentrieren. Als Grundlage dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee. In »Vision eines Visionärs« gehe ich näher auf Tim Berners-Lees Vorstellung des Webs ein, weshalb ich sie hier außen vor lassen möchte. An dieser Stelle möchte ich mich nur auf die technischen Fakten konzentrieren, welche ich im Buch finde und sie lediglich auflisten.
Eine weitere Recherchequelle ist »A Little History of the World Wide Web« vom W3C, welche zum Teil zusätzliche Punkte enthält.

1980

ENQUIRE

Software-Projekt von Tim Berners-Lee aus dem Jahr 1980, welches schon erste Ansätze des World Wide Webs beinhaltet. ENQUIRE steht für »Enquire Within upon Everything«.1 Einzelne Informationen waren als »node« – als Knoten – abgelegt; neue konnte man durch eine Verlinkung des alten Knotens erstellen. Eine Information konnte man nur dann finden, wenn man die Suche von der Startseite aus beginnt. Links waren jeweils am Ende eines Knotens. Das System enthielt bereits interne und externe Links – externe jedoch nur in eine Richtung.2 Die Programmiersprache war Pascal, welche auf dem Betriebssystem »SINTRAN-III« von Norsk Data lief.3

1984

Tangle

Nachdem Tim Berners-Lee im September 1984 ans CERN zurückkehrt, schreibt er in seiner Freizeit ein weiteres Programm namens »Tangle«, um seine Idee in Bezug auf »Verbindungen« weiterzuführen, welche in seiner Vorstellung immer besonders hohen Stellenwert hatten. In einer extremen Sicht könnte man seiner Ansicht nach die ganze Welt nur aus Verbindungen bestehend sehen. Der Computer speichert dabei Informationen nur als Sequenz von Buchstaben, so dass die Verbindung der Buchstaben das wichtige ist. Wenn sich eine bestimmte Buchstaben-Sequenz wiederholt,4 erschafft Tangle einen neuen Knoten, die für diese Sequenz steht. Sollte diese Sequenz erneut auftauchen, verlinkt Tangle nur auf den ursprünglichen Knoten, anstatt sie erneut abzuspeichern. Tim Berners-Lee hatte die Idee auf diese Art und Weise eine Enzyklopädie zu erstellen, welche Fragen auf einzelne Knoten herunterbricht und eine Antwort liefert. Während Tangle die Frage »How much wood would a woodchuck chuck« noch verarbeiten konnte, lieferte eine weitere komplexere Frage eine Endlosschleife aus »How much wood would a woodchuck chuck if a woodchuck chuck wood chuck chuck chuck wood wood chuck chuck chuck …«. Da das Debuggen unendlich kompliziert gewesen wäre, fasste Berners-Lee das Programm nie wieder an.5

ENQUIRE

Neue Version von ENQUIRE mit ausschließlich internen Links. Jedes Netz war damit limitiert. Diese Einschränkung war für ihn eine sehr wichtige Erkenntnis.6

RPC

Um die Kommunikation zwischen Computern und Netzwerken zu vereinfachen, schrieb Berners-Lee ein RPC-Programm (remote procedure call).7

Bis 1988

Hypertext-Ansatz

Ansatz, dass sein System so wenig Regeln wie möglich besitzen sollte, damit jegliche Informationen ins System fließen können, ohne dass die Entwickler ihre Arbeit grundsätzlich überarbeiten müssen. Letztendlich wählt Berners-Lee Hypertext dafür.8

1988

Proposal

Mike Sendall, Tim Berners-Lees Boss, bat ihn um eine Ausarbeitung der Idee.9

TCP/IP

Das Hauptproblem war letztendlich, eine Basis zu schaffen, auf der verschiedene Computer mit verschiedenen Betriebssystemen miteinander kommunizieren können.10

Viele Physiker nutzten das VAX/VMS-Betriebssystem und DECnet Kommunikations-Protokolle, Unix nutzte dagegen Internetprotokolle. Berners-Lee favorisiert die Protokolle TCP/IP. Die Unix-Welt nutzt sie bereits und VAX-Welt könnte sie übernehmen.11
Adaption des RPC-Adress-Schemas, um Dateien zu adressieren und abzurufen.

1989

12.3.1989: »Information Management: A Proposal«

Dokument, dass das World Wide Web als globales, non-lineares Hypertext-System innerhalb von CERN vorstellt.12 Die Vorstellung des Informationssystems zielt unter anderem darauf ab, den Verlust von Informationen innerhalb der Organisation zu verhindern. Er präsentiert das Systems als große Hypertext-Datenbank mit Links, welche automatisch analysiert werden könnten.13

Grafik aus »Information Management: A Proposal«I
Grafik aus »Information Management: A Proposal«I

1990

Keine Reaktion

Keine Reaktion auf seine Ausarbeitung bis er sie im Mai 1990 nochmal David Williams (Boss von Mike Sendall) gab und sie erneut auf Eis gelegt wurde.14

Ideen zur Namensgebung

Mesh oder Information Mesh, MOI für »Mine of Information« oder TIM für »The Information Mine«. Letztere könnten zu egozentrisch wirken und Tim Berners-Lee entschied sich für »World Wide Web«.15

HT

Auf der Suche nach einem charakteristischen Akronym entschied er sich für »HT«. Jedes Programm, das ins System involviert war, sollte mit diesen Buchstaben starten.16

European Conference on Hypertext Technology

Besucht zusammen mit Robert Cailliau, einem alten CERN-Veteran, die Konferenz, um die Idee vorzustellen. Ian Ritchie und Leute von Owl Ltd. stellten ein Produkt namens »Guide« vor. Das Original von Peter Brown, das an der Universität von Southampton entstanden ist, sah im Grunde wie Tim Berner-Lees Vision aus.17 Es brachte alle Eigenschaften mit sich, nur das Internet fehlte. Er versuchte die Zuständigen zu überreden, es an das Internet zu schließen, aber sie waren von der Idee nicht überzeugt. Auch die anderen Teilnehmer konnten nicht vom World Wide Web überzeugt werden.18

Code des World Wide Webs

Tim Berners-Lee beginnt im Oktober damit, den Code für das World Wide Web auf dem NeXT zu schreiben:
· Web Client
· Hypertext Transfer Protocol (HTTP)
· Universal Resource Identifier (URI)
· Hypertext Markup Language (HTML)
· Web Server (nxoc01.cern.ch – Next, Online Controls, 1) – Alias: info.cern.ch
· Erste Hypertext Webseite mit Spezifikationen zu HTTP, URI, HTML und alle projektbezogenen Informationen

Der Client war Mitte November fertig und hieß »WorldWideWeb«, welcher ab Dezember mit HTML funktionierte. Bis dahin jedoch nur auf dem NeXT.18 HTML wurde dabei an SGML (Standard Generalized Markup Language) angelehnt – eine Sprache, die bereits bei einigen Dokumentations-Communities bevorzugt wurde.19
Bestehende Internetprotokolle wie z. B. NNTP oder FTP waren Berners-Lee zu langsam, weshalb er HTTP entwickelte.20
Um andere Systeme mit einzuschließen wurde der kleinste gemeinsame Nenner gesucht: Alle hatten die Tastatur als Eingabegerät und konnten ASCII produzieren. Der auf das wesentliche heruntergebrochene Browser hieß »line-mode Browser« und wurde an das Terminal angelehnt, welches jeweils eine Zeile zeigt.21
Via FTP stellte Tim Berners-Lee eine Verbindung zu Nachrichtenartikel und Newsgruppen im Internet her. So waren Inhalte aus dem Internet umgehend verfügbar.22

Merry Christmas

Tim Berners-Lee und Robert Cailliau hatten jeweils den Browser/Editor WorldWideWeb auf ihrem NeXT installiert, welche am Weihnachtstag 1990 über das Internet via info.cern.ch kommunizieren konnten.23

1991

Telefonbuch von CERN

Das Web ist noch nicht weit genug, um es als ultimatives Dokumentations-System zu verbreiten. Erstes kleines Ziel: Telefonbuch von CERN.24

Dokumentation auf info.cern.ch

Fortführung der Dokumentation auf info.cern.ch. Jede technische Entscheidung basiert auf der Idee, dass es ein Informationsraum sein sollte, der alle umfasst und einschließt.25 Sprich auch von jedem Computer und Betriebssystem zugänglich sein sollte.

Veröffentlichung WorldWideWeb

Im März 1991 wurde das Program WorldWideWeb innerhalb von CERN veröffentlicht. Jedoch nur limitiert an die Nutzer von NeXT Computern.26

Hypertext at CERN

Ausarbeitung »Hypertext at CERN«.27

Veröffentlichung

Im August veröffentlich Tim Berners-Lee drei Dinge: das WorldWideWeb für NeXT, einen line-mode Browser sowie den grundlegenden Server.28

comp.infosystems.www

Start von comp.infosystems.www als Newsgruppe zum Informationsaustausch.29

Telnet-Protokoll

Öffentlicher Telnet-Server auf info.cern.ch. Telnet ist ein Protokoll, wodurch ein Nutzer eine interaktive Kommandozeilen-Session öffnen konnte. Dadurch gelangten Menschen ins Web, welche keinen Browser installieren konnten.30

WorldWideWeb-Browser in C

Der Browser WorldWideWeb wurde erneut in der Sprache C geschrieben, um den Transport zu vereinfachen.31

Libwww

Libwww als Bibliothek – Veröffentlichung des webspezifischen Codes.32

Zwei Gateways

Installation von zwei Gateways zum Support-System VAX/VMS und WAIS.33

Mailing-Liste für technische Diskussionen

Start der Online-Mailing-Liste www-talk@info.cern.ch für technische Diksussionen.34

Hypertext 91’

Hypertext 91’ im Dezember. Das Projekt wird vorgestellt, findet jedoch kaum Zuspruch.35

1992

Erwise

Im April wird der Browser »Erwise« der Helsinki University of Technology für Unix mit dem Betriebssystem X-Windows veröffentlicht.36

ViolaWWW

Im Mai wird der Browser »ViolaWWW« von Pei Wei für Unix veröffentlicht.37

Samba

Entwicklung eines Webbrowser Samba für Macintosh von Tim Berner-Lees Kollegen.38

URL

Aus URI (universal resource document) wurde URL (uniform resource locator).39

MidasWWW

Tony Johnson entwickelt den Browser »MidasWWW« für X.40

1993

Es gab etwa 50 bekannte Server und die Browser Erwise, ViolaWWW und MidasWWW waren für X-Windows verfügbar, Samba für Mac.41

Diverse Browser

Dave Raggett entwickelt den Browser »Arena«.42

Die University of Kansas schreibt einen text-basierten Hypertext-Browser namens »Lynx«, der es als screen mode Browser erlaubt, durch das Dokument zu scrollen. Lynx 2.0 wurde als Web-Browser im März veröffentlicht43 und ist der älteste Browser, der noch immer in Betrieb ist.44

Marc Andreessen veröffentlicht im Februar den Browser »Mosaic« für X.45

Tom Bruce schreibt den Browser »Cello« für Microsofts Windows, welcher im März veröffentlicht wird. Erstmals konnten Windows-Nutzer das Web in verschiedenen Farben und Schriften sehen.46

Das freie World Wide Web

Am 30.4.1993 gab CERN das Web-Protokoll und den Code zur Nutzung frei.47 Dieser Tag wird heute als Geburtstag des freien World Wide Webs angesehen.

Veröffentlichung von Mosaic für UNIX, Windows und Mac im September.48

1994

Internet in a Box

Tim O’Reilly kündigt das Produkt »Internet in a Box« an, welches das World Wide Web in Privathaushalte bringen soll. Das Produkt wird jedoch überflüssig, da nun viele Internet-Service-Provider ihre Arbeit aufnahmen.49

Navipress

Navisoft Inc. veröffentlicht einen Browser namens »Navipress« für den PC und Mac.50

Netscape Navigator 1.0

Gründung des Unternehmens Mosaic Communications Corp. –, später Netscape –51, welches im Oktober desselben Jahres den Browser »Mozilla« auf den Markt bringt.52 Die kommerzielle Version wird im Dezember über das Internet herausgegeben und zu »Netscape Navigator« umbenannt. Der Browser ist mit Windows, X Window und Macintosh kompatibel.53

Woodstock of the Web

Erste internationale WWW-Konferenz – auch »Woodstock of the Web« genannt – im Mai.54 Hier entstand das Konzept von VRML (Virtual Reality Modellen Language).

W3C

Gründung des W3C.55

1995

Hardware mit Browser

Im April kündigt Compaq an, seine PCs mit dem Navigator auszustatten. Damit wird erstmals ein Browser direkt mit der Hardware ausgeliefert.56

Java

Im Mai wird die Programmiersprache Java eingeführt. Die Sprache vereinfacht es in vielerlei Hinsicht Inhalte veröffentlichen. So wird von nun an beispielsweise weniger Arbeitsspeicher beim Endnutzer benötigt, um Inhalte anzusehen. Sie können nämlich direkt im Webbrowser angezeigt werden.57

AOLpress

AOL kauft das Unternehmen Navisoft, welches Navipress entwickelt hatte. Das Produkt heißt von nun an AOLpress.58

Internet Explorer

Der Internet Explorer wird im August zusammen mit Windows 95 veröffentlicht.59

1996

Browser kommen und gehen

Netscapes Navigator 2.0 kommt auf den Markt.60

AOLpress stirbt, während AOL nun den Internet Explorer nutzt.61

PICS

PICS (Platform for Internet Content Selection) wird im März als mögliches Filter-Werkzeug für Webinhalte veröffentlicht.62

Amaya

Das W3C entwickelt ab 1996 den experimentellen Browser »Amaya«.63

1997

RDF

Ab 1997 erste Konzeption von RDF (Resource Description Framework) mit dem letztendlichen Ziel maschinenlesbare Daten für das semantische Web zu erhalten.64

1998

Open Source Policy

Netscape veröffentlicht im Januar den kompletten Quellcode seines Browsers.65

XML

XML (Extensible Markup Language) wird im Februar vom W3C veröffentlicht, um SGML abzulösen. XML ist die Basis von Sprachen wie HTML.66

DOM

DOM (Document Object Model) wird als Standard des W3C eingeführt.67

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 1.
  2. Vgl. Ebd., S. 10.
  3. Vgl. Ebd., S. 11.
  4. Vgl. Ebd., S. 12.
  5. Vgl. Ebd., S. 13.
  6. Vgl. Ebd., S. 15.
  7. Vgl. Ebd., S. 14.
  8. Vgl. Ebd., S. 15.
  9. Vgl. Ebd., S. 17.
  10. Vgl. Ebd., S. 17.
  11. Vgl. Ebd., S. 19.
  12. Vgl. Ebd., S. 21.
  13. Vgl. Ebd.
  14. Vgl. Ebd., S. 22.
  15. Vgl. Ebd., S. 23.
  16. Vgl. Ebd.
  17. Vgl. Ebd., S. 26.
  18. Vgl. Ebd., S. 27.
  19. Vgl. Ebd., S. 29.
  20. Vgl. Ebd., S. 41.
  21. Vgl. Ebd., S. 39.
  22. Vgl. Ebd., S. 30.
  23. Vgl. Ebd.
  24. Vgl. Ebd.
  25. Vgl. Ebd., S. 32.
  26. Vgl. Ebd., S. 33.
  27. Vgl. Ebd., S. 45.
  28. Vgl. Ebd., S. 46.
  29. Vgl. Ebd.
  30. Vgl. Ebd., S. 47.
  31. Vgl. Ebd.
  32. Vgl. Ebd., S. 48.
  33. Vgl. Ebd., S. 50.
  34. Vgl. Ebd.
  35. Vgl. Ebd.
  36. Vgl. Ebd.
  37. Vgl. Ebd., S. 56.
  38. Vgl. Ebd.
  39. Vgl. Ebd., S. 58.
  40. Vgl. Ebd., S. 62.
  41. Vgl. Ebd., S. 64.
  42. Vgl. Ebd., S. 67.
  43. Vgl. Ebd.
  44. Vgl. Ebd., S. 68.
  45. Vgl. »Lynx (web browser)« in: »Wikipedia, the free encyclopedia«, Stand: 26.2.2017, URL: https://en.wikipedia.org/wiki/Lynx_(web_browser), abgerufen am 20.3.2017.
  46. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 69.
  47. Vgl. Ebd.
  48. Vgl. Ebd., S. 74.
  49. Vgl. Ebd., S. 76 f.
  50. Vgl. Ebd., S. 80.
  51. Vgl. Ebd., S. 81.
  52. Vgl. Ebd., S. 82.
  53. Vgl. Ebd., S. 96.
  54. Vgl. Ebd., S. 97.
  55. Vgl. Ebd., S. 85.
  56. Vgl. Ebd., S. 93.
  57. Vgl. Ebd., S. 103.
  58. Vgl. Ebd., S. 104.
  59. Vgl. Ebd., S. 105.
  60. Vgl. Ebd., S. 108.
  61. Vgl. Ebd., S. 112.
  62. Vgl. Ebd.
  63. Vgl. Ebd., S. 113.
  64. Vgl. Ebd., S. 119.
  65. Vgl. Ebd., S. 181.
  66. Vgl. Ebd., S. 118 f.
  67. Vgl. Ebd., S. 119.
  68. Vgl. Ebd., S. 168.
Abbildungen
  1. CERN, O‘Luanaigh, Cian: »World Wide Web born at CERN 25 years ago«, Stand: 8.4.2014, URL: https://home.cern/about/updates/2014/03/world-wide-web-born-cern-25-years-ago, abgerufen am 20.3.2017.

Die Verformung der Gesellschaft

In einem weiteren Beitrag über das Buch »Weaving the Web: The Original Design and Ultimate Destiny of the World« von Tim Berners möchte ich mich mit der gesellschaftlichen Bedeutung des World Wide Webs befassen. Dabei geht es mir momentan nicht darum, einen Einblick in sämtliche Einzelheiten zu geben, sondern grobe Eckpfeiler für meine weitere Recherche zu definieren. Die Recherche bezieht sich dabei vor allem auf die Jahre zwischen den Anfängen und der geplatzten Dotcom-Blase im Jahr 2000.

In einem weiteren Beitrag über das Buch »Weaving the Web: The Original Design and Ultimate Destiny of the World« von Tim Berners-Lee möchte ich mich mit der gesellschaftlichen Bedeutung des World Wide Webs befassen. Dabei geht es mir momentan nicht darum, einen Einblick in sämtliche Einzelheiten zu geben, sondern grobe Eckpfeiler für meine weitere Recherche zu definieren. Die Recherche bezieht sich dabei vor allem auf die Jahre zwischen den Anfängen und der geplatzten Dotcom-Blase im Jahr 2000.

Die Veröffentlichung des WorldWideWeb

Das »WorldWideWeb«-Programm (Browser) wurde im März 1991 erstmals innerhalb CERNs veröffentlicht, wobei nur Personen mit NeXT Computern Zugang hatten.1 Ursprünglich war das Web nicht für den privaten Gebrauch oder für Einzelunternehmen entwickelt. Während es zunächst für ein besseres Informationsmanagement innerhalb CERNs nützlich sein sollte, machten später auch Universitäten, Forscher und große Unternehmen davon Gebrauch.2
Meinem Eindruck nach waren die Anfänge ein regelrechter Kampf darum, die Wichtigkeit des WWW zu vermitteln. Ob schriftliche Ausarbeitungen oder die Präsentation auf einer Konferenz namens Hypertext im Dezember 1991: Durchweg schien sich die Begeisterung in Grenzen zu halten. Zum einen vermute ich, dass das Verständnis für diese Art von Informationsraum noch nicht weit genug ausgeprägt war – auch heute würde es uns schwerfallen, uns auf dem Papier ein Medium vorzustellen, das die nächsten Jahrzehnte maßgeblich verändern und umkrempeln könnte. Vor allem, wenn noch weitere nicht ausgereifte Systeme miteinander konkurrieren. Zum anderen war die Nutzung noch immer sehr beschränkt. Erst im August 1991 veröffentlicht Berners-Lee das WorldWideWeb für NeXT, einen Line-Mode Browser sowie den elementaren Server außerhalb von CERN.3 Selbst die Nutzung dieser Angebote war längst nicht intuitiv und einfach.

Erschwerter Zugang

Das Web verbreitet sich begrenzt in der Hypertext Community, doch obwohl es durch einen Telnet-Zugang grundsätzlich für Millionen von Menschen zugänglich gewesen wäre, hapert es an – aus heutiger Sicht – kleinen Problemen: Es war einfacher sich ab Oktober 1991 über das Telnet-Protokoll in die Kommandozeile eines anderen Computers innerhalb CERNs einzuwählen, als selbst einen Browser zu installieren. Nur langsam verbreitet sich das Web weiter und wird von Menschen rund um den Globus wahrgenommen. Das wichtigste war laut Berners-Lee, dass die Menschen, die das Web sahen und die unbegrenzten Möglichkeiten verstanden, damit begannen Server aufzusetzen und Informationen zu publizieren. Netterweise bekam er zu Beginn noch Nachrichten, wenn ein neuer Server aufgesetzt wurde.4

Cleverness schlägt Vermögen

Eine dringende Notwendigkeit war die Entwicklung eines tauglichen, systemübergreifenden Browsers, der nicht nur das Lesen von Informationen, sondern auch das Editieren zulässt. Ansätze lieferten 1992 die Browser Erwise (April), ViolaWWW (Mai) oder später Samba (Dezember). Letztendlich war kein Browser wirklich vollkommen oder systemunabhängig. Das führte zum Problem, dass den Menschen das Werkzeug fehlte, um wirklich gut zusammenarbeiten zu können. Das Web wurde zunehmend zu einem Medium, welches das Publizieren eher zulässt als eine vernünftige Zusammenarbeit. Das ironische, was Berners-Lee darin sah, war die Tatsache, dass unzählige Intranets entstanden. Solche zusammenzuschließen war jedoch der ursprüngliche Antrieb, welches das Bedürfnis nach einem ganzheitlichen Netz überhaupt entstehen ließ.5 Erst mit der Erscheinung von Browsern, wurden in immer kürzeren Abständen neue Server aufgesetzt. Ein Server über Rom während der Renaissance beeindruckt den Begründer dabei besonders. In Form eines virtuellen Museums inspiriert es viele weitere Webseiten – auch solch’ beeindruckende Veröffentlichungen begünstigten den Aufstieg des Webs.6

Nachdem im Februar 1993 die erste Version des Browsers Mosaic verfügbar war, gründete der Mitentwickler Marc Andreessen zusammen mit Jim Clark Mosaic Communications Corp. (später Netscape).7 Zunächst wird im Oktober 1994 der Browser Mozilla veröffentlicht8 und am 15.12.1994 die kommerzielle Version, die zwischenzeitlich zu Navigator 1.0 umbenannt wurde.

Das Besondere an der Veröffentlichung: Netscape veröffentlicht den Browser frei verfügbar über das Internet anstatt ihn einzutüten und zu verschicken. Zudem sind zwei weitere Ansätze wichtig: Zum einen ist die Veröffentlichung einer Beta-Version – an der hunderte Nutzer unentgeltlich weiterarbeiten und Verbesserungsvorschläge senden können – bis dahin nicht alltäglich. Zum anderen ist das Vermarktungs-Modell neu, etwas frei im Web anzubieten und erst nachträglich, durch z. B. andere Produkte oder Werbung auf der Startseite, Geld zu verdienen. Innerhalb weniger Monate nutzten die meisten Menschen im Web diesen Browser.9 Damit schlägt er zunächst den Internet Explorer, der erst später im August 1995 zusammen mit Windows 95 veröffentlicht wurde.10

Das Web kommt im Privaten an

Immer mehr Menschen nutzen das World Wide Web und schon zu Beginn des Jahres 1994 zeichnete sich ab, dass es zunehmend wahrgenommen wird. Allein von März bis Dezember 1993 stiegen die Webverbindungen innerhalb des Internets von 0,1 auf 2,5 %.11 Auch die Zugriffe auf info.cern.ch verzehnfachten sich in den ersten Jahren. Waren es im Sommer 1991 noch 100 pro Tag, betrug die Zahl der Aufrufe schon 10.000 im Sommer 1993.12 Im Jahr 1994 übersteigt zudem die Zahl der kommerziellen Nutzer die der wissenschaftlichen Nutzer, bei einer gesamten Zahl von rund drei Millionen Internet-Rechnern.13

Umso wichtiger war es nun, das WWW so einfach wie möglich zugänglich zu machen. Tim O’Reilly entwickelte dabei das Produkt »Internet in a Box«, welches den privaten Nutzer dabei unterstützen sollte, zu Hause Zugang zu erhalten. Es wurde jedoch überflüssig, da nun viele Internet-Service-Provider mit auf den Zug sprangen und den Eintritt als Komplettpaket ermöglichten. Dass Software und Service nun kommerzialisiert angeboten wurden, war ein bedeutender Schritt, da viele Menschen kein Interesse an der Nutzung haben würden, wenn sie nicht sicher sein konnten, dass alles Nötige von einem Unternehmen inklusive Support angeboten wird.14

Scheitern nicht ausgeschlossen

Trotz der wachsenden Zahl der Nutzer gab es schon 1993 erste Anzeichen dafür, dass das Web sich in einzelne Fraktionen aufteilt: In kommerzielle und akademische, freie und kostenpflichtige. Das würde Tim Berners-Lee ursprünglichem Ansatz widersprechen, ein universell zugängliches Hypertext-Medium für den Informationsaustausch zu sein.15 Auch 1994 hätte das Web laut ihm noch immer verschwinden oder von einem anderen System ersetzt werden können, noch immer hätte es zersplittert oder sein Wesen so sehr verändern können, dass es nicht mehr als universelles Medium existiert.16 Ein wichtiger Schritt war hier, dass Tim Berners-Lee das Web nicht sich selbst überlassen und beispielsweise mit monetärem Vorteil jeden Job seiner Wahl angenommen hat. Sondern sich weiter für seine Vision eingesetzt hat. Das W3C zu gründen und aus ihm heraus – gänzlich konzentriert auf die Sache – zu agieren, war hier ein wichtiger Schritt.17 Das Web selbst füllte sich zunehmend mit den verschiedensten Menschen, Organisationen und Unternehmen und das Konsortium würde gleichermaßen gemischt aufgestellt sein. Es sollte das »Web des Lebens« aufrechterhalten.

Money, Money, Money!

Ein weiterer entscheidender Einschnitt war der Börsengang von Netscape im August 1995. Nach nur einem Tag an der Börse war das Unternehmen 4,4 Milliarden Dollar wert und Ende 1996 verzeichnete das Unternehmen Einnahmen von 346 Millionen Dollar. Auf einen Schlag war die Botschaft klar: Das Web ist ein bedeutender Markt geworden, auf dem sich viel Geld verdienen lässt.18

Häufig wurde Tim Berners-Lee mit der Frage konfrontiert, ob ihn das sauer machen würde, dass man nun für einige Web-Angebote Geld zahlen müsste. Für ihn war die Community, die für freie Software sorge zwar fundamental und er sieht sie als Basis der Kreativität. Doch gleichermaßen sah er die partielle Kommerzialisierung als wichtigen Meilenstein für den Erfolg des Webs, ohne die das ganze Konzept nicht aufgegangen wäre. Um ein universelles Medium zu werden, musste es jede Informationen und Verlinkung zulassen. Das bedeutet, dass man kommerzielle Angebote nicht einfach ausschließen durfte.19 Zudem sieht er die Universalität auf jeder Ebene, die auch in der realen Welt existiert. Es musste auf verschiedenen Wegen mit verschiedenen Gruppen verschiedener Größen an verschiedenen Orten des täglichen Lebens funktionieren. Ob zu Hause, im Büro, Schulen, Kirchen, Ländern, Kulturen, etc. Informationen müssten jede soziale Grenze durchbrechen können.20 Dementsprechend war auch die Sorge, dass der bislang von Akademikern als offen und frei verstandene Informationsraum, von Spam-Mails und Werbung überflutet wird zwar verständlich, aber unbegründet.21

Ein Brösel des Kuchens

Während im Jahr 1996 bereits die erste Botschaft des »großen Geldes« versandt wurde, wurden die meisten Dinge noch immer von purer Aufregung und Euphorie angetrieben. Erst 1998 wurde das Web zum Schauplatz des großen Geschäfts und rückte auch in das Interesse der Regierung. Es wuchs der Wunsch das Web zu kontrollieren und jeder mischte sich ein, wo er nur konnte. Gegen Microsoft lief ein Kartellverfahren, der Wert der Internetfirmen stieg und es gab den sogenannten »Kampf der Portale« von Mammut-Webseiten wie Yahoo!, Dienstleister wie AOL oder Anbietern von Inhalten wie Disney.22 Jeder wollte das größte Stück des Kuchens abhaben. Vor allem die steigenden Marktwerte, der starke Expansionsdrang von Unternehmen und überhöhte Gewinnerwartungen führten letztlich 2000 zum Zerplatzen der großen Internetblase. Erwartungen wurden nicht erfüllt, Unternehmen waren nicht profitabel genug oder gingen bereits in Insolvenz. Während viele Kleinanleger und überschaubare Unternehmen zu viel Verluste einstrichen, steckten Teile der »New Economy« diesen Absturz jedoch weg und erreichten ganz neue Aufmerksamkeit. Dazu gehören beispielsweise amazon, eBay oder Google.

Kampf der Moral

Während die Unternehmen, um ihren Platz im Web kämpften, stemmten sich verschiedenste Gruppen – sei es mit religiösen Hintergrund oder z. B. Elterninitiativen – gegen verwerfliche oder schädliche Inhalte im Web.23
Es gab zwar verschiedene Ansätze das Problem zu lösen, doch zum einen stellte sich die Frage nach der Legitimität von Zensur.24 Zum anderen hätte eine Filterung von beispielsweisen pornographischen Inhalten teilweise auch dazu geführt, dass ungewollt andere Inhalte wie z. B. Informationen über Sexualerziehung oder Brustkrebs verbannt worden wären. Ohnehin sind Betrug und Kinder-Pornographie auch im realen Leben strafbar25 – dementsprechend müssten Gesetze nach Handlungen beschrieben werden, nicht in Bezug auf eine einzelne Technologie.26

Verformte Gesellschaft

Natürlich musste sich das Konsortium durchaus über die Auswirkungen auf die Gesellschaft, welche durch das Web geformt wird, Gedanken machen.27 So schreibt Berners-Lee, dass wir alle sicherstellen müssen, dass die Gesellschaft, die wir mit dem Web aufbauen, die von uns beabsichtigte ist. Weiter, dass sie in vielen ethischen, rechtlichen und sozialen Fragen zurückbleiben kann, wenn sich die Technologie zu schnell entwickelt.28 Letztendlich war es aber Aufgabe der Technologie bzw. des Mediums, technische Mechanismen anzubieten und nicht sozialpolitisch zu agieren. Technologie muss losgelöst davon sein, die Welt beherrschen zu wollen.29 Das betrifft unter dem Strich viele weitere Bereiche wie z. B. die Meinungsfreiheit, Privatsphäre oder geistiges Eigentum.30

Um die Gesellschaft zu schützen, sollten wir zudem vorsichtig sein, Dinge zu tun, nur weil sie möglich sind. Die Tatsache, dass es sehr kostengünstig machbar wäre, über politische Fragen im Web abzustimmen, bedeutet nicht, dass wir zwingend von einer repräsentativen zur direkten Demokratie wechseln müssen.31

Ferner hält Berners-Lee es für wichtig, dass das Web Parallelität zulässt. Das menschliche Gehirn übertrifft den Computer in seiner Parallelverarbeitung und auch die Gesellschaft löst die Probleme parallel. Jeder sollte daher in der Lage sein, Arbeiten zu veröffentlichen und zu kontrollieren, wer Zugang zu dieser erhält. Es sollte dabei keine Struktur oder Beschränkungen geben, die irgendeine Form von Idee ausschließt.32
Weiter können viele soziale Prozesse besser maschinell durchgeführt werden: Die Computer sind stets verfügbar, ohne Vorurteile und ohnehin würde keiner diese Systeme verwalten wollen.33

Abschließend ist es aus heutiger Sicht keine Überraschung, dass die Gesellschaft massiv vom World Wide Web verformt wurde. Unternehmen und Nationen wurden zuvor durch geographische Grenzen gebildet und das Web hat uns aus dem zwei-dimensionalen Raum katapultiert.34 Entfernungen sind nichtig geworden und die gesellschaftlichen Probleme sind zum Teil sicher andere geworden.
Doch obwohl wir nun von fast drei Jahrzehnten World Wide Web sprechen, scheinen viele Probleme, die Tim Berners-Lee schon 1999 beschreibt, nach wie vor zu bestehen. Noch immer herrschen riesige Diskussion über Datenschutz und Privatsphäre, noch immer landen unzählige illegale Inhalte im World Wide Web und noch immer – oder durch die Masse gerade jetzt – ist es unmöglich Inhalte zu »kuratieren«. Die weiteren Fragen, die daraus entstehen sind die, wer überhaupt das Recht hätte Inhalte zu zensieren oder wie Rechte generell durchzusetzen sind. Nimmt man Facebook als bekanntes Beispiel, wird einem bewusst, wie schwierig die Lage zu sein scheint. Grundrechte wie das »Briefgeheimnis« werden völlig missachtet und in vielen weiteren Punkten handelt Facebook entgegen dem deutschen Gesetz. Zum einen ist es ein massives Problem, dass das Web international ist, während es nichtsdestotrotz geographische Grenzen mit Gesetzen für diesen begrenzten Raum gibt. Zum anderen ist fraglich, wie solche limitierten Gesetze durchsetzbar wären. Als extremste Form könnte Facebook in Deutschland nicht verfügbar sein bis sich die Plattform an die Gesetze hält und die Rechte der Bürger anerkennt. Doch der Aufschrei wäre groß und ein Argument wäre, dass man immerhin selbst entscheiden kann, ob man Rechte abtritt – was wir immerhin tagtäglich tun. Noch immer scheint es so, als könnte man die Probleme, die im World Wide Web auftauchen, nicht in den Griff kriegen. Zudem ist es aus meiner Sicht so gut wie ausgeschlossen sämtliche Straftaten zu verhindern und auszuschließen. Immerhin ist das Web nicht mehr nur ein Spiegel der Gesellschaft, sondern ein Werkzeug, das wir nicht nur nutzen, sondern durch dass sich unser komplettes Leben verändert hat. Ein Werkzeug, das längst nicht nur ein Medium ist, in das wir bewusst eintauchen, sondern ein täglicher Begleiter. Das uns ständig umgibt und dessen Grenzen zur »realen« Welt verschwinden. Ein großer Kosmos informationeller Entitäten, dessen gesamtes Dasein grundsätzlich überdacht werden müsste.

Auf dieser Basis entstand mein ursprünglicher Titel »Digitale Primaten«. Zwar gehören auch Menschen zu den Primaten, aber im allgemeinen Sprachgebrauch klingt Primaten etwas rückständig. Aus meiner Sicht hinken wir noch immer der Technologie hinterher und sollte sie sich weiter so schnell entwickeln – was ich vermute – wird der Abstand größer und größer. Daher gilt es, so schnell wie möglich Lösungen zu finden, um das Zusammenleben zwischen Mensch und Maschine anzunähern und mit so wenig Hürden wie möglich zu gestalten.

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 4.
  2. Vgl. Ebd., S. 45.
  3. Vgl. Ebd., S. 46.
  4. Vgl. Ebd., S. 48.
  5. Vgl. Ebd., S. 56 f.
  6. Vgl. Ebd., S. 59.
  7. Vgl. Ebd., S. 82.
  8. Vgl. Ebd., S. 95.
  9. Vgl. Ebd., S. 99.
  10. Vgl. Ebd., S. 108.
  11. Vgl. Ebd., S. 80.
  12. Vgl. Ebd., S. 75.
  13. Vgl. »Chronologie des Internets« in: »Wikipedia, Die freie Enzyklopädie«, Stand: 3.3.2017, URL: https://de.wikipedia.org/w/index.php?title=Chronologie_des_Internets&oldid=173334077, abgerufen am 9.3.2017.
  14. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 80 f.
  15. Vgl. Ebd., S. 76.
  16. Vgl. Ebd., S. 83.
  17. Vgl. Ebd., S. 84 f.
  18. Vgl. Ebd., S. 106.
  19. Vgl. Ebd., S. 107.
  20. Vgl. Ebd., S. 164.
  21. Vgl. Ebd., S. 107.
  22. Vgl. Ebd., S. 124.
  23. Vgl. Ebd., S. 124.
  24. Vgl. Ebd., S. 113.
  25. Vgl. Ebd., S. 135 f.
  26. Vgl. Ebd., S. 131.
  27. Vgl. Ebd., S. 110.
  28. Vgl. Ebd., S. 123.
  29. Vgl. Ebd., S. 137.
  30. Vgl. Ebd., S. 124.
  31. Vgl. Ebd., S. 174.
  32. Vgl. Ebd., S. 203.
  33. Vgl. Ebd., S. 172.
  34. Vgl. Ebd., S. 200.
Abbildungen
  1. Titelbild: Foto von Geni: »Photo of the NeXTcube used as the first web server. The label reads ›This machine is a server. DO NOT POWER IT DOWN!!‹. On display at the science museum london.«, Stand: 13.1.2015, via Wikimedia Commons, abgerufen am 13.3.2017, Lizenz: CC BY-SA 4.0 oder GFDL.

Struktureller Aufbau des Webs und die Koexistenz von Mensch und Maschine

Nach meiner ersten Auseinandersetzung mit Tim Berners-Lees Buch, möchte ich im folgenden weiteren Gedanken nachgehen. Dabei geht es unter anderem um den Aufbau des Webs, welchen ich vor allem strukturell näher betrachten möchte. Zudem finde ich den Ansatz eines universellen Informationsraums, in dem Mensch und Maschine harmonisch koexistieren sehr faszinierend.

Nach meiner ersten Auseinandersetzung mit Tim Berners-Lees Buch (Die Vision eines Visionärs »), möchte ich im folgenden weiteren Gedanken nachgehen. Dabei geht es unter anderem um den Aufbau des Webs, welchen ich vor allem strukturell näher betrachten möchte. Zudem finde ich den Ansatz eines universellen Informationsraums, in dem Mensch und Maschine harmonisch koexistieren sehr faszinierend.

Hypertext als non-lineare Grundlage

Während das Internet grundsätzlich nur das infrastrukturelle Fundament für das World Wide Web bildet, basiert die Kernidee des World Wide Webs auf Hypertext. Laut Berners-Lee war seine Aufgabe lediglich beides zu »verheiraten«.1 Nachdem es zuvor schon ähnliche Konzepte gab, wurde der Begriff Hypertext im Jahr 1965 von Ted Nelson geprägt. Zum einen schrieb Ted Nelson von »Literarischen Maschinen«: Von Computern, die dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren.2 Zum anderen ist an dieser Stelle wichtig zu wissen, dass es sich bei Hypertext um einen dynamischen Text handelt, dessen einzelne Bestandteile durch Querverweise vernetzt sind. Dieser enzyklopädische Ansatz ist fundamental für die Entwicklung des World Wide Webs und sein non-lineares Format.

Auf Grundlage dieser Struktur, entwickelt Tim Berners-Lee den Vorläufer des World Wide Webs »Enquire«, das auf Knoten (Nodes) basiert, die – der Reihe nach – miteinander verlinkt sind. Er vergleicht das Software-Projekt mit dem menschlichen Gehirn, welches gleichermaßen netzartig funktioniert und zufällige Assoziationen zulässt.3 Dabei sind die Verbindungsmöglichkeiten unbegrenzt und zuvor nicht berücksichtigte Verbindungen können sichtbar werden.4 Diese Unbeschränktheit ist eine Voraussetzung dafür, dass das Web als universelle Resource dienen kann.5

Hyperspace

Laut Tim Berners-Lee ist das Web kein physisches »Ding«, sondern ein Raum in dem Informationen existieren können.6 An späterer Stelle nennt er diese Hypertext-Umgebung »Hyperspace«.7 Es war essenziell, dass Berners-Lee etwas schafft, das keine komplette Umstrukturierung der vorherigen Arbeit sowie Umformatierung sämtlicher Daten verlangt. Ihm war wichtig ein System zu kreieren, welches für jeden akzeptabel ist und mit so wenig wie möglich Regeln bzw. Beschränkungen auskommt.8 Denn nur dann, wenn Menschen selbst in der Lage sind Informationen einzuspeisen und Informationen zu verbinden,9 kann dieser universelle Informationsraum entstehen. Und nur was in diesem Informationsraum besteht, ist von informationellem Wert. Das »World Wide Web Consortium« selbst handelt dabei nach der Maxime, dass alles, was nicht in diesem Hyperspace – im Web – vorhanden ist, nicht exitierst.10

Das erinnert mich zum einen an Luciano Floridis Blick auf die Infosphäre (Zwischen Realität und Fiktion »), welche jedoch auch Menschen als informationelle Wesen mit in diese Sphäre aufnimmt. Zum anderen an Felix Stalders Betrachtung des raumzeitlichen Horizonts (Neuer Raum – neue Zeit: Neu denken »). Stalder beschreibt dabei, dass alles, was nicht »hier« ist, unerreichbar und alles, was nicht »jetzt« ist, verschwunden ist.
Zudem sehe ich in Bezug auf die netzartige Struktur einen Zusammenhang zu Marshall McLuhan, welcher von der Auflösung von Raum und Zeit spricht, sowie die Veränderung unserer westlich geprägten, sequentiellen Denkweise voraussagt (Das globale Dorf – Raum, Zeit und Dynamik »). Hier sehe ich vor allem das World Wide Web als einschneidendes Medium, welches als non-lineares Format unsere Gewohnheiten grundsätzlich verändert. Hier fände ich spannend, inwiefern nachfolgende Generationen non-linear geprägt werden. Meine Generation (Jahrgang 1986) ist noch sehr sequentiell aufgewachsen und in das Medium Web reingewachsen. Zudem halte ich unsere aktuelle Lebenswelt noch immer für sehr linear ausgelegt.

Human-Computer-Interaction und die Verschmelzung zu einem großen Informatiosnraum

Um das World Wide Web nicht nur als Medium zu sehen, in das man »einsteigen« kann, ist die Zugänglichkeit enorm wichtig. Für Berners-Lee war der Zugang noch sehr umständlich und so hatte er schon damals Ideen, welche für uns heute eine Selbstverständlichkeit sind. Mehrere Minuten warten bis der Computer hochgefahren ist, um sich dann über die Telefonleitung ins Netz einzuwählen, nahm einfach viel zu viel Zeit in Anspruch. Er träumte davon, dass Computerbildschirme immer erreichbar sind, wenn man sie benötigt und hatte die Idee von sofortiger und ständiger Verfügbarkeit.11 Er hat bereits damals die Vorstellung, dass der Computer ein ständiger Begleiter und gutes Werkzeug darstellt, um aufkommende Ideen sofort festzuhalten und sie nicht zu verlieren.12 Zwar gibt es noch immer Leute, die weder Smartphone noch Daten-Flat besitzen, doch im Großen und Ganzen ist genau dieser Fall eingetreten. Das Smartphone ist als kleiner Pocket-Computer ständiger Begleiter vieler, die an den meisten Orten auch durchgehend online sind. Das ist auch die Onlife-Erfahrung von der Floridi spricht (Von Loops und der Hyper-Realität »): Die Unterscheidung von on- und offline wird es zukünftig kaum noch geben.

Eine weitere Selbstverständlichkeit ist, dass Technologie heute zunehmend transparenter wird. Das sieht Berners-Lee als Voraussetzung für den intuitiven Umgang mit ihr. Er denkt diese Transparenz jedoch noch weiter: Computer und Netzwerke sollten seiner Ansicht nach völlig aus dem Weg gehen, da es letztendlich unwichtig ist, wo Information gespeichert wird. Die Daten und die Werkzeuge, um auf sie zuzugreifen sollten unabhängig voneinander sein – er nennt das das Konzept der Ortsunabhängigkeit. Ob Hypertext oder lokaler Ordner – beides sind für ihn gleichermaßen Informationen. Er ist auch der Meinung, dass Dateinamen verschwinden müssen und jede Datei eine andere Art von URL erhalten sollte.
Weiter kann er sich vorstellen, dass URLs komplett verschwinden und man nur noch Hyperlinks sieht.13

Diesen Ansatz halte ich für spannend sowie in seiner Argumentation richtig. Eine Vorstellung davon wie das aussehen könnte, habe ich jedoch nicht. Hierfür müsste sich die komplette Ordnerstruktur auflösen, an der wir in unserer analogen Denkweise festhalten. Grundsätzlich wäre dieser Ansatz genau der richtige, um Daten nicht selbst vorzusortieren, sondern diese Arbeit den »Verbindungen« und einer anderen Art der Kategorisierung zu überlassen. Jedoch stelle ich mir die Sortierung insofern schwierig vor, dass beispielsweise bei der grafischen Arbeit auf lokale Daten zugegriffen werden muss. Zum einen werden dabei nicht alle möglichen Suchergebnisse über dieses Thema oder den Kunden benötigt, zum anderen ist hier eine zeitliche Abfolge in der Dateistruktur sehr wichtig. Zudem kann ich mir vorstellen, dass sich die grafische Nutzeroberfläche, die sehr intuitiv angelegt ist, dadurch grundlegend ändert.

Der Begründer des World Wide Webs sah das Web selbst noch nicht als universellen Informationsraum an. Daten sind auf verschiedenste Art und Weise getrennt voneinander gespeichert und oft nicht in Beziehung gesetzt. Hier kommt das semantische Web ins Spiel, welches auch als Web 3.0 bezeichnet wird. Dabei geht es darum, maschinenlesbare Formate zu nutzen, um den Algorithmen zu ermöglichen, nicht nur stichwortartige, sondern auch kontextuale Zusammenhänge erschließen zu können. Als grundlegenden Baustein nennt er RDF, das Resource Description Framework, das auf XML basiert und logische Aussagen über Dinge trifft. Er nennt das Beispiel, dass durch logische Schlussfolgerungen maschinell erkannt werden kann, dass »Mittlere Tagestemperatur« dasselbe wie »Tagesdurchschnittstemperatur« bedeutet. Das Marktforschungsunternehmen Gartner vermutet in einer Präsentation aus dem Jahr 2007, dass 2017 die meisten Webseiten mit einer Form von semantischem Hypertext ausgestattet sind.14 Inwieweit das semantische Web tatsächlich da ist, kann ich momentan aber weder beurteilen noch sicher herausfinden.

Das semantische Web wird uns dabei helfen, die unzähligen Informationen aus dem World Wide Web zu filtern – ohne maschinelle Hilfe wäre das für uns Menschen zwischenzeitlich unmöglich. Tim Berners-Lee ist davon überzeugt, dass der Computer uns bei der Lösung großer analytischer Probleme helfen wird und hält es für wichtig, dass das Web den Menschen dabei unterstützt, sowohl intuitiv als auch analytisch zu sein. Unsere Gesellschaft benötigt beide Funktionen.15
Zudem ist er sich sicher, dass die Menschheit durch die Zusammenarbeit mit Maschinen nur profitieren kann. Er nennt das World Wide Web als Ort, wo Mensch und Maschine in einer idealen, kraftvollen Mischung koexistieren werden.16
Diese Ansicht teil auch Michael Dertouzos in seinem Vorwort. Er glaubt entgegen vieler Menschen, die davon überzeugt sind, dass Technologie uns entmenschlicht, dass sie ein untrennbares Kind der Menschheit ist. Mensch und Maschine müssen für echten Fortschritt Hand in Hand gehen, ohne dass einer als Diener des anderen handelt.17
Mit dieser Thematik habe ich mich bereits in »Die 4. Revolution« befasst und auch ich bin überzeugt davon, dass wir mit der richtigen Nutzung der jeweils stärkeren Potenztiale eine völlig neue Entwicklungsstufe erreichen und eine wunderbare Koexistenz von Mensch und Maschine führen können.

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 6.
  2. Vgl. Ebd., S. 5.
  3. Vgl. Ebd., S. 10.
  4. Vgl. Ebd., S. 3.
  5. Vgl. Ebd., S. 99.
  6. Vgl. Ebd., S. 36.
  7. Vgl. Ebd., S. 206.
  8. Vgl. Ebd., S. 15.
  9. Vgl. Ebd., S. 201.
  10. Vgl. Ebd., S. 163.
  11. Vgl. Ebd., S. 158 f.
  12. Vgl. Ebd., S. 159 f.
  13. Vgl. Ebd.
  14. Vgl. Gartner Report: »Finding and Exploiting Value in Semantic Web Technologies on the Web« 2007, in: Herman, Ivan: »What is being done today?«, Stand: 14.12.2009, URL: https://www.w3.org/2009/Talks/1214-Darmstadt-IH/Applications.pdf, S. 3, abgerufen am 18.2.2017.
  15. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 201.
  16. Vgl. Ebd., S. 158.
  17. Vgl. Ebd., S. IX.

Vision eines Visionärs

Zur Recherche über die Entwicklung des World Wide Webs dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee, dem Begründer höchstpersönlich. Der Name Tim Berners-Lee ist fest mit dem World Wide Web verwoben, doch wie viel Anteil er tatsächlich an der Entwicklung dieses Mediums besitzt, wird mir erst jetzt bewusst. Er ist nicht der gewürdigte Mann, der am Ende einer langen Kette von Prozessen steht. Er ist der Mann, der mit einer großartigen und weltveränderten Vision am Anfang, in der Mitte und am Ende dieser Kette Platz nimmt.

Zur Recherche über die Entwicklung des World Wide Webs dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee – dem Begründer höchstpersönlich. Der Name Tim Berners-Lee ist fest mit dem World Wide Web verwoben, doch wie viel Anteil er tatsächlich an der Entwicklung dieses Mediums besitzt, wird mir erst jetzt bewusst. Er ist nicht der gewürdigte Mann, der am Ende einer langen Kette von Prozessen steht. Er ist der Mann, der mit einer großartigen und weltveränderten Vision am Anfang, in der Mitte und am Ende dieser Kette Platz nimmt.
In seinem Idealbild eines universellen, »einzigen, globalen Informationsraums«1 ist alles potenziell mit allem verbunden.2 Er liebte die Vorstellung davon, dass »ein Stück Information wirklich nur dadurch definiert wird, womit und wie es verbunden ist«3. Aus seiner Sicht können dadurch völlig neue Relationen entstehen und Dinge zusammenkommen, die zuvor keine sichtbare Gemeinsamkeit hatten.4 Laut des Vorworts von Michael Dertouzos, dachte Tim Berners-Lee das Web als Medium, das in diesem gigantischen Informationsnetz menschliches Wissen und menschlichen Verstand kodifizieren würde.5

Generell begeistert ihn daran nicht nur die Idee, dass unzählige Informationen für jeden zugänglich sind, sondern auch, dass jeder daran teilhaben und sich selbst einbringen kann. Diese Begeisterung teilt er mit Ted Nelson, der schon zuvor von einer utopischen Gesellschaft geträumt hatte, in der alle Informationen von Leuten geteilt werden können, die sich auf Augenhöhe begegnen.6 Das Internet, das es längst vor dem World Wide Web gab, lässt zwar den Austausch von Daten zu. Für einen Laien sind die Hürden jedoch zu groß, um sich wirklich daran beteiligen zu können.7 Daher ist es für Berners-Lee eine Grundvorraussetzung, dass das Erstellen von Inhalten und Verlinkungen nicht nur machbar, sondern so einfach wie möglich ist. Zusätzlich setzt er voraus, dass das System komplett dezentralisiert aufgebaut sein muss, so dass ein Nutzer mit dem nötigen Equipment sofort und ohne Zugangserlaubnis »mitmachen« kann.8 Diese Dezentralisierung des Systems bedeutet für ihn zeitgleich, dass keine hierarchischen Strukturen vorherrschen dürfen und es niemanden gibt – weder eine Person noch eine Gruppe –, der das World Wide Web unter seine Kontrolle bringt.9

Ursprünglich dachte Berners-Lee an ein Web, dass das »reale«, nicht-virtuelle Leben widerspiegelt. Eine ungeahnte Folge ist die, dass Menschen durch das Web völlig neue Aktivitäten gefunden hatten. Sie fingen an zu schreiben oder zu malen, obwohl sie das zuvor nicht getan haben. Dadurch, dass sich das Web zum primären Raum für viele Aktivitäten etabliert hat, rät er dazu vorsichtig zu sein, um weiter eine gerechte und faire Gesellschaft zu ermöglichen.10

In seinem Buch zitiert der Begründer des Webs zudem eine Rede des südafrikanischen Vizepräsidenten, da er selbst seine Mission nicht besser in Worte fassen hätte können. Thabo Mbeki ruft dazu auf, die neue Technologie dafür zu nutzen sich selbst zu ermächtigen, sich über die Wahrheit der eigenen ökonomischen, politischen und kulturellen Situation zu informieren und sich selbst eine Stimme zu geben, die die ganze Welt hören kann.11

Diese Worte beschreiben wunderbar, wie dieses neue Medium als Werkzeug eines jeden genutzt werden kann. Zudem bin ich Tim Berners-Lee nicht einfach nur dankbar für ein Medium, das unser aller Leben bestimmt. Ich bin begeistert, wie er Schritt für Schritt das World Wide Web nach seiner Vorstellung gebaut hat. Ein Visionär, dessen damaliges finales »Werk« nicht nur das Endergebnis einer langen Evolution ist, sondern von Beginn an als Vision in seinem Kopf umherschwirrte.

Quellen
  1. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 4.
  2. Vgl. Ebd., S. 1.
  3. Ebd., S. 13.
  4. Vgl. Ebd., S. 37.
  5. Vgl. Ebd., S. VIII.
  6. Vgl. Ebd., S. 5.
  7. Vgl. Ebd., S. 18.
  8. Vgl. Ebd., S. 16.
  9. Vgl. Ebd., S. 80.
  10. Vgl. Ebd., S. 165.
  11. Vgl. Ebd., S. 102.