Dynamische Anpassung des Designs auf Basis von Daten

Um mir über das Ziel meiner Master-Arbeit klar zu werden, habe ich mich im letzten Schritt noch einmal von den bisherigen Überlegungen frei gemacht. Zum einen habe ich meine bisherigen Ansätze und Themen während der kompletten Recherche-Zeit Revue passieren lassen. Zum anderen kategorisierte ich die Themen systematisch, welche mir gleichermaßen als gesellschaftlich relevant als auch für mich persönlich wichtig erschienen. Dadurch konnte ich sowohl Inhalte ausschließen, als auch neu verknüpfen.

Um mir über das Ziel meiner Master-Arbeit klar zu werden, habe ich mich im letzten Schritt noch einmal von den bisherigen Überlegungen frei gemacht. Zum einen habe ich meine bisherigen Ansätze und Themen während der kompletten Recherche-Zeit Revue passieren lassen. Zum anderen kategorisierte ich die Themen systematisch, welche mir gleichermaßen als gesellschaftlich relevant als auch für mich persönlich wichtig erschienen. Dadurch konnte ich sowohl Inhalte ausschließen, als auch neu verknüpfen. Abschließend hat mir das bei der Themenfindung massiv geholfen.

Zu meinem finalen Master-Thema führen dabei verschiedene Überlegungen und Erkenntnisse, welche ich innerhalb meines Researches erhielt und nun kategorisiert, verknüpft und mit weiteren Gedanken ergänzt habe. Zum besseren Verständnis möchte ich an dieser Stelle einen kurzen Überblick geben, den detaillierten Verlauf werde ich jedoch in meiner Master-Thesis skizzieren.

Wichtiger Ausgangspunkt ist die Tatsache, dass wir in unserer westlichen Gesellschaft von Informationen abhängig sind. Das World Wide Web – als leicht zugänglicher Teil des Internets und als universeller Informationsraum – hilft uns massiv dabei, Informationen, Daten und menschliches Wissen zu sammeln, zu indexieren und miteinander zu verknüpfen. Immer feinere Algorithmen des maschinellen Lernens helfen uns dabei, innerhalb von Daten Zusammenhänge und Muster zu erkennen.
Die Zugänglichkeit des Informationsraums ist dabei mindestens gleichermaßen essenziell; der Zugriff findet üblicherweise über eine grafische Benutzeroberfläche innerhalb des Browsers statt. Meine bisherige Recherche sowie mein erster Ansatz, nämlich die Untersuchung dieser Oberflächen und deren visuelle Evolution unter Berücksichtigung kultureller und technologischer Aspekte, liefern mir dabei entscheidende Erkenntnisse, welche mich nun unterstützen. Die analytische Auseinandersetzung mit der bisherigen visuellen Evolution, meine theoretische Recherche, sowie das Bewusstsein, dass unsere Denkweise dynamischer wird und sich unsere Interfaces verändern, geben mir weitere Impulse.

Tim Berners-Lee beschreibt das »World Wide Web als Ort, wo Mensch und Maschine in einer idealen, kraftvollen Mischung koexistieren können.«I Nichtsdestotrotz steht letztendlich der Mensch im Mittelpunkt. Daher sollte es grundsätzlich immer um das Ziel gehen, Systeme und Methoden so zu verbessern, dass ein tatsächlicher Mehrwert und Fortschritt für uns geschaffen wird. Es geht also um die Frage: Wie können wir Technologie zum Vorteil der Menschheit nutzen?

Die vorangestellten Erkenntnisse, Gedanken und Fragen führen mich zu meinem letztendlichen Master-Thema, mit dem ich das Ziel verfolge, den Zugang zum und den Umgang mit dem World Wide Web auf gestalterischer Ebene mithilfe von maschinellem Lernen weiter zu vereinfachen. Meine These ist, dieses Ziel durch eine dynamische Anpassung des Designs, basierend auf den Daten eines einzelnen Menschen, zu erreichen.

Ich stelle mir darunter eine automatisierte Adaption des Interface Designs vor, welche an bestimmte Bedingungen und Parameter geknüpft ist. Erste und naheliegende Gedanken sind dabei beispielsweise die Veränderungen von Schriftgrößen oder Farbkontrasten bei Beeinträchtigung des Sehvermögens oder das Entfallen bestimmter Schritte innerhalb eines Prozesses, wenn die Daten schon vorhanden sind.

Überlegungen, ob und wie so ein Datenpool technologisch und gesellschaftlich umgesetzt werden kann oder welche ethischen Herausforderungen sich dabei in Bezug auf z. B. Datenschutz und Privatsphäre ergeben, möchte ich dabei nicht im Detail bearbeiten, jedoch theoretisch bedenken. Mein Master-Projekt soll zudem kein flexibles Designsystem in Form eines fertigen Lösungsvorschlags darstellen oder schwerpunktmäßig Themen wie Accessibility oder Usability abdecken.

Vielmehr möchte ich mein Master-Projekt als Experiment ansehen, um gestalterische Ansätze zu finden und Anreize zu geben, dieses Ziel umzusetzen. Ich sehe meine Arbeit dabei als Startpunkt und Ideenpool für weitere Nachforschungen.

Quellen
  1. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 158.

Untersuchung der visuellen Evolution

Am Mittwoch habe ich meinen bisherigen Ansatz im Masterstudio präsentiert. Dabei war zum einen wichtig, worum es im Kern meiner Untersuchung geht, zum anderen welche Aspekte ich dabei berücksichtigen möchte.

Am Mittwoch habe ich meinen bisherigen Ansatz im Masterstudio präsentiert. Dabei war zum einen wichtig, worum es im Kern meiner Untersuchung geht, zum anderen welche Aspekte ich dabei berücksichtigen möchte.

Der Fokus soll, wie schon beschrieben, klar auf der visuellen Untersuchung liegen, jedoch bin ich überzeugt davon, dass man die visuelle Ebene nicht isoliert betrachten kann. Zudem finde ich es spannend und wichtig, welche kulturellen und technologischen Aspekte daran angeknüpft werden können.

Weiter stelle ich mögliche theoretische Inhalte vor, wie die Historie des World Wide Webs, die Auseinandersetzung mit Informationssystemen sowie die Entwicklung grafischer Benutzeroberflächen. Zudem schwebt mir vor, mein Thema medientheoretisch zu untermauern; hier muss ich jedoch überdenken, welche Theoretiker tatsächlich passend für mein Thema sind. Bisher hatte ich an Marshall McLuhan, Vilém Flusser, Byung-Chul Han, Luciano Floridi und Felix Stalder gedacht. An dieser Stelle muss ich die Unterscheidung treffen, wer seine Theorien schon mit der Kenntnis der digitalen Welt geschrieben hat und ob beispielsweise Han, welcher sich im Allgemeinen kulturkritisch äußert, überhaupt relevant ist.
Es könnten weitere Vertreter wie Ada Lovelace, Charles Babbage oder Alan Turing berücksichtigt werden, welche aber aufgrund ihrer Irrelevanz für mein Thema nur am Rande auftauchen können.

Die wichtigste und gleichzeitig offenste Frage ist, welches Ziel ich mit meiner Arbeit verfolge. Hier konnten wir aufgrund der kleinen Runde fast drei Stunden diskutieren und Möglichkeiten abwägen. Auf mögliche Ansätze und weitere Research-Möglichkeiten werde ich im Anschluss meiner Präsentation eingehen.

Die dargestellte Präsentation ist nicht vollständig, da ich zu viel redundante Informationen, wie beispielsweise die Namen der Medientheoretiker, für überflüssig halte.

Präsentation | Kern der Untersuchung

Präsentation | Kulturelle und technische Aspekte

Präsentation | Entwicklung zum eigenen Medium mit eigener Formsprache

Präsentation | Beispielhaft für theoretische Inhalte: Ted Nelson

Präsentation | Beispielhaft für theoretische Inhalte: Vannevar Bush

Präsentation | Beispielhaft für theoretische Inhalte: Doug Engelbart

Präsentation | Grafische Analyse

Präsentation | Grafische Analyse

Präsentation | No-Layout-Ära – Statisch – Fluid

Präsentation | Mögliche Stilrichtungen

Präsentation | Veränderung des Designs

Präsentation | Neue Ansprüche

Präsentation | Auflösung von Interfaces

Grenzen der Evolution

Einen Ansatz, den ich zunächst ausgeschlossen habe, ist die Überlegung, wie grafische Benutzeroberflächen der Zukunft aussehen könnten. Dabei geht es nicht zwingend darum, ein mögliches Interface bis zum Ende zu gestalten. Viel wichtiger ist es, die Ergebnisse meiner visuellen Recherche zu analysieren, beschreiben, hinterfragen und zu verbinden. Auf Basis analysierter Muster, und mit dem Verständnis wie vergangenes und gegenwärtiges funktioniert, können Schlüsse für das Kommende gezogen werden.

Zudem ist wichtig zu wissen, dass eine Evolution nicht unendlich weiter geht, sondern sich als abflachende Kurve oder sogar in Wellen verhält. Das bedeutet, dass sich Entwicklungen nicht nur verlangsamen, sondern sogar umkehren können.

Kulturelle Bedeutung des Interfaces

Auf Grundlage des Status Quo kann nicht nur interessant sein, wie zukünftige Interfaces aussehen, sondern auch wie User Interfaces die Zukunft verändern können. Weiter ist die Perspektive, wie die gesellschaftliche Wirkung von Interfaces ist, interessant. Für diese Impulse, die ich besonders spannend finde, benötige ich aber noch Zeit, um sie weiter reifen zu lassen. Generell scheint es vielversprechend, eine Brücke zu gesellschaftlichen Themen zu schlagen.

Eine wichtige Essenz des Gesprächs ist zudem die, dass sich die visuelle Analyse letztendlich auf ein völlig anderes Thema beziehen könnte. Auf technischer Seite haben wir weitere Punkte verdeutlicht.

Die Erhaltung des menschlichen Körpers

Vannevar Bush und Doug Engelbart zielen mit ihren Visionen und Entwicklungen nicht darauf ab, die Technik selbst zu verbessern. Vielmehr geht es im Kern darum, das menschliche Leben zu verbessern. Diese Feststellung ist insofern aufschlussreich, dass auch heutzutage die unausweichliche Frage im Raum steht, was wir mit der Gestaltung von Interfaces bewirken. Geht es darum, die Technik selbst zu verbessern oder spielt es tatsächlich eine Rolle, welche Erleichterung der Mensch durch das Ergebnis erfährt? In welchen Bereichen benötigt der Mensch zweifelsfrei Unterstützung? Ein Fazit aus dem Gespräch ist, dass es ein Anliegen sein sollte, den menschlichen Körper nicht verkümmern zu lassen, sondern dessen Können zu akzeptieren, miteinzubeziehen und mit technischen Möglichkeiten lediglich zu verbessern.

Weiter ist eine erkennbare Entwicklung, dass sich Mensch und Maschine immer näher kommen und zunehmend verschmelzen. Schnittstellen verschwinden zunehmend und es ist eine generelle Entwicklung zurück zum Körper zu sehen. An dieser Stelle frage ich mich jedoch, wie weit wir gehen wollen. Möchte ich beispielsweise bei meiner täglichen Arbeit wirklich wild gestikulierend vor einem Riesen-Interface stehen, um Inhalte durch die virtuelle Welt zu swipen?

Eine zusätzliche Erkenntnis ist, dass sich Technik dessen Evolution vollstreckt ist, nicht mehr rückgängig machen lässt. Hier ist nur die völlige Verbannung oder die sinnvolle Integration hilfreich. Halbverbannte Technologien, wie beispielsweise die Google Glass, leben sonst in versteckten Grauzonen weiter.

Darstellerische Möglichkeiten

Eine der Ideen, welche ich hatte, konnten weiter ausgeführt werden. Ursprünglich dachte ich an den Bau eines Raums oder Tunnels, in dem die Evolution dargestellt wird. Im Gespräch hatten wir innerhalb der Studenten unter anderem die Idee, dass man eine Zeitreise durchgehen kann. Jeder hat seine eigenen Erfahrungen mit dem Web und durch eine gute Inszenierung könnte sich der Besucher selbst gedanklich zurückerinnern und somit emotional angesprochen werden. Das kann durch die Verwendung von passenden Requisiten und Soundelementen unterstützt werden. In Bezug auf die Soundkomponente, kann man festhalten, dass das Web sowohl auditiv als auch visuell ruhiger und klarer geworden ist. Das beginnt bei der vorhandenen Technologie wie beispielsweise Modems, die sich geräuschvoll einwählen, oder laut kleckernden Tastaturen und zieht sich durch die visuelle Ebene weiter durch. Auch hier ist zu erkennen, dass sich das sehr überladene und blinkende Design in eine minimalistische, geordnete und ruhige Umgebung verwandelt.
Der enzyklopädische Ansatz könnte durch mehrere Handlungssträngen unterstützt werden, welche sich durch die Evolution ziehen und das Storytelling unterstützen.
Wünschenswert, aber sehr schwierig umzusetzen, wäre eine poetische Ebene miteinzubringen. Prof. Dr. Phi. Stefan Asmus spricht auch von einer Metaebene, über die man von oben oder unten auf alles blicken kann. Auch denkbar wäre, dass ich eigene Thesen oder die eigene Sicht einarbeite – das würde meine Arbeit von der rein faktischen Ansicht unterscheiden. Das ist vor allen Dingen deshalb wichtig, da die Arbeit als Designer sehr von Intuition geprägt ist. Im Gespräch fällt der Vergleich mit einem Gitarrenspieler, der sich intuitiv voll und ganz auf die Musik einlässt und möglicherweise nicht wissenschaftlich exakt erklären kann, was nun genau passiert ist.
Die poetische Ebene könnte auch dazu dienen, dass das was kodifiziert gezeigt wird, gleichzeitig das zeigt, was nicht dargestellt wird. Hier verwenden wir die berühmte Eisberg-Metapher, bei der nur die Spitze des Eisbergs sichtbar über dem Wasser liegt.

Die Erweiterung des Menschen

Im weiteren Verlauf sprechen wir über künstliche Intelligenz und wie schon erwähnt über Technologien, die den Menschen unterstützen sollen. Letztendlich geht es immer darum, das Leben des Menschen zu verbessern und die künstliche Intelligenz trägt unterstützend dazu bei. In Kooperation können Probleme gelöst werden und die häufige Darstellung, dass wir mit Chips leben und von KIs getrieben und bedroht werden, ist vorerst weit hergeholt. Ein Kernpunkt ist der, dass Algorithmen im Unterschied zum Menschen nichts Unbekanntes benennen können. Das heißt nicht, dass sie keine Fähigkeit haben selbst zu lernen und sich selbst zu verbessern, jedoch kann etwas, das in keiner Form im System war, nicht selbst erstellt werden. Die Gedanken im Bezug auf künstliche Intelligenzen finde ich auch in Bezug auf Interface Design sehr spannend. Letztendlich geht es immer darum, dem Menschen bestmöglichen Zugang zu einem System zu geben und hier ist die Überlegung spannend, was der Mensch überhaupt braucht, um sinnvoll auf ein System zugreifen kann. Das meine ich sowohl im allgemeinen Bezug auf Interfaces als auch speziell mit Blick auf das Design grafischer Benutzeroberflächen.

Weitere Empfehlungen

Je nachdem in welche Richtung ich mich entscheide, können mir eine weitere theoretische Auseinandersetzung helfen. Dabei geht es zum einen um den Technikbegriff von Heidegger. Zum anderen könnte Bruno Latours Akteur-Netzwerk-Theorie interessant sein, falls ich mich tiefer mit der Koexistenz von Mensch und Maschine beschäftigen möchte. Barads buch über den agentiellen Realismus, Dirk Bäckers Text über Designvertrauen sowie Luhmanns Theorien über Weltkunst könnten weitere Quellen sein.

Momentan bin ich mir unschlüssig, welche Richtung ich einschlagen möchte. Die theoretischen Hintergründe, welche wir im Studio diskutiert haben, habe ich prinzipiell verstanden. Letztendlich fällt es mir aber schwer so schnell eine Verknüpfung zu meinem Thema zu finden. Hier möchte ich mir noch einige Tage Zeit geben und in den nächsten Tagen intensiv über mein Abschlussprojekt nachdenken. Dabei kommen Pro-Contra-Listen zum Einsatz und die wichtige Frage, die ich mir selbst beantworten muss, ist was ich selbst möchte. Was möchte ich mit meinem Abschlussprojekt später machen und welches Thema holt mich so leidenschaftlich ab, dass ich darin nicht nur wochenlang eintauchen möchte, sondern bestenfalls einen Forschungsschwerpunkt oder Interesse für danach finde.

evolution of a medium

Mein Master-Projekt wird nun immer konkreter. Nach meiner bisherigen Recherche zur Entwicklung des World Wide Web, präzisiert sich meine Vorstellung, welche theoretische Auseinandersetzung und welche praktische Umsetzung Teil meiner Arbeit werden können.

Mein Master-Projekt wird nun immer konkreter. Nach meiner bisherigen Recherche zur Entwicklung des World Wide Web, präzisiert sich meine Vorstellung, welche theoretische Auseinandersetzung und welche praktische Umsetzung Teil meiner Arbeit werden können.

Die erste Fragestellung innerhalb meines Master-Studiums beinhaltet bereits erste Gedanken meines jetzigen Ansatzes. Nichtsdestotrotz habe ich sehr breit recherchiert, da mir auf meinem Weg unzählige spannende Themen begegnet sind, die mich stets in eine neue Richtung gelenkt haben. Ich hatte viele Ideen von zu plump bis zu komplex und habe enorm viel Kraft in die theoretische Arbeit gesteckt. Ich habe viel gelesen und recherchiert, viel geschrieben und verworfen.

Während meiner Master-Zeit hatte ich ab und an das Gefühl den Wagen fälschlicherweise von hinten aufzurollen. Habe mich aber aus Leidenschaft nicht davon abbringen lassen.
Ich habe mir kein Thema XY ausgesucht für das ich nun ein passendes Medium für die praktische Umsetzung suche, sondern ich beschäftige mich von Anfang an mit dem Medium selbst. So liebe ich beispielsweise Netzkunst, weil sie oft eine besondere Art hat mit dem Medium Web umzugehen und eine außergewöhnliche, visuelle Sprache spricht. Ich interessiere mich für die Auflösung virtueller und nicht-virtueller Grenzen, die Veränderung der Gesellschaft durch die virtuelle Welt und für die Theorien von beispielsweise Flusser und McLuhan. Ich bin überzeugt davon, dass sich Schnittstellen zunehmend auflösen und eine neue Art der Kommunikation entsteht. Ich bin begeistert von neuen Technologien und mich bewegen Projekte, die Theorie und Praxis lückenlos verschmelzen.

Letztendlich merke ich jedoch, dass meine Gedanken häufig um ähnliche Themen kreisen. Dazu gehören wiederkehrend die Anfänge und die Entwicklung des World Wide Web, die mich sowohl visuell, technologisch als auch kulturell interessieren. Das Medium selbst wurde lange wie eines behandelt, das ausschließlich die nicht-virtuelle Welt in die virtuelle überträgt. Webseiten waren »Schaufenster« des realen Lebens, Buttons waren zum Teil rote Knöpfe mit Schrift und Baustellenschilder zeigten, dass die Webseite noch in Bearbeitung ist. Das Verständnis für das Medium wächst zunehmend und wir wissen zwischenzeitlich, dass Webseiten so gut wie immer »under construction« sind. Zum einen kann aus meiner Sicht erst eine spezifische, visuelle Sprache für ein Medium entwickelt werden, sobald das Medium verstanden wird – sprich, dass das Web kein Buch ist. Auf der anderen Seite frage ich mich, ob nicht gerade dieser spielerische Umgang mit einem unbekannten Medium – wie er in den 90er Jahren stattfand – die unantastbarste und »originalste« Sprache von allen spricht.
In meiner bisherige Recherche zeigt sich, dass sich die visuelle Sprache immer weiter von der materiellen Welt entfernt und sich das Web zunehmend zu einem eigenen Medium entwickelt. Neben visueller und kultureller Veränderungen, halte ich hierfür auch die technologischen Entwicklungen für sehr wichtig. So nutzte man teils solange wie nötig die default styles für z.B. Buttons und ersetzt sie nach und nach mit Grafiken und letztendlich Code.

Der bisher stärkste Ansatz ist meiner Ansicht nach eine Ausstellung anlässlich des 25-jährigen Jubiläums des freien Webs. Dabei kann ich mir zum einen eine interaktive Webausstellung vorstellen, aber auch eine nicht-virtuelle Exhibition mit gebauten Räumen voller Sternenhimmeltapeten und MIDI-Sound. Die Ausstellung könnte die Entwicklung des Web zeigen. Dabei wären aus meiner Sicht die visuellen Veränderungen im Vordergrund.
Ich möchte zum einen schon zum Teil gesammelte und katalogisierte UI-Elemente zusammenführen, um grafische Veränderungen deutlich zu zeigen. Die Elemente stammen dabei von verschiedenen Unternehmen, die auch in der Wayback Machine des Internet Archive zu finden sind: https://archive.org/web/. Ein erster Ansatz der Auswahlkriterien ist in meinem Beitrag »Evolution der Webästhetik« zu finden. Dabei steht noch offen, ob diese – dem Plan nach mehrere tausend – Elemente im Zentrum stehen oder einfach nur ein Pattern für die Ausstellung darstellen könnten. Zudem soll eine inhaltlich-kulturelle Komponente hinzukommen, die ich noch erarbeiten muss und eine poetische Ebene enthalten kann. Eine weitere Komponente könnte die Frage nach dem Danach sein, da ich mir unter anderem die Frage stelle, ob grafische Benutzeroberflächen durch neue Technologien wie z.B. Voice Interfaces ersetzt werden können.

An dieser Stelle wird mein Titel »Digitale Primaten« wieder mit der anfänglichen Bedeutung belegt. Nämlich, dass Menschen der Technologie noch immer hinterherhinken und wohl auch nicht mehr aufholen werden. Mein gewählter Arbeitstitel ist »digital primates – evolution of a medium« in englischer oder deutscher Form.

Punkt.

Bei meiner Auseinandersetzung mit Informationssystemen, Hypermedia sowie der Entwicklung des Internets stoße ich regelmäßig auf neue Namen, welche im Vorfeld des World Wide Webs richtungsweisende Konzepte und Arbeiten entwickelten. Mit manchen von ihnen habe ich mich bereits während meiner Recherche beschäftigt, andere muss ich leider bewusst außen vor lassen, um mich auf die wesentlichen Punkte meiner Arbeit zu konzentrieren.

Bei meiner Auseinandersetzung mit Informationssystemen, Hypermedia sowie der Entwicklung des Internets stoße ich regelmäßig auf neue Namen, welche im Vorfeld des World Wide Webs richtungsweisende Konzepte und Arbeiten entwickelten. Darunter einige mir bis dahin unbekannte, wie beispielsweise Andries van Dam, Eugene Garfield, Wendy Hall oder Ada Lovelace, sowie in der Allgemeinheit sicherlich bekanntere, wie Charles Babbage, Gottfried Wilhelm Leibniz, Ted Nelson, Alan Mathison Turing oder Konrad Zuse.

Die Namen stehen für die unterschiedlichsten Erfindungen: für Rechenmaschinen, den ersten Algorithmus, Hypermedia-Systeme oder Theorien über Computerentwicklung und Informatik. Die meisten haben jedoch eines gemeinsam: Sie sind thematisch zu weit von meinem Thema weg. Mit manchen von ihnen habe ich mich bereits während meiner Recherche beschäftigt, andere muss ich leider bewusst außen vor lassen, um mich auf die wesentlichen Punkte meiner Arbeit zu konzentrieren.

Hypertext Editing System Console Brown University 1969
Das Hypertext Editing System von Ted Nelson und Andries van Dam in Zusammenarbeit mit Studenten der Brown UniversityI
Photograph of Eugene Garfield, recipient of the 2007 Richard J. Bolte Sr. Award, at Heritage Day, May 9, 2007, at the Chemical Heritage Foundation.
Eugene Garfield, Erfinder des »Science Citation Index« (SCI) sowie »Journal Impact Factor«. Diese Gewichtung von Zitationszusammenhängen bildet die Basis des heutigen Google PageRanks.II
Wendy Hall
Wendy Hall entwickelte das Hypermedia-System »Microcosm«, welches sich vor allen Dingen durch die dynamische Verlinkung von Informationen basierend auf Inhalten, dem Kontext und Metadaten auszeichnet.III
Ada Lovelace
Ada Lovelace gilt als erste Programmiererin. Sie schrieb 1843 den ersten Algorithmus und veröffentlichte ein Programm für Charles Babbages nie vollendeten, mechanischen Computer »Analytical Engine«.
Charles Babbage | Analytical Engine
Charles Babbage entwarf den unfertigen, mechanischen Computer »Analytical Engine«. Sie stellt eine Rechenmaschine für allgemeine Anwendungen dar.IV
Rechenmaschine Gottfried Wilhelm Leibniz
Gottfried Wilhelm Leibniz erfand eine Rechenmaschine, welche die vier Grundrechenarten beherrscht.V
Ted Nelson – Xanadu
Ted Nelson prägt 1965 den Begriff Hypertext und schrieb von literarischen Maschinen, welche dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren. Seine wahrscheinlich bekannteste Arbeit ist das Hypertext-Projekt Xanadu, welches 1960 seinen Anfang nahm.VI
Alan Turing
Alan Turing führte 1963 die Turingmaschine ein, welches ein wichtiges Rechnermodell der theoretischen Informatik ist. Der Turing-Test gilt als Probe für den Nachweis künstlicher Intelligenz und die 4. Revolution wird Turing-Revolution genannt. Spätestens seit dem Film »Imitation Game« dürfte er weitestgehend bekannt sein.VII
Konrad Zuse Z3
Mit dem Z3 entwickelte Konrad Zuse den ersten funktionstüchtigen, vollautomatischen, programmgesteuerten und frei programmierbaren Digitalrechner. Er gilt damit als Erfinder des Computers.VIII
Abbildungen
  1. Lloyd, Gregory: »Photo of the Hypertext Editing System (HES) console in use at Brown University«, Stand: Oktober 1969, via Wikimedia Commons, abgerufen am 30.9.2017, Lizenz: CC BY 2.0.
  2. Science History Institute: »Photograph of Eugene Garfield, recipient of the 2007 Richard J. Bolte Sr. Award, at Heritage Day, May 9, 2007, at the Chemical Heritage Foundation.«, Stand: 9.5.2007, via Wikimedia Commons, abgerufen am 26.1.2017, Lizenz: CC BY-SA 3.0.
  3. Mabbett, Andy: »Wendy Hall at the Wikipedia Science Conference, London 2/3 September 2015«, Stand: 2.9.2015, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 4.0.
  4. Science Museum London/Science and Society Picture Library: »Babbages Analytical Engine, 1834-1871«, Stand: 28.8.2013, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 2.0.
  5. Museum Herrenhausen Palace: »Leibniz‘ Vier-Spezies-Rechenmaschine – Original, um 1690«, Stand: 7.9.2013, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY 3.0.
  6. Unbekannt: »Mockup of transpointing windows, closeup view, 1972«, URL: http://www.xanadu.com.au/ted/XUsurvey/xuDation.html, abgerufen am 23.10.2017.
  7. Yates, Tom: »Bombe – Rebuild«, Stand: 17.4.2014, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 3.0.
  8. Venusianer, Wikipedia Deutschland: »Nachbau der Zuse Z3 im Deutschen Museum in München«, Stand: 20.9.2006, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 3.0.

Hyperland: Durch Micons ans Ziel

Der Dokumentarfilm (oder die Fantasy-Dokumentation) »Hyperland« aus dem Jahr 1990 wurde von Douglas Adams geschrieben und von Max Whitby produziert. In dem 50-minütigen Film geht es unter anderem um interaktives Multimedia sowie andere Technologien wie z.B. einen VR-Helm. Er zeigt dabei vorstellbare Ansätze für ein Hypermedium.

Der Dokumentarfilm (oder die Fantasy-Dokumentation1) »Hyperland« aus dem Jahr 1990 wurde von Douglas Adams geschrieben und von Max Whitby produziert. In dem 50-minütigen Film geht es unter anderem um interaktives Multimedia sowie andere Technologien wie z.B. einen VR-Helm. Er zeigt dabei vorstellbare Ansätze für ein Hypermedium.

Der Software-Agent stellt sich vor

Der Hauptdarsteller Douglas Adams schläft vor dem Fernseher ein und trifft in seinem Traum auf Tom Baker – die Personifizierung eines Software-Agenten. Mit der Frage, ob Adams gelangweilt vom linearen, nicht-interaktiven Fernsehen ist, tritt er mit Adams in Kontakt. Da jener aber überfordert mit dieser neuen Form der Kommunikation ist, fordert ihn der Agent auf, mit ihm zu interagieren. Baker beschreibt sich als eine Simulation, eine künstliche und komplett anpassbare Persönlichkeit, die nur als Anwendung in seinem Computer existiert.
Optisch an einen Butler angelehnt, präsentiert er sich dabei als selbstloser Assistent, der jederzeit für jede Art von Arbeit bereit ist. Er könne ihm sofortigen Zugang zu jedem Stück Information, das digital irgendwo auf der Welt gespeichert ist, ermöglichen: Jedes Bild, jeder Film, jeder Sound, jedes Buch, jede Statistik, jeder Fakt. Jede Verbindung zwischen allem, was er sich nur vorstellen kann.2

Hyperland | Konfigurationsoberfläche
Konfigurationsoberfläche für den Software-Agenten Tom BakerII

Als nächstes stellt der Agent die Konfigurationsoberfläche vor, von wo aus Adams alle Einstellungen vornehmen kann. Über eine grafische Benutzeroberfläche hat man die Wahl, wie der Assistent sprechen soll – ob forsch oder freundlich oder mit welchem Akzent –, was er an hat oder welche Spezies er sein soll.3 Es wird suggeriert, dass der Nutzer die komplette Kontrolle besitzt und alles erdenkliche auch möglich ist.
Bei der Frage, welchen Namen diese Software hat, nennt Tom Baker eine ganze Liste: Dynabook, Hyperspace, Cyberia, Infinite Virtual Address Space, Intelligent TV, Interactive Television, Interactive Multimedia oder Hypertext.4

Anlehnung an ein Hypermedium

Hyperland ist in seinem Aufbau selbst an ein Hypermedium angelehnt. So klickt sich Adams mithilfe seines Agenten über sogenannte Micons – ein Kunstwort aus Moving und Icons – durch den Informationsraum. Die geloopten Micons stehen dabei für eine Idee, ein Konzept oder ein Stück Information in irgendeiner Form.5
Neben diversen Beispielen interaktiver Systeme stellt Tom Baker Auszüge der historischen Entwicklung vor. So erwähnt er Vannevar Bushs Memex, Ted Nelsons Hypertext-Idee, die Gründung des MIT Media Labs und des Multimedia Labs, sowie Robert Abel,6 welcher als Pionier der Computeranimation und visueller Effekte7 oder sogar als Vater interaktiver Erfahrungen gilt.

Adams gelangt dabei zusammen mit Baker immer tiefer in die Informationssphäre, was am Beispiel des Atlantic Monthly, in dem Vannevar Bush seinen berühmten Essay »As We May Think« veröffentlichte, demonstriert wird. Douglas Adams wählt naheliegenderweise den Atlantik als nächstes Ziel. Hierüber gelangen sie zur Ökologie, Ozeanografie, Schifffahrt, Literatur und zu einem Live Feed. Der Live Feed zeigt als Quellen die Labrador-Basis und den Azoren-Gibraltar-Rücken. Auf Nachfrage, ob das wirklich live wäre, gesteht Baker ein, dass die Bilder 10 Sekunden Verzögerung hätten, was also live wäre.
Als weiteren »Tiefgang« wird die Sparte Literatur vorgestellt, welche passend zum Atlantik, assoziative Verknüpfungen zu Melville, Conrad, Hemingway, Coloridge, CS Forrester oder »Mehr« zeigt. Texte werden dabei parallel vorgelesen, da die Autoren scheinbar über Wasser schreiben.8

Im weiteren Verlauf werden verschiedene Systeme vorgestellt, so z. B. die interaktive Anwendung »Life Story – Demonstration Prototype« des MIT Labs. Auf den Film »Life Story« zugeschnitten, können beispielsweise spezielle Inhalte ausgewählt oder Transkriptionen abgerufen werden. Das Team bestand aus Steve Gano, Kristee Kreitman, Kristina Hooper, Mike Naimark und Fabrice Florin. Letzterer spricht im Interview davon, dass das interessante an Multimedia die Tatsache ist, dass man viele Stories zusammenführen kann. Es gibt nicht nur eine, sondern eine Verflechtung vieler. Diese Vielzahl macht aus seiner Sicht den Unterschied, so dass man von einer zur anderen wandert und den Themenkomplex aus unterschiedlichsten Blickwinkeln betrachten und miteinander vergleichen kann.9

Resümee

Für meine Nachforschungen hat der Film inhaltlich leider keinen großen Mehrwert. Zum einen liebe ich jedoch die Art und Weise, wie er umgesetzt ist. Zum anderen faszinieren mich die damaligen Ansichten, welche einerseits sehr zukunftsweisend wirken, andererseits aber sicher genau am Geist der Zeit liegen. Mitten im Aufbruch und längst auf dem Weg in ein neues Zeitalter.

Quellen
  1. Vgl. »Hyperland« in: »Wikipedia, the free encyclopedia«, Stand: 7.3.2017, URL: https://en.wikipedia.org/wiki/Hyperland, abgerufen am 6.12.2017.
  2. Vgl. Whitby, Max; geschrieben von: Adams, Douglas: »Hyperland«, Dokumentation, 50 Minuten, Vereinigtes Königreich 1990, TC: 00:03:17–00:05:14.
  3. Vgl. Ebd., TC: 00:05:14–00:06:18.
  4. Vgl. Ebd., TC: 00:06:32–00:06:40.
  5. Vgl. Ebd., TC: 00:07:20–00:08:10.
  6. Vgl. Ebd., TC: 00:06:40–00:07:20.
  7. Vgl. »Robert Abel (animator)« in: »Wikipedia, the free encyclopedia«, Stand: 28.8.2017, URL: https://en.wikipedia.org/wiki/Robert_Abel_(animator), abgerufen am 6.12.2017.
  8. Vgl. Whitby, Max; geschrieben von: Adams, Douglas: »Hyperland«, Dokumentation, 50 Minuten, Vereinigtes Königreich 1990, TC: 00:12:0–00:14:20.
  9. Vgl. Ebd., TC: 00:31:32–00:32:53.
Abbildungen
  1. Titelbild: Eigener Screenshot; Whitby, Max; geschrieben von: Adams, Douglas; mprove: »Hyperland‹«, Dokumentation, 50 Minuten, Vereinigtes Königreich 1990, URL: https://vimeo.com/72501076, TC: 00:07:27, abgerufen am 6.12.2017.
  2. Vgl. Ebd., TC: 00:06:14.

Fußnoten als Wegpunkte der Assoziations-Pfade

Eugene Garfield ist unter anderem der Gründer des »Science Citation Index« (SCI) sowie der Erfinder des »Journal Impact Factor«. Der SCI ist eine Zitationsdatenbank, welche als Vorläufer des »Web of Science« zählt. Die Anfang der 60er Jahre erfundene Datenbank enthält Informationen darüber, welche Publikationen von welchen zitiert werden. Die systematische Erfassung der wissenschaftlichen Fußnoten macht damit Zitationszusammenhängen deutlich. Der Journal Impact Factor ist dagegen ein Art Ranking, welches die Häufigkeit der Zitationen – somit also den Einfluss auf andere Veröffentlichungen – angibt.

Eugene Garfield ist unter anderem der Gründer des »Science Citation Index« (SCI) sowie der Erfinder des »Journal Impact Factor«. Der SCI ist eine Zitationsdatenbank, welche als Vorläufer des »Web of Science« zählt. Die Anfang der 60er Jahre erfundene Datenbank enthält Informationen darüber, welche Publikationen von welchen zitiert werden. Die systematische Erfassung der wissenschaftlichen Fußnoten macht damit Zitationszusammenhänge deutlich.1 Der Journal Impact Factor ist dagegen ein Art Ranking, welches die Häufigkeit der Zitationen – somit also den Einfluss auf andere Veröffentlichungen – angibt.

Photograph of Eugene Garfield, recipient of the 2007 Richard J. Bolte Sr. Award, at Heritage Day, May 9, 2007, at the Chemical Heritage Foundation.
Eugene Garfield am 9. Mai 2007I

Seine grundsätzliche Idee war dabei, so Alex Wright, dass man vergessen kann, was im Artikel selbst steht. Das wichtigste findet man in den Fußnoten und als eine Art Hyperlink kann man über sie den Pfaden aus Assoziationen folgen.2 Wright erläutert weiter, dass dieses Citation Ranking die direkte Basis für das heutige Google PageRank ist.3

Auch wenn ich Eugene Garfields Erfindung nicht in einer Sparte mit denen von beispielsweise Paul Otlet oder Vannevar Bush sehe, erkenne ich eine ähnliche Wertschätzung gegenüber assoziativen Verknüpfungen. Während sich Otlet und Bush auch dem »dazwischen«, nämlich den Informationen und dem Wissen zwischen den Verbindungen, widmen, hebt Garfield ausschließlich die Verknüpfungen selbst hervor. Auch Berners-Lee betont bei jeder Gelegenheit, dass man in einer extremen Sichtweise die Welt ausschließlich als aus Verbindungen bestehend sehen kann und er die Idee mag, dass jedes Stück Information nur durch dessen Beziehung zu anderen Informationen definiert wird.4 Auch wenn es im World Wide Web im Allgemeinen nicht um die Gewichtung von Inhalten geht – das übernimmt Google PageRank –, liegt der grundsätzliche Gedanke, nämlich dass eine Information durch eine andere definiert wird, sehr nah beieinander.

Quellen
  1. Vgl. »Science Citation Index« in: »Wikipedia, Die freie Enzyklopädie«, Stand: 26.2.2017, URL: https://de.wikipedia.org/wiki/Science_Citation_Index, abgerufen am 26.11.2017.
  2. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:33:49–00:35:40, abgerufen am 18.8.2017.
  3. Vgl. Ebd., TC: 00:35:45–00:36:09.
  4. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 12.
Abbildungen
  1. Science History Institute: »Photograph of Eugene Garfield, recipient of the 2007 Richard J. Bolte Sr. Award, at Heritage Day, May 9, 2007, at the Chemical Heritage Foundation.«, Stand: 9.5.2007, via Wikimedia Commons, abgerufen am 26.1.2017, Lizenz: CC BY-SA 3.0.

Von der SciFi-Vision zur Wissenschaft

H. G. Wells ist ein englischer Schriftsteller und träumte von einem »World Brain«. In seiner gleichnamigen Sammlung aus Essays und Talks aus den Jahren 1936–1938 beschreibt er seine Vision einer neuen, freien, synthetischen, autoritativen und permanenten Welt-Enzyklopädie.

H. G. Wells ist ein englischer Schriftsteller und träumte von einem »World Brain«. In seiner gleichnamigen Sammlung aus Essays und Talks aus den Jahren 1936–1938 beschreibt er seine Vision einer neuen, freien, synthetischen, autoritativen und permanenten Welt-Enzyklopädie.1

»World Brain« von H. G. Wells aus dem Jahr 1938I

Laut Alex Wright glaubt er daran, dass der Schlüssel Konflikte zwischen Ländern zu lösen darin liegt, den freien Fluss von Informationen zu ermöglichen. So käme es nämlich zu einem Ungleichgewicht, welches mit einem Art universellen Verständnis, wie die Welt funktioniert, wieder ausgeglichen wird.2
Weiter zitiert er H. G. Wells, dass das gesamte menschliche Wissen für jedes Individuum verfügbar gemacht werden könnte und das wahrscheinlich schon bald so sein wird. Zwar wurde Information mit dem Telefon oder Telegraf nur elektronisch und nicht digital, womit jedoch möglicherweise eine globale Enzyklopädie und ein Netzwerk der Wissensgenerierung geschaffen werden könnte.3 Alex Wright hebt hervor, dass Wells in seinen Beschreibungen eine Reihe von organischen Metaphern verwendet. So spricht er beispielsweise von einer Enzyklopädie mit zahlreichen Tentakeln und Ganglien.4

Eine erste Vorstellung war jedoch eine Welt-Enzyklopädie, die aus einer Reihe von Bänden besteht und im eigenen Haus oder zumindest in Häusern oder Bibliotheken in der Nähe gelagert wären und die auf dem aktuellen Stand gehalten werden würden. Die Inhalte wären dabei sehr sorgfältig ausgewählt.5

Mit seiner SciFi-Vision hielt Wells sogar einen Vortrag auf dem Weltkongress der universellen Dokumentation, welcher unter anderem das Ziel hatte, Ideen und Methoden zur Umsetzung des »World Brains« zu diskutieren.6
Sowohl H. G. Wells als auch Paul Otlet waren bereits 1933 bei diesem Kongress, jedoch ist unklar, ob sich die beiden dort getroffen hatten. Ähnlich wie Wells spricht jedoch auch Otlet von einem Schreibtisch der Zukunft, der ausgestattet mit einem Bildschirm sowie möglicherweise einem Telefon zulässt, Dokumente automatisch abzurufen.7

Weiter scheint der Autor Arthur C. Clarke von Wells inspiriert worden zu sein. So sagt er in »Profiles of the Future« vorher, dass Wells World Brain in zwei Schritten stattfinden würde. Der erste würde der Bau einer Welt-Bibliothek sein, welche für Jedermann per Computer-Terminal von zu Hause zugänglich sein würde. Diese Phase 1 sagte er für das Jahr 2000 voraus. In der zweiten Phase könnten Menschen mit dem World Brain als superintelligente AI interagieren und mit ihr diverse Probleme der Welt lösen. Die Welt-Bibliothek wäre dabei ein Teil des World Brains, welches 2010 komplett wäre.8 Auch Eugene Garfield konstatiert Wells Vision eine großartige Zukunft und prophezeit, dass der Science Citation Index ein Vorläufer dessen ist.9 Brian R. Gaines sieht sogar das World Wide Web als Erweiterung des World Brains, auf das Menschen nun mit PCs zugreifen konnten.10

Wie schon in meiner Ausführung über Paul Otlet hervorgebracht, finde ich es erstaunlich, wie früh schon an Konzepten und Gedankenexperimenten für einen universellen Informationsraums gearbeitet wurde. Umso deutlicher wird mir, dass der Status Quo des Webs noch lange nicht das erreichte Ziel ist. Ich habe bereits Teile von Ted Nelsons Kritik an der Umsetzung des World Wide Webs angeführt und auch Alex Wright sieht Otlets Vision in mancher Hinsicht als anspruchsvoller als das World Wide Web selbst. Zwar ist das Web tief verankert in unserem Alltag, nichtsdestotrotz ist es erst 30 Jahre alt. Da das in der Geschichte nur ein winziger Zeitraum ist, ist es tatsächlich fraglich, ob das Web in seiner heutigen Form überleben kann – selbst, wenn es unglaublich ist, dass nicht. Ein weiteres amüsantes Detail ist, dass Wells SciFi-Vision in der Welt der Wissenschaft angekommen ist und sogar als Redner Platz auf dem genannten Kongress gefunden hat.

H. G. Wells wird mich in meiner Recherche vermutlich nicht weiter voranbringen, seine Idee wird jedoch immerhin einen kleinen Nebenzweig meiner Dokumentation darstellen. Des Weiteren motiviert mich diese Auseinandersetzung, Arthur C. Clarkes Buch zu lesen, da ich den Autor schon durch »2001: Odyssee im Weltraum« zu schätzen gelernt habe.

Quellen
  1. Vgl. »World Brain« in: »Wikipedia, the free encyclopedia«, Stand: 22.10.2017, URL: https://en.wikipedia.org/wiki/World_Brain, abgerufen am 10.11.2017.
  2. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:10:12–00:11:23, abgerufen am 18.8.2017.
  3. Vgl. Ebd., TC: 00:11:24–00:12:06.
  4. Vgl. Ebd., TC: 00:12:07–00:13:33.
  5. Vgl. »World Brain« in: »Wikipedia, the free encyclopedia«, Stand: 22.10.2017, URL: https://en.wikipedia.org/wiki/World_Brain, abgerufen am 10.11.2017.
  6. Vgl. Ebd.
  7. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 99, abgerufen am 28.9.2017.
  8. Vgl. »World Brain« in: »Wikipedia, the free encyclopedia«, Stand: 22.10.2017, URL: https://en.wikipedia.org/wiki/World_Brain, abgerufen am 10.11.2017.
  9. Vgl. Ebd.
  10. Vgl. Ebd.
Abbildungen
  1. H.G. Wells: »Cover of the book World Brain by H. G. Wells. Published by Methuen & Co Ltd, London, 1938.«, Stand: 26.2.2015, via Wikimedia Commons, abgerufen am 10.11.2017.

Das Hypertext Editing System

Als Wegbegleiter Ted Nelsons möchte ich zumindest beiläufig Andries van Dam in meine Dokumentation mit aufnehmen.
Zusammen mit Studenten der Brown University arbeiteten sie am ersten Hypertext-System, dem Hypertext Editing System (HES), sowie am Nachfolger, dem File Retrieval and Editing System (FRESS). Es erschien 1967 und somit ein Jahr vor Doug Engelbarts oNLine-System.

Als Wegbegleiter Ted Nelsons möchte ich zumindest beiläufig Andries van Dam in meine Dokumentation mit aufnehmen.
Zusammen mit Studenten der Brown University arbeiteten sie am ersten Hypertext-System, dem Hypertext Editing System (HES), sowie am Nachfolger, dem File Retrieval and Editing System (FRESS).1 Es erschien 1967 und somit ein Jahr vor Doug Engelbarts oNLine-System.

David Edward Rice beschreibt es in einer schriftlichen Ausarbeitung aus dem Jahr 1967 als interaktives Mensch-Maschine-Computersystem zur Textmanipulation, -darstellung und -setzung. Zudem besitzt es ein ausgefeiltes System zur Erstellung und Bearbeitung von Manuskripten, sowie einer Lesemaschine, auf dem das Geschriebene durchsucht und beliebig komplexer Struktur abgefragt werden konnte.2

Die Textstrukturen können in dem System auf beliebige Weise miteinander verknüpft werden, während sich der Benutzer während dem Lesen an diesen Verbindungen entlang hangeln kann. Herkömmliche Unterteilungen wie beispielsweise Zeilen, Seiten und Seitenzahlen sind laut ihm nicht vorhanden, da die Verknüpfungsstruktur an allen Anwendungen im System beteiligt ist.3 Texte, die nicht semantisch sind, aber komplexe Verknüpfungen zwischen ihren Fragmenten besitzen, nennt man dabei »Hypertext«. Das hebt es von der linearen Struktur ab und das System ermöglicht es Hypertexte zu erstellen, sie zu bearbeiten, neu anzuordnen und auszudrucken.
Die zerstückelten Texte können mit einem »Standardcomputer«, nämlich dem IBM 360/50 und einem 2250 Display (12″ x 12″), auf verschiedene Arten durchsucht werden.4

Rice schreibt, dass das Ziel des Systems sei, ein »universelles Textverarbeitungs- und -bearbeitungssystem für Autoren, Redakteure und Online-Leser zu erstellen«5.

Das Hypertext Editing System scheint entgegen erster Erwartungen sehr umfangreich zu sein, Andries van Dams Benutzerhandbuch besteht immerhin aus 33 Seiten.

Quellen
  1. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:48:58–00:50:40, abgerufen am 18.8.2017.
  2. Vgl. Rice, David Edward: »Computer-Assisted Text Manipulation – A Look at The Current State of the Art And a Particular Example, The Hypertext Editing System«, Stand: 1967, URL: https://archive.org/details/TNM_The_Hypertext_Editing_System_computer-assiste_20171120_0001, S. 46, abgerufen am 1.11.2017.
  3. Vgl. Ebd., S. 46 f.
  4. Vgl. Ebd., S. 47.
  5. Ebd., S. 48 f.
Abbildungen
  1. Lloyd, Gregory: »Photo of the Hypertext Editing System (HES) console in use at Brown University«, Stand: Oktober 1969, via Wikimedia Commons, abgerufen am 30.9.2017, Lizenz: CC BY 2.0.

Ted Nelsons Xanadu als Wegbereiter des World Wide Webs?

Bei der Recherche über das World Wide Web darf Ted Nelson nicht fehlen. Er prägt 1965 den Begriff Hypertext und schrieb von literarischen Maschinen, welche dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren. Zudem träumt er von einer utopischen Gesellschaft, in der Menschen alle Informationen teilen können und sich auf Augenhöhe begegnen. Die wahrscheinlich bekannteste Arbeit von Ted Nelson ist das Hypertext-Projekt Xanadu, welches 1960 seinen Anfang nahm.

Bei der Recherche über das World Wide Web darf Ted Nelson nicht fehlen. Er prägt 1965 den Begriff Hypertext und schrieb von literarischen Maschinen, welche dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren.1 Zudem träumt er von einer utopischen Gesellschaft, in der Menschen alle Informationen teilen können und sich auf Augenhöhe begegnen.2 Seine wahrscheinlich bekannteste Arbeit ist das Hypertext-Projekt Xanadu, welches 1960 seinen Anfang nahm.

Das Projekt Xanadu

Durch das Projekt Xanadu soll ein »Docuverse«, ein Universum aus Dokumenten, entstehen, welches es möglich macht, jegliche Literatur fest miteinander zu verflechten.
Alex Wright beschreibt in seinem Vortrag, dass es bei Xanadu nicht nur um simple Verlinkungen geht, sondern um dynamische Beziehungen, wenn ein Abschnitt in einen anderen Abschnitt kopiert wird. Das Dokument lebt innerhalb des anderen weiter, jedes hat seinen Platz und wird dynamisch upgedatet.3

In einer Demonstration von Xanadu Space, der meinem Verständnis nach letzten Xanadu-Version vor der aktuellen OpenXanadu aus dem Jahr 2013, spricht Ted Nelson über seine ursprüngliche Hypertext-Idee. Als Schreibender sah er das Blatt Papier als Gefängnis, durch das der Text von vier Wänden eingesperrt wurde und aus dem Ideen entfliehen wollten. Klammern oder Fußnoten sind dabei erste Hinweise darauf, dass ein Bedarf besteht, Texte miteinander zu verbinden oder mit zusätzlichen Informationen zu versehen. Mit der Erfindung von Computern sah er die Möglichkeit, aus diesem Papiergefängnis zu entfliehen.4
Mit elektronischen Dokumenten sind viele Dinge möglich, die mit Papier nicht umsetzbar sind. Umso irrsinniger ist es aus seiner Sicht, dass alle versuchen Papier zu imitieren; so z. B. Adobes Acrobat oder Microsofts Word. Er kann nicht verstehen, wieso es nicht möglich ist Randnotizen zu machen, da er Parallelität als großen Vorteil elektronischer Schriftstücke sieht. Diese Parallelität macht es laut ihm einfacher, Texte zu schreiben und zu lesen.5

Xanadu sieht Nelson als Lösung des Problems. Bei seiner Präsentation zeigt er den dreidimensionalen Raum, der in seinem Beispiel aus elf Dokumenten und 27 Verweisen besteht. Neben den »Deep Links« für Inhaltsverknüpfungen, liefert er einen wichtigen Ansatz mit dem von ihm geprägten Begriff »Transklusion«.

Mit Transklusion ist die Verbindung zwischen einem Hauptdokument und einer Begleitseite gemeint. Dabei sind die Inhalte an verschiedenen Orten verfügbar und das Hauptdokument wird auf diese Weise mit weiteren Informationen verbunden.6 Dabei geht es nicht um einen Link zum ursprünglichen Inhalt, sondern um eine Wiederverwendung dessen.7 Das bedeutet, dass beispielsweise Änderungen im originalen Text, dynamisch im aktuellen Dokument geupdatet werden. Nelsons Beschreibung nach »ist die Transklusion das, was Zitat, Nachahmung und Querverweis lediglich versuchen. […] Alias und Caches sind Formen der Transklusion«8. Er bemerkt zusätzlich, dass Vannevar Bushs Idee des Memex mit Transklusionen anstelle von Links arbeitet.9

In Xanadu Space werden sie sichtbar, wenn man sich durch die Hauptseite klickt. Man erhält parallel die verbundene Information, die auf der Begleitseite im eigentlichen Kontext zu sehen ist.10 In diesem riesigen Kosmos aus Verknüpfungen, kann man einer Verbindung folgen und genau nachvollziehen, was sie bedeutet.11 Damit besteht der Informationsraum aus vielen Informationsatomen, die Klammern, Fußnoten oder Formulierungen wie »Wie schon erwähnt« überflüssig machen.

Unterschiede zum und Probleme mit dem World Wide Web

Ted Nelson hat offensichtlich ein Problem mit dem aktuellen Aufbau des World Wide Webs. So schreibt er beispielsweise in »I DON’T BUY IN«, dass das Web kein Hypertext ist, sondern nur dekorierte Verzeichnisse. Er fügt hinzu, dass es bei Xanadu ausschließlich um die Dokumentenstruktur geht, so dass Autoren und Leser nicht über Dateistrukturen oder hierarchische Verzeichnisse nachdenken müssen, sondern sich auf das wesentliche konzentrieren können. Gleichermaßen ist er der Ansicht, dass das Dokument und das MarkUp voneinander getrennt sein müssen, um den Inhalt nicht mit der Präsentation zu vermischen.12 Auf technischer Ebene sieht er einen fundamentalen Fehler des Webs darin, dass Links nur in eine Richtung führen. Er macht deutlich, dass es eine Alternative zum aktuellen Aufbau des World Wide Webs gibt und sie – vermutlich das Team und Xanadu-Anhänger – weiter dafür kämpfen werden.13

Offen gesagt fällt es mir schwer zu beurteilen, inwiefern Ted Nelson mit seinen Aussagen richtig liegt. In manchen Teilen meiner Auseinandersetzungen hatte ich das Gefühl, dass er den verlorenen Kampf nicht akzeptieren will und aus diesem Grund an mancher Stelle behauptet wird, dass Tim Berners-Lee seine Idee geklaut und schlecht umgesetzt hat. Auf der anderen Seite halte ich vor allem die Verwendung von Transklusionen für großartig und dem Web bei weitem voraus. Das treibt meiner Meinung nach den Gedanken einer völligen Vernetzung sinnvoll weiter. Auch die Verwendung bidirektionaler Links halte ich hierbei für einen Fortschritt. Ähnlich wie bei Bushs Memex sehe ich die Möglichkeit, Inhalte nicht nur miteinander zu verknüpfen, sondern Verknüpfungen nachvollziehen zu können. Hierdurch kann wiederum neues Wissen generiert werden.

Um diese Frage final zu klären, müsste ich mich durch die unzählig vorhandenen Dokumente über Xanadu arbeiten, was ich aus Zeitgründen nicht tun werde; dafür ist sie für mein gesamtes Masterthema letztendlich nicht wichtig genug. Jedoch werde ich mich eventuell in einem weiteren Beitrag der Frage widmen, inwiefern ein System wie Xanadu Auswirkungen auf das UI im Web hätte. Bisherige visuelle Eindrücke halte ich nämlich nicht für sonderlich praktikabel oder zumindest nicht für sehr ansprechend.

Abschließend möchte ich noch – völlig umkommentiert – weitere Begriffe für mich festhalten, die Nelson geprägt hat. Alex Wright erwähnt sie in seinem Vortrag und sie könnten möglicherweise zu einem späteren Zeitpunkt wichtig werden: stretchtext, zippered list, window sandwiches, indexing vortexes, part-punces, tumblers, collateral hypertext, Hummers, thinkertoys, fresh hyperbooks, anthological hyperbooks, grand systems.14

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 5.
  2. Vgl. Ebd.
  3. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:44:40–00:45:56, abgerufen am 18.8.2017.
  4. Vgl. Nelson, Theodor Holm, photonhunter: »Ted Nelson demonstrates Xanadu Space«, Stand: 6.9.2008, URL: https://www.youtube.com/watch?v=En_2T7KH6RA, TC: 00:30:00–00:01:20, abgerufen am 23.10.2017.
  5. Vgl. Ebd., TC: 00:01:20–00:02:30.
  6. Vgl. Ebd., TC: 00:03:12–00:04:52.
  7. Vgl. Nelson, Theodor Holm; Project Xanadu; Keio University: »Xanalogical Structure, Needed Now More than Ever: Parallel Documents, Deep Links to Content, Deep Versioning and Deep Re-Use«, URL: http://www.xanadu.com.au/ted/XUsurvey/xuDation.html, Absatz 4, abgerufen am 23.10.2017.
  8. Ebd., Absatz 6.
  9. Vgl. Ebd., Absatz 9.
  10. Vgl. Nelson, Theodor Holm, photonhunter: »Ted Nelson demonstrates Xanadu Space«, Stand: 6.9.2008, URL: https://www.youtube.com/watch?v=En_2T7KH6RA, TC: 00:03:12–00:04:52, abgerufen am 23.10.2017.
  11. Vgl. Ebd., TC: 00:04:56–00:05:10.
  12. Vgl. Nelson, Theodor Holm: »I DON‘T BUY IN«, URL: http://ted.hyperland.com/buyin.txt, abgerufen am 24.10.2017.
  13. Vgl. Ebd.
  14. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:46:53–00:47:46, abgerufen am 18.8.2017.
Abbildungen
  1. Titelbild: Unbekannt: »Mockup of transpointing windows, closeup view, 1972«, URL: http://www.xanadu.com.au/ted/XUsurvey/xuDation.html, abgerufen am 23.10.2017.

Paul Otlets Proto-Web

Ursprünglich wollte ich mich mit Paul Otlet, dem Pionier des Informationsmanagements, nur weiter auseinandersetzen, wenn es für meinen Master relevanter wird. Im Zuge meiner Recherche über wichtige Vorreiter in Bezug auf Informationsräume oder spezieller das World Wide Web, fällt Paul Otlet zwar nicht mehr oder weniger Gewicht als zuvor. Während ich mich mit der universellen Dezimalklassifikation, dem Mundaneum und seiner Vision der World City auseinandergesetzt habe, entgingen mir jedoch weitere interessante Details sowie Pläne, die er für neue Technologien hatte.

Ursprünglich wollte ich mich mit Paul Otlet, dem Pionier des Informationsmanagements, nur weiter auseinandersetzen, wenn es für meinen Master relevanter wird. Im Zuge meiner Recherche über wichtige Vorreiter in Bezug auf Informationsräume oder spezieller das World Wide Web, fällt Paul Otlet zwar nicht mehr oder weniger ins Gewicht als zuvor. Nichtsdestotrotz möchte ich neue Erkenntnisse dokumentieren, auf welche ich inzwischen gestoßen bin.

Während ich mich mit der universellen Dezimalklassifikation, dem Mundaneum und seiner Vision der World City beschäftigt habe, entgingen mir weitere interessante Details sowie Pläne, die er für neue Technologien hatte. Da man über Paul Otlet sicher ganze Doktorarbeiten schreiben könnte, hoffe ich die Gedanken dieses Genies in dieser kurzen Form gerecht und vor allem korrekt wiederzugeben.

Karteikarten und Telegraphenmaschinen als Hypermedium

Durch die benutzten Karteikarten war es möglich, einzelne Informationen – ob bibliographisch oder inhaltlich – analytisch festzuhalten und größere Informationsbrocken konnten auf separaten Blättern manifestiert werden. Das nennt Otlet das »monographische Prinzip«.1 Warden Boyd Rayward, der erste Biograph Otlets, vergleicht das mit den Knoten und Textstücken in Hypertext2 und tatsächlich kann die Arbeit als Hypermedium bezeichnet werden. Alex Wright schreibt in einem Artikel, dass Otlets Proto-Web zwar auf einem Patchwork aus analogen Technologien wie Karteikarten und Telegraphenmaschinen beruhte, es jedoch die vernetzte Struktur des heutigen Webs vorwegnahm.3 Auch laut Rayward legt eine Untersuchung der Ideen und Verfahren, auf denen die Entwicklung der Datenbanken basieren, nahe, dass sie sehr ähnlich zu Hypertext-Systemen sind. Sie bestanden aus Knoten und Abschnitten und durch ein System aus Links und Navigationsvorrichtungen gelangte der Nutzer von bibliographischen Referenzen zu Volltext, Bildern oder Objekten.4

Informationen können so losgelöst vom Gesamtwerk des jeweiligen Autors gelesen und kombiniert werden. Rayward erläutert, dass Otlet diese Möglichkeit Wissen in einer flexiblen, enzyklopädischen Weise anzuordnen »Kodifizierung« nennt.5 Diese Form von »Datenbanken« war wichtig, um eine neue Art von »Bezugs- und Konsultationsfunktionen«6 zu schaffen. Zudem war Otlet dieses Herauslösen der Informationen wichtig, um dem Autor nicht »sklavisch durch das Labyrinth eines persönlichen Plans folgen zu müssen«7. Dem Leser sollte ermöglicht werden, wichtige Inhalte zu scannen und den uninteressanten fernzubleiben.8

Neben der Tatsache, dass es neue Möglichkeiten dafür geben sollte, Texte in maschinenlesbarer Form zu bearbeiten, so dass die ursprüngliche Integrität des Dokuments erhalten bleibt,9 hatte Otlet die Idee, Texte so verfügbar zu machen, dass sie »nach Belieben durchsucht, analysiert, abstrahiert und neu formatiert werden konnten«10. Das ist konzeptionell sehr nah an heutigen Textverarbeitungsprogrammen und auch eine Form von Computer hatte er sich schon damals vorgestellt.

Das Proto-Web

Als das Mundaneum mit seinen unzähligen Karten und Blättern mehr und mehr wuchs, suchte er nach Lösungen, die Masse an Papier in den Griff zu bekommen. Er begann daher, so Alex Wright, neue Technologien zu entwerfen. Darunter unter anderem ein Art Papiercomputer, der – ausgestattet mit Rädern und Speichen – Dokumente auf der Schreibtischoberfläche bewegte. Seine finale Antwort soll jedoch das Verschrotten von Papier insgesamt gewesen sein.11
Weiter dachte er über die Möglichkeit einer elektronischen Datenspeicherung nach, welche später in seine Vision eines »mechanischen, kollektiven Gehirns« mündete, das alle Informationen der Welt innerhalb eines globalen Telekommunikationsnetzes abrufbar machen sollte.12 Ein Ansatz war der, Informationen in einer neuen Form der Enzyklopädie – der Encyclopedia Microphotica Mundaneum – über Mikrofilme verfügbar zu machen.13 Diesen Weg der Informationsverbreitung findet man später beispielsweise auch bei Vannevar Bushs Idee des Memex.

Paul Otlet | Telekommunikation
Eine von Otlets Skizzen über Telekommunikation

Folgend sah er die Möglichkeit, auf dieses angedachte universelle Netzwerk für Informationen und Dokumentation via Multimedia-Arbeitsstationen zuzugreifen, die zu dieser Zeit jedoch noch nicht erfunden waren.14 Er hatte aber bereits die Vision, dass eine Maschine benötigt werde, die das Fernschreiben und -lesen ermöglichten, so dass Gelehrte auch zu Hause Dokumente lesen konnten – verbunden per Kabel wie das Telefon oder ohne Kabel wie das Radio.15 In Otlets medienübergreifendem Netz sollte Raum für die Partizipation des Lesers sein.
Ferner spekulierte er, dass der »Schreibtisch der Zukunft nur aus einem Bildschirm oder mehreren Bildschirmen sowie einem Telefon bestehen könnte, um Dokumente abrufen zu können«16. Auch die Tonübertragung mit einer Art Lautsprecher sowie die komplette Verschmelzung innerhalb einer Maschine sah er dabei vor.17 Alex Wright führt diese skizzierten Pläne für ein globales Netzwerk von Computern bzw. »elektrischen Teleskopen« weiter aus. So sollen die Millionen miteinander verknüpften Dokumente, Bilder, Audio- und Videodateien durchsuchbar sein. Über die Geräte könnte man zudem Nachrichten versenden, Dateien teilen und sich in sozialen Netzwerken versammeln. Das nannte er réseau mondiale, ein weltweites Netzwerk.18 In diesen Netzwerken könnte man teilnehmen, applaudieren, Ovationen geben und im Chor singen.19

Paul Otlet und das World Wide Web

Paul Otlets Visionen sind aus meiner Sicht unglaublich nah an der heutigen Welt. Schreibtische mit Bildschirmen, vernetzte Informationen und die Möglichkeit am gesamten Informationsraum teilzuhaben, hören sich für damalige Verhältnisse revolutionär an. Umso ungläubiger macht es mich zum einen, dass seine Arbeit über Jahrzehnte in der Versenkung verschwand und erst durch Rayward Ende der 60er Jahre wiederentdeckt wurde. Zum anderen stimmt es mich nachdenklich, dass das Potenzial dieser Entwicklungen und Gedanken erst so viel später erkannt wurde. Weiter finde ich es erstaunlich, dass das World Wide Web als universeller Informationsraum erst nach so langer Zeit entwickelt wurde. Sicher feilte man über Jahrzehnte an Informationssystemen, das Internet gab es sehr viel früher und auch Hypertext an sich war nicht Tim Berners-Lees Idee. Der technologische Fortschritt hielt sich vermutlich in Grenzen und gesellschaftlich war man eventuell noch nicht bereit. Nichtsdestotrotz sehe ich in Otlets Ideen grundsätzliche Gedanken des World Wide Webs sowie dessen fundamentale Struktur. Daher frage ich mich beispielsweise auch, wieso weniger an offenen als an geschlossenen Systemen gearbeitet wurde, obwohl das Internet schon Jahrzehnte vor dem Web erfunden wurde und wieso der Zugang zu Wissen so lange so sperrig war, obwohl bereits Otlet den einfachen Zugang zu Wissen als wichtigen Bestandteil sah.

Abschließend halte ich Otlet für ein wirkliches Genie, der mit seinen unzähligen Ideen großes in seinem Leben geleistet hat. Wie eingangs erwähnt könnte man sicher ganze Doktorarbeiten über ihn schreiben, da viele seiner Ideen revolutionär waren und man sich alleine mit seinen Publikationen zu Lebzeiten endlos beschäftigen hätte können. Gleichwohl möchte ich an dieser Stelle mit dem Visionär abschließen und mich nach meinem Master möglicherweise noch mit Alex Wrights Buch »Cataloging the World« auseinandersetzen.

Quellen
  1. Vgl. Rayward, Warden Boyd: »Visions of Xanadu: Paul Otlet (1868–1944) and Hypertext« in: »Journal of the American society for information science«, Band 45, Ausgabe 4, S. 235–250, Stand: Mai 1994, URL: https://pdfs.semanticscholar.org/48f4/51ecb5d5241a7780bf07ac15b4e5699c5c41.pdf, S. 238, abgerufen am 28.9.2017.
  2. Vgl. Ebd.
  3. Vgl. Wright Alex: »The web that time forgot«, Stand: 17.6.2008, URL: https://www.nytimes.com/2008/06/17/health/17iht-17mund.13760031.html, Absatz 4, abgerufen am 30.9.2017.
  4. Vgl. Rayward, Warden Boyd: »Visions of Xanadu: Paul Otlet (1868–1944) and Hypertext« in: »Journal of the American society for information science«, Band 45, Ausgabe 4, S. 235–250, Stand: Mai 1994, URL: https://pdfs.semanticscholar.org/48f4/51ecb5d5241a7780bf07ac15b4e5699c5c41.pdf, S. 240, abgerufen am 28.9.2017.
  5. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 97, abgerufen am 28.9.2017.
  6. Rayward, Warden Boyd: »Visions of Xanadu: Paul Otlet (1868–1944) and Hypertext« in: »Journal of the American society for information science«, Band 45, Ausgabe 4, S. 235–250, Stand: Mai 1994, URL: https://pdfs.semanticscholar.org/48f4/51ecb5d5241a7780bf07ac15b4e5699c5c41.pdf, S. 240, abgerufen am 28.9.2017.
  7. Ebd.
  8. Vgl. Ebd.
  9. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 98, abgerufen am 28.9.2017.
  10. Ebd.
  11. Vgl. Wright, Alex: »The web that time forgot«, Stand: 17.6.2008, URL: https://www.nytimes.com/2008/06/17/health/17iht-17mund.13760031.html, Absatz 15, abgerufen am 30.9.2017.
  12. Vgl. Ebd., Absatz 16.
  13. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 99, abgerufen am 28.9.2017.
  14. Vgl. Rayward, Warden Boyd: »Visions of Xanadu: Paul Otlet (1868–1944) and Hypertext« in: »Journal of the American society for information science«, Band 45, Ausgabe 4, S. 235–250, Stand: Mai 1994, URL: https://pdfs.semanticscholar.org/48f4/51ecb5d5241a7780bf07ac15b4e5699c5c41.pdf, S. 235, abgerufen am 28.9.2017.
  15. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 98, abgerufen am 28.9.2017.
  16. Ebd., S. 99.
  17. Vgl. Ebd.
  18. Vgl. Wright, Alex: »The web that time forgot«, Stand: 17.6.2008, URL: https://www.nytimes.com/2008/06/17/health/17iht-17mund.13760031.html, Absatz 2, abgerufen am 30.9.2017.
  19. Vgl. Ebd., Absatz 24.

oN-Line System – Template des modernen Computers

An verschiedenen Stellen bin ich auf Doug Engelbart, Forscher an der Standford University, gestoßen. Eine seiner Visionen war, dass Hypertext als Werkzeug für die Arbeit im Team genutzt wird und dass Personen in einem sehr nahen und natürlichen Weg mit Maschinen kommunizieren können.

An verschiedenen Stellen bin ich auf Doug Engelbart, Forscher an der Standford University, gestoßen. Eine seiner Visionen war, dass Hypertext als Werkzeug für die Arbeit im Team genutzt wird und dass Personen in einem sehr nahen und natürlichen Weg mit Maschinen kommunizieren können.1 In den 60er Jahren erschuf er das kollaborative Hypertext-System »oN-Line System« (NLS) und gilt als Erfinder der Computermaus.2 Die Erfindung seiner Einhand-Tastatur mit nur fünf Tasten, sieht Licklider rückblickend sogar als eine der wahrscheinlich größten Erfindungen.3

Engelbart gilt als stark beeinflusst von Vannevar Bush und ist zudem Autor von »Augmenting Human Intellect: A Conceptual Framework« (1962).4 Damit ist die Fähigkeit eines Menschen gemeint, »sich einer komplexen Problemsituation zu nähern, Verständnis für seine speziellen Bedürfnisse zu entwickeln und Problemlösungen abzuleiten. Unter erhöhter Fähigkeit wird in diesem Zusammenhang eine Mischung aus Folgendem verstanden: schnelleres Verständnis, besseres Verständnis, die Möglichkeit, in einer bisher zu komplexen Situation einen brauchbaren Grad an Verständnis zu gewinnen, schnellere Lösungen, bessere Lösungen und die Möglichkeit Lösungen für Probleme zu finden, die vorher unlösbar schienen«5. Zudem sieht er die Wichtigkeit, dass Ahnungen, Ausprobieren, immaterielle Werte und das menschliche »Gefühl für eine Situation« sinnvollerweise mit den rationalen Gegebenheiten der elektronischen Hilfsmittel koexistieren.6

Seine Ausarbeitung gilt als Pionierarbeit seiner Zeit und seine Denkweise ist der Lickliders sehr nahe. Die auf den ersten Blick für meine Arbeit relevantere Entwicklung ist jedoch die des oN-Line Systems. Selbstverständlich kann beides nicht gänzlich getrennt voneinander betrachtet werden, da genau dieses System zur Erweiterung der menschlichen Intelligenz bestimmt war.7 Jedoch möchte ich mich nicht zu sehr in seinem sehr umfangreichen, theoretischen Konzept verstricken.

Das oN-Line System

Wie schon erwähnt ist das oN-Line System ein Hypertext-System. Der Prototyp wurde erstmals 1968 demonstriert und Alex Wright hält es im Wesentlichen für das Template für den modernen Computer.8 Ian Ritchie beschreibt wie Engelbart das System mit Headset-Mikrophon mittels 5-Finger-Tastatur und der ersten Computermaus der Welt demonstriert und zwischen Dokumenten und Graphiken weiter schaltet.9 Aus Ritchies Sicht war das Problem unter anderem das, dass ein Computer zu dieser Zeit mehrere Millionen Pfund kostete und damit als Heimcomputer nicht wirklich praktisch war.10 Wright erläutert weiter, dass das System bereits Hyperlinks und ein Videokonferenz-System enthält,11 was mir als sehr fortschrittlich erscheint. Es gilt als das erste System, das den praktischen Einsatz von mit Hyperlinks vernetzten Dokumenten, der Maus, Raster-Scan-Monitoren, nach Relevanz organisierten Informationen, einer Bildschirmverwaltung, Präsentationsprogrammen und anderen modernen Computing-Konzepten angewandt hat.12

Für mich immer wieder erstaunlich ist die Tatsache, wie früh daran gearbeitet wurde Informationen nach Relevanz zu sortieren und wie lange es gedauert hat bis es mit dem World Wide Web tatsächlich praktikabel für Jedermann umgesetzt wurde. Natürlich gibt es davor schon analoge Systeme, die sich wie im Falle von Paul Otlet durch die Verbindung von Inhalten abheben oder fiktive Anwendungen, die wie bei Vannevar Bushs Memex Assoziationen zwischen Dokumenten auf elektronischem Wege hervorbringen sollten.
Gleichermaßen lässt sich der Antrieb, neue Wege für die Organisation von Informationen zu finden, als logische Konsequenz der menschlichen Entwicklung sehen und sich in den historischen Kontext einordnen. So nahm neben der Fülle an Informationen auch die Abhängigkeit von eben diesen massiv zu. Wohlstand und Fortschritt sind in der Hypergeschichte, in der wir uns beispielsweise in Deutschland befinden, enorm an sie gebunden. Zudem sieht man in Tim Berners-Lee Konzept von Linked Open Data eine weitere Evolution, welche mich stark an »The World City« erinnert, mit der Paul Otlet das Wissen der Menschheit vereinen wollte. Auch bei Linked Open Data ist letztendlich das Ziel alle Daten zusammenzutragen, so dass sie nicht auf lokalen Rechnern oder in geschlossenen Systemen verloren gehen. Zwar unterscheiden sich Informationen und Wissen grundlegend, aber durch das Zusammenführen der Daten bzw. Informationen lässt sich nicht nur Wissen herauslesen, sondern sogar neues generieren. So werden nämlich Sachverhalte assoziativ verbunden, welche vorher nicht als zusammenhängend betrachtet wurden.

Diese abschließenden Gedanken bringen mir insofern neue Erkenntnisse für meine Arbeit, dass mir der Gesamtkontext nun immer klarer wird. Die Recherche über vergangene Entwicklungen, die zeitliche Einordnung sowie aktuelle Konzepte helfen mir enorm beim Verständnis. In diesem Zusammenhang wird mir zudem bewusst, das Informationsdesign eine große Rolle in meiner Arbeit spielen könnte.

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 6.
  2. Vgl. Ebd., S. 50.
  3. Vgl. Licklider, Joseph Carl Robnett, Yoshiki Ohshima: »Some Reflections on Early History by J.C.R. Licklider (VPRI 0093)«, Stand: 5.8.2015, URL: https://www.youtube.com/watch?v=SN–t9jXQc0, TC: 00:12:22–00:13:50, abgerufen am 20.8.2017.
  4. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:36:11–00:37:18, abgerufen am 18.8.2017.
  5. Engelbart, Doug: »Augmenting Human Intellect: A Conceptual Framework«, Stand: Oktober 1962, URL: https://www.dougengelbart.org/pubs/augment-3906.html#2, abgerufen am 22.8.2017.
  6. Vgl. Ebd.
  7. Vgl. Ritchie, Ian: »The day I turned down Tim Berners-Lee«, URL: https://www.ted.com/talks/ian_ritchie_the_day_i_turned_down_tim_berners_lee/, TC: 00:01:17–00:01:51, abgerufen am 20.7.2017.
  8. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:38:04–00:39:36, abgerufen am 18.8.2017.
  9. Vgl. Ritchie, Ian: »The day I turned down Tim Berners-Lee«, URL: https://www.ted.com/talks/ian_ritchie_the_day_i_turned_down_tim_berners_lee/, TC: 00:01:51–00:02:24, abgerufen am 20.7.2017.
  10. Vgl. Ebd., TC: 00:02:24–00:02:37.
  11. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:38:04–00:39:36, abgerufen am 18.8.2017.
  12. Vgl. Gust, Kate, Software Preservation Group: »NLS Augment Index«, Stand: 6.11.2006, URL: http://www.softwarepreservation.org/projects/nlsproject, abgerufen am 22.8.2017.
Abbildungen
  1. Titelbild: DARPA: »oN-Line System«, URL: https://www.darpa.mil/about-us/timeline/nls, abgerufen am 14.9.2017.

Paul Otlet – Pionier des Informationsmanagements

Im Zuge meiner Nachforschungen hinsichtlich der Entwicklung des World Wide Webs stoße ich häufig auf den Namen Paul Otlet. An diversen Stellen wird er als Pionier des Informationsmanagements oder als Wegbereiter des Webs oder Google genannt. Alex Wright, amerikanischer Autor und Informationsarchitekt, spricht in seinem Vortrag »The Web That Wasn’t: Forgotten Forebears of the Internet« bei UX Brighton über Paul Otlet sowie diverse andere Vorreiter des Internets.

Im Zuge meiner Nachforschungen hinsichtlich der Entwicklung des World Wide Webs stoße ich häufig auf den Namen Paul Otlet. An diversen Stellen wird er als Pionier des Informationsmanagements oder als Wegbereiter des Webs oder Google genannt. Alex Wright, amerikanischer Autor und Informationsarchitekt, spricht in seinem Vortrag »The Web That Wasn’t: Forgotten Forebears of the Internet« bei UX Brighton über Paul Otlet sowie diverse andere Vorreiter des Internets.

Otlets Organisationsstruktur intellektueller Arbeiten
Otlets Organisationsstruktur intellektueller Arbeiten

Die universelle Dezimalklassifikation

Der Belgier Otlet lebte von 1868 bis etwa Mitte des 20. Jahrhunderts und entwickelte seine Vision dementsprechend vor der Erfindung des ersten Computers. Ein zentraler Gedanke seiner Arbeit ist die systematische Anordnung, inhaltliche Verknüpfung und Darstellung menschlichen Wissens. Die bis dahin übliche Katalogisierung der Medien – weitestgehend Bücher – brachte ein großes Problem mit sich: Die Inhalte waren nicht ersichtlich. Das Ziel war also, ein System zu entwickeln, welches es zulässt, Inhalte zu extrahieren und sie auf intelligente Weise zu indexieren,1 um sie wiederum einfach verfügbar machen zu können. Basierend darauf entwickelt er zusammen mit Henri La Fontaine, beides Bibliothekare, die universelle Dezimalklassifikation, welches noch immer in fast ganz Europa von öffentlichen Bibliotheken verwendet wird2 und menschliches Wissen systematisch einteilt.

Wissen der Menschheit

Das bescheidene Ziel war es schließlich, das komplette Wissen der Menschheit seit Erfindung des Drucks zu sammeln und zu indexieren. Im Mundaneum war ab 1895 das »Institut International de Bibliographie« beheimatet,3 wo das Duo mit der Umsetzung dieser Vision begann. Die jahrzehntelange Arbeit wurde von der Regierung unterstützt und die Mitarbeiter versuchten absolut jede Information der Welt zu sammeln,4 um sie schließlich systematisch auf Karteikarten zu indexieren. Allein zwischen 1895 und dem 1. Weltkrieg entstanden so zehn Millionen Karteikarten,5 welche auch andere Medien wie Fotografien, Filme oder Audioaufnahmen mit einbezogen.6 Bis ins Jahr 1934 wurden mithilfe eines internationalen Netzwerks ganze 18 Millionen Karteikarten erstellt, welche innerhalb von Aktenschränken stolze 15.000 Zettelkästen füllten.7

Ab 1910 entstand das International Museum, das eher als Lehrinstitut als als Museum verstanden wurde. In 150 Räumen war Wissen thematisch sortiert aufbereitet und für die Öffentlichkeit zugänglich.8

The World City

Der Utopist ging gedanklich noch einen Schritt weiter. Er dachte über eine physische Manifestation der Informationen nach und arbeitete zusammen mit bekannten Architekten an Plänen für eine »World City«. Dessen Herz sollte das Mundaneum sein und unter anderem globale Universitäten oder ein Netzwerk von Museen beherbergen.9 Rund um das zentrale Mundaneum sollte ein Art Netzwerk fließender Informationen und Institutionen entstehen, welches durch Zweigstellen in der ganzen Welt unterstützt werden sollte. Die Aufgabe der Zweigstellen wäre die gewesen, Informationen des jeweiligen Landes zu verwalten, sie weiterzugeben und sie gegen Informationen aus der globalen Stadt einzutauschen.10

Inhaltliche Verlinkung

Alex Wright bewertet den Ansatz Otlets in mancher Hinsicht als anspruchsvoller als das World Wide Web selbst. Zwar wäre es heute unmöglich alle Informationen zu sammeln, doch das Web sei ein flacher Informationsraum ohne Organisationsprinzipien. Das macht es auf der einen Seite als offenes Medium aus, auf der anderen Seite sieht er genau das als Krankheit. Man käme etwas auf die Spur, Dinge verschwänden wieder, man müsse herausfinden, wem und was man vertrauen könne und es sei ohnehin unmöglich das große Ganze zu verstehen. Zudem fand Otlet sehr anspruchsvolle Wege Informationen zu verlinken, während Hyperlinks nur von A nach B führen, ohne dass man genau weiß in welcher Beziehung die Links zueinander stehen.
Otlet hatte dagegen eine ausgefeilte Syntax aus Zahlen und Zeichen, welche letztendlich zeigt, dass ein Dokument mit dem anderen übereinstimmt oder es in bestimmten Aspekten sogar erweitert. Aus Wrights Sicht besitzt das Web diese Art und Weise der Verbindungen noch nicht, obwohl viele Menschen daran arbeiten.11

Aus meiner Sicht ist die Vision Otlets ein wunderbarer Ansatz, um Informationen sammeln, organisieren und verbreiten zu können. Vor allem die globale Stadt, die sich letztendlich nur dem Fluss des menschlichen Wissens widmet, halte ich für großartig. Andererseits halte ich die Zentralisierung des Wissens aus heutiger Sicht nicht für den besten Ansatz. Dadurch, dass nur bestimmte Institutionen in den jeweiligen Ländern Informationen austauschen, wäre der freie Fluss sehr beschränkt. Man muss jedoch bedenken, dass ein digitaler Austausch wie heute natürlich noch nicht möglich war.

Mein Beitrag soll nur einen kurzen Einblick in Otlets Vision geben, um sein System besser verstehen zu können. Sollte es während meines Masters relevanter werden, möchte ich mich noch einmal detaillierter mit der tatsächlichen Systematik auseinandersetzen. Zudem werde ich meine Dokumentation durch einen kleinen Exkurs zu Otto Neurath erweitern. Er war österreichischer Design Thinker und an den Plänen der Stadt beteiligt.

Quellen
  1. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:14:34–00:15:14, abgerufen am 18.8.2017.
  2. Vgl. Ebd., TC: 00:13:43–00:14:34.
  3. Vgl. Tiny Big Story, in collaboration with Ikesu, Mundaneum: »Mundaneum – Small history of a big idea – Context EN«, Stand: 9.7.2015, URL: https://www.youtube.com/watch?v=flBcebZ7MCo, TC: 00:00:54–00:01:14, abgerufen am 18.8.2017.
  4. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:20:19–00:21:00, abgerufen am 18.8.2017.
  5. Vgl. Ebd., TC: 00:21:00–00:21:30.
  6. Vgl. Ebd., TC: 00:16:30–00:16:54.
  7. Vgl. Tiny Big Story, in collaboration with Ikesu, Mundaneum: »Mundaneum – Small history of a big idea – Context EN«, Stand: 9.7.2015, URL: https://www.youtube.com/watch?v=flBcebZ7MCo, TC: 00:01:15–00:01:29, abgerufen am 18.8.2017.
  8. Vgl. Ebd., TC: 00:01:59–00:02:26.
  9. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:17:14–00:18:40, abgerufen am 18.8.2017.
  10. Vgl. Ebd., TC: 00:18:40–00:19:20.
  11. Vgl. Ebd., TC: 00:24:57–00:27:00.

Wie wir vielleicht denken

Im TED-Beitrag »The day I turned down Tim Berners-Lee« erläutert Ian Ritchie, wie sich das Web entwickelt hat und wie es dazu kam, dass er 1990 Berners-Lees Anfrage einen Browser zu schreiben, ablehnte. Da ich mich mit Teilen der Entwicklung schon beschäftigt habe und die Essenz seines Vortrags nicht sonderlich erkenntnisreich finde, interessiert mich vor allen Dingen seine Schilderung über Vannevar Bush und Doug Engelbart.

Im TED-Beitrag »The day I turned down Tim Berners-Lee« erläutert Ian Ritchie, wie sich das Web entwickelt hat und wie es dazu kam, dass er 1990 Berners-Lees Anfrage einen Browser zu schreiben, ablehnte.1

Da ich mich mit Teilen der Entwicklung schon beschäftigt habe und die Essenz seines Vortrags nicht sonderlich erkenntnisreich finde, interessiert mich vor allen Dingen seine Schilderung über Vannevar Bush und Doug Engelbart.

Ritchie erwähnt Bushs Artikel »As We May Think«, der 1945 veröffentlicht wurde. Er behauptet damals, dass die Art, wie wir Informationen nutzen, zerstört sei und wir als Menschen nicht wie Bibliotheken oder Katalogsysteme funktionieren würden. Das Gehirn arbeitet durch Assoziationen und springt zwischen einzelnen Gedanken hin und her.2 Auf dieser Grundlage entwickelte er 1945 die fiktive Maschine Memex, welche Informationen miteinander verknüpfen würde. Ein Memex hatte eine Plattform, auf der man Informationen verbinden und abrufen konnte. Der Computer war zu dieser Zeit noch nicht erfunden.3

Bushs Artikel inspiriert Engelbart, welcher später das oN-Line System baute, das zur Erweiterung der menschlichen Intelligenz bestimmt war. Er präsentierte es 1968 live auf einer Konferenz. Man sah wie er es mithilfe der 5-Fingertastatur und der ersten Computermaus bediente und zwischen Dokumenten und Grafiken wechselte.4 Während Computer zu dieser Zeit noch unerschwinglich waren,5 ändert sich das in den 80er Jahren mit dem Einzug der Heimcomputer. Ritchies Unternehmen OWL entwickelte in dieser Zeit das erste erfolgreiche Hypertextsystem, später folgt Apples HyperCard6 und schließlich die Erfindung des World Wide Webs durch Tim Berners-Lee.

Auf Bushs »As We May Think« bin ich schon häufiger innerhalb meiner Recherche gestoßen und Doug Engelbart hat beispielsweise Tim Berners-Lee in seinem Gespräch bei Sternstunde Philosophie erwähnt. Daher möchte ich mich im Weiteren zumindest grob mit beiden auseinandersetzen, um deren Ansätze besser zu verstehen.

Quellen
  1. Vgl. Ritchie, Ian: »The day I turned down Tim Berners-Lee«, URL: https://www.ted.com/talks/ian_ritchie_the_day_i_turned_down_tim_berners_lee/, TC: 00:03:34–00:04:14, abgerufen am 20.7.2017.
  2. Vgl. Ebd., TC: 00:00:17–00:00:50.
  3. Vgl. Ebd., TC: 00:00:50–00:01:17.
  4. Vgl. Ebd., TC: 00:01:51–00:02:24.
  5. Vgl. Ebd., TC: 00:02:24–00:02:37.
  6. Vgl. Ebd., TC: 00:02:37–00:03:14.
Abbildungen
  1. Titelbild: Dunkoman: »The Memex«, abgerufen am 21.7.2017, Lizenz: CC BY 2.0.

Neue Zusammenhänge durch verbundene Daten

Ein Jahr nach Tim Berners-Lees TED-Vortrag »The next web« meldet er sich mit »The year open data went worldwide« auf der TED-Bühne zurück. Mitgebracht hat er Ergebnisse, die erneut unterstreichen, wie wichtig es ist, Rohdaten ins Web einzuschleusen.
Neben diversen Beispielen wie eingespeiste Daten der britischen Regierung oder ein Rechtsstreit auf Grundlage von Daten, halte ich einen Erfolg für besonders erwähnenswert.

Ein Jahr nach Tim Berners-Lees TED-Vortrag »The next web« meldet er sich mit »The year open data went worldwide« auf der TED-Bühne zurück. Mitgebracht hat er Ergebnisse, die erneut unterstreichen, wie wichtig es ist, Rohdaten ins Web einzuschleusen.

Neben diversen Beispielen wie eingespeiste Daten der britischen Regierung1 oder ein Rechtsstreit auf Grundlage von Daten,2 halte ich einen Erfolg für besonders erwähnenswert.

Schon im letztjährigen Talk wies Berners-Lee auf die Open Street Map hin, welche durch die Community wächst. Während Europa bereits sehr gut bearbeitet wird, sieht er in manchen Regionen Potenzial für Verbesserungen.3 Er setzt dabei Port-au-Prince auf Haiti in den Fokus, welches Ende 2009 nicht allzu gut bearbeitet war wie beispielsweise Kalifornien. Nach dem Erdbeben veröffentlichte GeoEye Satellitenaufnahmen, die von der Open-Source-Community verwendet werden durften, was dazu führte, dass die Bearbeitung enorm zunahm. Leute aus aller Welt griffen auf die Aufnahmen zurück und bauten sehr schnell eine Karte auf. Das unterstützte die Notstandsarbeit enorm, da z. B. Flüchtlingslager,4 Krankenhäuser oder blockierte Straßen angezeigt wurden. Zudem wurden beschädigte Gebäude und Flüchtlingslager sichtbar.5

Dieses Beispiel zeigt, wie essenziell Daten als Grundlage für die Lösung der Probleme der Menschheit sein können. Berners-Lee erwähnte bereits im Vorjahr die Vorteile in Bezug auf die Bekämpfung von Alzheimer und es gibt unzählige andere Szenarien, in denen Linked Open Data wertvolle Arbeit leisten kann. Das Zusammenführen einzelner Informationen, welche bisher bei sämtlichen Leuten für das Web unsichtbar gelagert werden, kann große Zusammenhänge herstellen. Werden diese bisher unsichtbaren Verbindungen sichtbar gemacht, können viele Missstände oder gemeinsame Probleme sicher schon heute aufgedeckt werden.

Quellen
  1. Vgl. Berners-Lee, Tim: »The year open data went worldwide«, URL: https://www.ted.com/talks/tim_berners_lee_the_year_open_data_went_worldwide, TC: 00:00:51–00:11:18, abgerufen am 16.7.2017.
  2. Vgl. Ebd., TC: 00:01:29–00:02:07.
  3. Vgl. Ebd., TC: 00:03:29–00:04:03.
  4. Vgl. Ebd., TC: 00:04:03–00:04:35.
  5. Vgl. Ebd., TC: 00:04:53–00:05:07.

The next web: Linked Data

Tim Berners-Lee erläutert in seinem TED-Vortrag »The next web« im Februar 2009, was genau unter seinem Konzept »Linked Data« zu verstehen ist und wie wichtig es ist, dass wir alle gemeinsam daran arbeiten, so viel Daten wie möglich im Internet bereitzustellen.

Tim Berners-Lee erläutert in seinem TED-Vortrag »The next web« im Februar 2009, was genau unter seinem Konzept »Linked Data« zu verstehen ist und wie wichtig es ist, dass wir alle gemeinsam daran arbeiten, so viel Daten wie möglich im Internet bereitzustellen.

Zunächst versucht Berners-Lee die Unterscheidung zwischen Dokumenten und Daten klarzumachen, da die bereits vorhandenen Dokumente im Web allgemein sicher auch als Daten verstanden werden.1 Daten müssen aber in einer speziellen, maschinenlesbaren Form aufbereitet werden, damit sie von Computern lesbar sind.

Er sieht ein, dass Daten zunächst langweilig erscheinen, weist aber darauf hin, dass sie enorm interessant werden, wenn man beginnt sie zu kombinieren.2 Er fordert das Publikum auf, sich vorzustellen, wie eine Welt aussehen könnte, in der alles, was man sich vorstellen kann in Form von Daten ins Web gespeist und verknüpft wird. Das ist das, was er linked data bzw. verknüpfte Daten nennt. Für die Erstellung von Daten nennt er drei wichtige Regeln. Nicht nur Dokumente, sondern alle Dinge, um die es in Dokumenten geht werden mit HTTP: beginnen und somit eindeutig benennbar sein.3 Die zweite Regel ist, dass man bei der Abfrage dieses HTTP:-Dokuments zusätzliche Daten erhält, die für die Anfrage relevant sind.4 Dass es allein um die Beziehung zwischen den Daten geht, sieht er als dritte Regel. So kann man die Daten effektiv Weise durchsuchen.5

Die Macht der Daten

Berners-Lee hebt mehrmals hervor, dass die Daten umso mächtiger werden, je mehr davon existieren und miteinander verbunden werden.6 Daher ist es für ihn so wichtig, dass es das Web ermöglicht, dass alle Arten von Daten eingespeist werden können: Ob Regierungsdaten, Unternehmensdaten, wissenschaftliche und persönliche Daten, Wetterdaten oder ganz andere Daten. Für ihn sind alles wichtige Daten.7

Um die Macht der Daten weiter zu unterstreichen, verdeutlicht er, wie wichtig sie für die Lösung der Herausforderungen der Menschheit sind. Wissenschaftler, die sich den Problemen stellen, können ohne Daten nicht ausreichend über das Web kommunizieren. Zudem wird laut Berners-Lee ein großer Teil des menschlichen Wissens in irgendwelchen Datenbanken verborgen, oft sogar auf Computern gelagert und nicht geteilt.8 Als anschauliches Beispiel nennt er die Forschung nach neuen Medikamenten gegen Alzheimer. Die Frage, welche Neuronen bei der Signalübertragung beteiligt und außerdem verwandt mit pyramidenförmigen Neuronen sind, liefert bei Google 223.00 Treffer mit null brauchbaren Ergebnissen, da keiner diese Frage je gestellt hat. In einer Datenbank mit verknüpften Daten lassen sich 32 Treffer, die alle auf die Ausgangsfrage zutreffen, finden. Auch die Querverbindung zwischen verschiedenen Wissenschaften sieht er als enorme Wende.9 Als weiteres Beispiel nennt er OpenStreetMap, das es jedem erlaubt, die Erde zu vermessen, einzutragen und Orte einzuspeisen. So kann jeder seinen Teil zu einem großen Ganzen beitragen.10

Der Begründer des Webs macht klar, dass Linked Data nicht nur große Institutionen angeht, sondern jeden einzelnen betreffen. Zudem fordert er beispielsweise Interoperabilität zwischen sozialen Netzwerken, um die Mauern zwischen ihnen abzubauen. Das müsse mit verknüpften Daten geschehen.11 Spätestens hier sehe ich viele zweifelnde Gesichter, mich selbst zum Teil mit eingeschlossen. Trotz der überzeugenden Beispiele und dem großen Wert, den ich in Linked Data erkennen kann, sehe ich vor allem die fehlende Privatsphäre durch Öffnung des Systems.

Alles in allem sehe ich jedoch überwiegend die Vorteile darin, einen großen allumfassenden Informationsraum zu schaffen, der nicht durch Silos voneinander abgegrenzt wird. Diesen Raum mithilfe von Daten zum semantischen Web aufzuwerten (Struktureller Aufbau des Webs und die Koexistenz von Mensch und Maschine ») halte ich zudem für einen enormen Fortschritt in der menschlichen Entwicklung, der die Masse an Informationen und Wissen in eine nutzbare Form bringen kann.

Quellen
  1. Vgl. Berners-Lee, Tim: »The next web«, URL: https://www.ted.com/talks/tim_berners_lee_on_the_next_web/, TC: 00:03:53–00:04:15, abgerufen am 17.8.2017.
  2. Vgl. Ebd., TC: 00:04:50–00:05:44.
  3. Vgl. Ebd., TC: 00:05:44–00:06:26.
  4. Vgl. Ebd., TC: 00:06:26–00:06:51.
  5. Vgl. Ebd., TC: 00:06:51–00:07:31.
  6. Vgl. Ebd., TC: 00:07:31–00:08:10.
  7. Vgl. Ebd., TC: 00:09:04–00:09:41.
  8. Vgl. Ebd., TC: 00:11:20–00:11:57.
  9. Vgl. Ebd., TC: 00:11:57–00:13:10.
  10. Vgl. Ebd., TC: 00:14:04–00:15:10.
  11. Vgl. Ebd., TC: 00:13:10–00:14:04.

Tim Berners-Lee über das World Wide Web

Im Gespräch mit Barbara Bleisch spricht Tim Berners-Lee in Sternstunde Philosophie über seine Erfindung, das World Wide Web. Dabei kommen Themen wie beispielsweise Linked Open Data, die World Wide Web Foundation, die Zusammenarbeit von Mensch und Maschine oder künstliche Intelligenz zur Sprache.

Im Gespräch mit Barbara Bleisch spricht Tim Berners-Lee in Sternstunde Philosophie über seine Erfindung, das World Wide Web. Dabei kommen Themen wie beispielsweise Linked Open Data, die World Wide Web Foundation, die Zusammenarbeit von Mensch und Maschine oder künstliche Intelligenz zur Sprache.

Eine gewaltige kulturelle Veränderung sieht der Begründer darin, dass Gruppen und Kulturen im World Wide Web von der Leidenschaft der Menschen bestimmt werden.1 Um diese durchbrochenen Barrieren vollständig zu nutzen, müssen wir laut ihm lernen, die neu gewonnene Freiheit zu nutzen. Er bewirbt dabei sein Konzept von Linked Open Data, indem er auf die Zusammenarbeit von Wissenschaftlern hinweist, die sich großen Herausforderungen wie die Bekämpfung von Krebs oder Alzheimer annehmen. Er sieht das Web als vernetzte Menschheit und wenn man in das Netz schaut, sieht man die Menschheit von ihrer guten sowie von ihrer schlechten Seite.2 Zudem ist er überzeugt davon, dass die Leute heutzutage »nicht mehr nur zum Spaß surfen, sondern es benutzen. Sie wissen, dass es riesig ist und kennen die Orte, die sie im Web mögen«3.

Die Erschließung des Planeten

Die Gründung der World Wide Web Foundation im Jahr 2008 basiert auf dem Wunsch, dass das Internet der Menschheit besser dienen soll. Ein wichtiges Ziel war die Verbreitung voranzubringen, da bei Aufnahme ihrer Arbeit erst 10, 15 % der Menschen Zugang zum Web hatten. Zur Zeit des Gesprächs (2015) waren immerhin schon 40 % versorgt,4 was ich noch immer als überraschend wenig empfinde. Er vermutet, dass in den kommenden 1–2 Jahre die 50 %-Marke überstiegen wird5 und durch eine kurze Recherche glaube ich, dass die Marke zurzeit geknackt werden dürfte.

Die Tatsache, dass nur etwa die Hälfte der Menschheit das World Wide Web nutzen kann, wirft bei mir unterschiedliche Gedanken auf. Zum einen wird es in seiner inhaltlichen Masse noch einmal enorm wachsen. Zudem bin ich gespannt, welche kulturelle Veränderungen vollzogen werden, wenn neben der entwickelten Welt andere Stimmen hörbar werden. Des Weiteren wird die Vernetzung mit der restlichen Welt sicherlich sehr viele neue Möglichkeiten eröffnen und einen enormen Fortschritt bedeuten.

Von der Künstlichen Intelligenz überholt

Tim Berners-Lee war schon immer darauf aus, Maschinen in sein System einzubinden. Er ist sich sicher, dass es sehr aufregend wird, wenn es ein gutes Datennetz gibt, welches Unmengen an Maschinen dazu bringen kann miteinander zu sprechen. Sie können dazulernen und verstehen wie die Welt funktioniert. Er ist überzeugt davon, dass wir ein Netz errichten müssen, in dem sich Mensch und Maschine die Aufgaben je nach Kompetenz teilen. Maschinen werden den schweren und die Menschen z. B. den kreativen Part übernehmen.6

Weiter sollten wir darauf gefasst sein, dass die künstliche Intelligenz so schlau wird wie wir Menschen. Früher konnte man sich nicht vorstellen, dass Computer Autos fahren oder Schach spielen. Beides ist nun der Fall und ähnlich ungläubig sind wir heutzutage, was die zukünftige Entwicklung der KI betrifft. Daher fordert er dazu auf, sich schon jetzt Gedanken zu machen, für den Zeitpunkt, wenn dieser Fall eintritt.7 Luciano Floridi sieht in dieser Turing-Revolution die 4. Revolution nach Kopernikus, Darwin und Freud. Er siedelt diese jedoch schon bei Turing an, da der Computer den Menschen schon längst z. B. in der logischen Informationsverarbeitung übersteigt.

Vorangegangene Entwicklungen

Als spannende vorherige Erfindungen nennt der Erfinder des Webs die Bulletin Boards, in die man sich mithilfe des Telefonhörers und einem Modem einwählen konnte. Außerdem erwähnt er Doug Engelbert und Vannevar Bush. Engelbert hatte das Internet nie namentlich erwähnt, sei aber durch die Idee Hypertext zu verwenden, Nachrichten zu versenden und Dinge zu verlinken, konzeptionell sehr nah dran. Bushs Idee der Memex erläutert Berners-Lee sehr praktisch. Memex wäre ein Tisch gewesen, an dem man Mikrofilme hätte lesen können. Am Ende wäre eine Verlinkung zum nächsten und durch einen Knopfdruck wäre ein ganzes mechanisches System in Bewegung gekommen und die Memex hätte einen vom einen zum nächsten Mikrofilm gebracht. Zudem hatte er die Idee Wissenschaftlern Zugang zum Human Record zu erleichtern. Das sind die Aufzeichnungen alldessen, was wir entdeckt haben. Zwar war seine Vision ohne tatsächliche Verwendung von elektronischen Computern, Berners-Lee ist sich aber sicher, dass er sich für die Forschung interessiert hätte.8

Utopische Räume

Einen sehr interessanten Ansatz lässt sich gegen Ende des Gesprächs finden. Auf die Frage, ob er seine Erfindung im Zusammenhang mit Problemen wie Datenschutz, Klimawandel, etc. sieht, hat er einen aus meiner Sicht sehr speziellen und guten Ansatz.
Er ist nicht der Meinung, dass das etwas mit utopischen Räumen zu tun hat. Solche Themen werden in einem wissenschaftlichen Umfeld diskutiert und in diesem Zusammenhang ist es wichtig, unsinnige Ideen von den guten zu trennen, um keine Zeit zu verlieren. Umso wichtiger ist es, dass Stimmen nach oben durchdringen, wenn tatsächlich ein Problem entdeckt wird. Er ist der Meinung, dass wir Systeme entwickeln, die nach Regeln funktionieren und keine utopischen Räume sind. Er ist sich sicher, dass man mit Hilfe von Auswahlsystemen diejenigen Menschen finden kann, welchen wir die richtigen Entscheidungen zutrauen und deren Stimmen wir vertrauen.9

Diese Überlegung finde ich insofern spannend, dass ich überzeugt davon bin, dass sich kompetentere Menschen finden lassen als diejenigen, die tatsächlich die Gesetze verabschieden. Nicht weil diese generell inkompetent sind, sondern weil sie sicher andere Schwerpunkte haben. John Perry Barlow bringt es so auf den Punkt, dass Menschen innerhalb der Regierung unter anderen Umständen geformt worden sind als die Leute, die die meiste Zeit virtuell verbringen. Wie soll jemand, der sich sonst für völlig andere Dinge einsetzt plötzlich entscheiden, ob irgendwelche Algorithmen so verwendet werden können, wie sie sind? Wie soll man ihnen Entscheidungen über das Land überlassen, wenn man vor der Entscheidung erst einmal die Technologie erklären muss? Hier wäre ein Zusammenschluss von wirklichen Experten, die sich tagtäglich unabhängig davon im World Wide Web bewegen, sehr sinnvoll.

Das und viele weitere Fragen tauchen regelmäßig auf, wenn ich mich mit der Arbeit und den Visionen von Tim Berners-Lee auseinandersetze. Erneut war dieses Gespräch sehr inspirierend, da es zum einen neue Gedankengänge öffnet und bei anderen Gedanken für Klarheit sorgt.

Quellen
  1. Vgl. Berners-Lee, Tim, Das Weltrettungsforum, dem nichts heilig ist.: »Tim Berners Lee – Der Erfinder des Internets (Sternstunde Philosophie)«, Stand: 30.8.2015, URL: https://www.youtube.com/watch?v=1uErJzcr3fU, TC: 00:15:41–00:16:21, abgerufen am 8.7.2017.
  2. Vgl. Ebd., TC: 00:16:56–00:18:22.
  3. Ebd., TC: 00:40:57–00:41:08.
  4. Vgl. Ebd., TC: 00:20:47–00:21:38.
  5. Vgl. Ebd.
  6. Vgl. Ebd., TC: 00:31:22–00:32:55.
  7. Vgl. Ebd., TC: 00:52:06–00:53:18.
  8. Vgl. Ebd., TC: 00:43:37–00:45:28.
  9. Vgl. Ebd., TC: 00:48:30–00:49:35.

How much wood would a woodchuck chuck?

Als Unterstützung für meine weitere Recherche, möchte ich mich nun auf die technische Entwicklung des Webs konzentrieren. Als Grundlage dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee. In »Vision eines Visionärs« gehe ich näher auf Tim Berners-Lees Vorstellung des Webs ein, weshalb ich sie hier außen vor lassen möchte. An dieser Stelle möchte ich mich nur auf die technischen Fakten konzentrieren, welche ich im Buch finde und sie lediglich auflisten.

Als Unterstützung für meine weitere Recherche, möchte ich mich nun auf die technische Entwicklung des Webs konzentrieren. Als Grundlage dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee. In »Vision eines Visionärs« gehe ich näher auf Tim Berners-Lees Vorstellung des Webs ein, weshalb ich sie hier außen vor lassen möchte. An dieser Stelle möchte ich mich nur auf die technischen Fakten konzentrieren, welche ich im Buch finde und sie lediglich auflisten.
Eine weitere Recherchequelle ist »A Little History of the World Wide Web« vom W3C, welche zum Teil zusätzliche Punkte enthält.

1980

ENQUIRE

Software-Projekt von Tim Berners-Lee aus dem Jahr 1980, welches schon erste Ansätze des World Wide Webs beinhaltet. ENQUIRE steht für »Enquire Within upon Everything«.1 Einzelne Informationen waren als »node« – als Knoten – abgelegt; neue konnte man durch eine Verlinkung des alten Knotens erstellen. Eine Information konnte man nur dann finden, wenn man die Suche von der Startseite aus beginnt. Links waren jeweils am Ende eines Knotens. Das System enthielt bereits interne und externe Links – externe jedoch nur in eine Richtung.2 Die Programmiersprache war Pascal, welche auf dem Betriebssystem »SINTRAN-III« von Norsk Data lief.3

1984

Tangle

Nachdem Tim Berners-Lee im September 1984 ans CERN zurückkehrt, schreibt er in seiner Freizeit ein weiteres Programm namens »Tangle«, um seine Idee in Bezug auf »Verbindungen« weiterzuführen, welche in seiner Vorstellung immer besonders hohen Stellenwert hatten. In einer extremen Sicht könnte man seiner Ansicht nach die ganze Welt nur aus Verbindungen bestehend sehen. Der Computer speichert dabei Informationen nur als Sequenz von Buchstaben, so dass die Verbindung der Buchstaben das wichtige ist. Wenn sich eine bestimmte Buchstaben-Sequenz wiederholt,4 erschafft Tangle einen neuen Knoten, die für diese Sequenz steht. Sollte diese Sequenz erneut auftauchen, verlinkt Tangle nur auf den ursprünglichen Knoten, anstatt sie erneut abzuspeichern. Tim Berners-Lee hatte die Idee auf diese Art und Weise eine Enzyklopädie zu erstellen, welche Fragen auf einzelne Knoten herunterbricht und eine Antwort liefert. Während Tangle die Frage »How much wood would a woodchuck chuck« noch verarbeiten konnte, lieferte eine weitere komplexere Frage eine Endlosschleife aus »How much wood would a woodchuck chuck if a woodchuck chuck wood chuck chuck chuck wood wood chuck chuck chuck …«. Da das Debuggen unendlich kompliziert gewesen wäre, fasste Berners-Lee das Programm nie wieder an.5

ENQUIRE

Neue Version von ENQUIRE mit ausschließlich internen Links. Jedes Netz war damit limitiert. Diese Einschränkung war für ihn eine sehr wichtige Erkenntnis.6

RPC

Um die Kommunikation zwischen Computern und Netzwerken zu vereinfachen, schrieb Berners-Lee ein RPC-Programm (remote procedure call).7

Bis 1988

Hypertext-Ansatz

Ansatz, dass sein System so wenig Regeln wie möglich besitzen sollte, damit jegliche Informationen ins System fließen können, ohne dass die Entwickler ihre Arbeit grundsätzlich überarbeiten müssen. Letztendlich wählt Berners-Lee Hypertext dafür.8

1988

Proposal

Mike Sendall, Tim Berners-Lees Boss, bat ihn um eine Ausarbeitung der Idee.9

TCP/IP

Das Hauptproblem war letztendlich, eine Basis zu schaffen, auf der verschiedene Computer mit verschiedenen Betriebssystemen miteinander kommunizieren können.10

Viele Physiker nutzten das VAX/VMS-Betriebssystem und DECnet Kommunikations-Protokolle, Unix nutzte dagegen Internetprotokolle. Berners-Lee favorisiert die Protokolle TCP/IP. Die Unix-Welt nutzt sie bereits und VAX-Welt könnte sie übernehmen.11
Adaption des RPC-Adress-Schemas, um Dateien zu adressieren und abzurufen.

1989

12.3.1989: »Information Management: A Proposal«

Dokument, dass das World Wide Web als globales, non-lineares Hypertext-System innerhalb von CERN vorstellt.12 Die Vorstellung des Informationssystems zielt unter anderem darauf ab, den Verlust von Informationen innerhalb der Organisation zu verhindern. Er präsentiert das Systems als große Hypertext-Datenbank mit Links, welche automatisch analysiert werden könnten.13

Grafik aus »Information Management: A Proposal«I
Grafik aus »Information Management: A Proposal«I

1990

Keine Reaktion

Keine Reaktion auf seine Ausarbeitung bis er sie im Mai 1990 nochmal David Williams (Boss von Mike Sendall) gab und sie erneut auf Eis gelegt wurde.14

Ideen zur Namensgebung

Mesh oder Information Mesh, MOI für »Mine of Information« oder TIM für »The Information Mine«. Letztere könnten zu egozentrisch wirken und Tim Berners-Lee entschied sich für »World Wide Web«.15

HT

Auf der Suche nach einem charakteristischen Akronym entschied er sich für »HT«. Jedes Programm, das ins System involviert war, sollte mit diesen Buchstaben starten.16

European Conference on Hypertext Technology

Besucht zusammen mit Robert Cailliau, einem alten CERN-Veteran, die Konferenz, um die Idee vorzustellen. Ian Ritchie und Leute von Owl Ltd. stellten ein Produkt namens »Guide« vor. Das Original von Peter Brown, das an der Universität von Southampton entstanden ist, sah im Grunde wie Tim Berner-Lees Vision aus.17 Es brachte alle Eigenschaften mit sich, nur das Internet fehlte. Er versuchte die Zuständigen zu überreden, es an das Internet zu schließen, aber sie waren von der Idee nicht überzeugt. Auch die anderen Teilnehmer konnten nicht vom World Wide Web überzeugt werden.18

Code des World Wide Webs

Tim Berners-Lee beginnt im Oktober damit, den Code für das World Wide Web auf dem NeXT zu schreiben:
· Web Client
· Hypertext Transfer Protocol (HTTP)
· Universal Resource Identifier (URI)
· Hypertext Markup Language (HTML)
· Web Server (nxoc01.cern.ch – Next, Online Controls, 1) – Alias: info.cern.ch
· Erste Hypertext Webseite mit Spezifikationen zu HTTP, URI, HTML und alle projektbezogenen Informationen

Der Client war Mitte November fertig und hieß »WorldWideWeb«, welcher ab Dezember mit HTML funktionierte. Bis dahin jedoch nur auf dem NeXT.18 HTML wurde dabei an SGML (Standard Generalized Markup Language) angelehnt – eine Sprache, die bereits bei einigen Dokumentations-Communities bevorzugt wurde.19
Bestehende Internetprotokolle wie z. B. NNTP oder FTP waren Berners-Lee zu langsam, weshalb er HTTP entwickelte.20
Um andere Systeme mit einzuschließen wurde der kleinste gemeinsame Nenner gesucht: Alle hatten die Tastatur als Eingabegerät und konnten ASCII produzieren. Der auf das wesentliche heruntergebrochene Browser hieß »line-mode Browser« und wurde an das Terminal angelehnt, welches jeweils eine Zeile zeigt.21
Via FTP stellte Tim Berners-Lee eine Verbindung zu Nachrichtenartikel und Newsgruppen im Internet her. So waren Inhalte aus dem Internet umgehend verfügbar.22

Merry Christmas

Tim Berners-Lee und Robert Cailliau hatten jeweils den Browser/Editor WorldWideWeb auf ihrem NeXT installiert, welche am Weihnachtstag 1990 über das Internet via info.cern.ch kommunizieren konnten.23

1991

Telefonbuch von CERN

Das Web ist noch nicht weit genug, um es als ultimatives Dokumentations-System zu verbreiten. Erstes kleines Ziel: Telefonbuch von CERN.24

Dokumentation auf info.cern.ch

Fortführung der Dokumentation auf info.cern.ch. Jede technische Entscheidung basiert auf der Idee, dass es ein Informationsraum sein sollte, der alle umfasst und einschließt.25 Sprich auch von jedem Computer und Betriebssystem zugänglich sein sollte.

Veröffentlichung WorldWideWeb

Im März 1991 wurde das Program WorldWideWeb innerhalb von CERN veröffentlicht. Jedoch nur limitiert an die Nutzer von NeXT Computern.26

Hypertext at CERN

Ausarbeitung »Hypertext at CERN«.27

Veröffentlichung

Im August veröffentlich Tim Berners-Lee drei Dinge: das WorldWideWeb für NeXT, einen line-mode Browser sowie den grundlegenden Server.28

comp.infosystems.www

Start von comp.infosystems.www als Newsgruppe zum Informationsaustausch.29

Telnet-Protokoll

Öffentlicher Telnet-Server auf info.cern.ch. Telnet ist ein Protokoll, wodurch ein Nutzer eine interaktive Kommandozeilen-Session öffnen konnte. Dadurch gelangten Menschen ins Web, welche keinen Browser installieren konnten.30

WorldWideWeb-Browser in C

Der Browser WorldWideWeb wurde erneut in der Sprache C geschrieben, um den Transport zu vereinfachen.31

Libwww

Libwww als Bibliothek – Veröffentlichung des webspezifischen Codes.32

Zwei Gateways

Installation von zwei Gateways zum Support-System VAX/VMS und WAIS.33

Mailing-Liste für technische Diskussionen

Start der Online-Mailing-Liste www-talk@info.cern.ch für technische Diksussionen.34

Hypertext 91’

Hypertext 91’ im Dezember. Das Projekt wird vorgestellt, findet jedoch kaum Zuspruch.35

1992

Erwise

Im April wird der Browser »Erwise« der Helsinki University of Technology für Unix mit dem Betriebssystem X-Windows veröffentlicht.36

ViolaWWW

Im Mai wird der Browser »ViolaWWW« von Pei Wei für Unix veröffentlicht.37

Samba

Entwicklung eines Webbrowser Samba für Macintosh von Tim Berner-Lees Kollegen.38

URL

Aus URI (universal resource document) wurde URL (uniform resource locator).39

MidasWWW

Tony Johnson entwickelt den Browser »MidasWWW« für X.40

1993

Es gab etwa 50 bekannte Server und die Browser Erwise, ViolaWWW und MidasWWW waren für X-Windows verfügbar, Samba für Mac.41

Diverse Browser

Dave Raggett entwickelt den Browser »Arena«.42

Die University of Kansas schreibt einen text-basierten Hypertext-Browser namens »Lynx«, der es als screen mode Browser erlaubt, durch das Dokument zu scrollen. Lynx 2.0 wurde als Web-Browser im März veröffentlicht43 und ist der älteste Browser, der noch immer in Betrieb ist.44

Marc Andreessen veröffentlicht im Februar den Browser »Mosaic« für X.45

Tom Bruce schreibt den Browser »Cello« für Microsofts Windows, welcher im März veröffentlicht wird. Erstmals konnten Windows-Nutzer das Web in verschiedenen Farben und Schriften sehen.46

Das freie World Wide Web

Am 30.4.1993 gab CERN das Web-Protokoll und den Code zur Nutzung frei.47 Dieser Tag wird heute als Geburtstag des freien World Wide Webs angesehen.

Veröffentlichung von Mosaic für UNIX, Windows und Mac im September.48

1994

Internet in a Box

Tim O’Reilly kündigt das Produkt »Internet in a Box« an, welches das World Wide Web in Privathaushalte bringen soll. Das Produkt wird jedoch überflüssig, da nun viele Internet-Service-Provider ihre Arbeit aufnahmen.49

Navipress

Navisoft Inc. veröffentlicht einen Browser namens »Navipress« für den PC und Mac.50

Netscape Navigator 1.0

Gründung des Unternehmens Mosaic Communications Corp. –, später Netscape –51, welches im Oktober desselben Jahres den Browser »Mozilla« auf den Markt bringt.52 Die kommerzielle Version wird im Dezember über das Internet herausgegeben und zu »Netscape Navigator« umbenannt. Der Browser ist mit Windows, X Window und Macintosh kompatibel.53

Woodstock of the Web

Erste internationale WWW-Konferenz – auch »Woodstock of the Web« genannt – im Mai.54 Hier entstand das Konzept von VRML (Virtual Reality Modellen Language).

W3C

Gründung des W3C.55

1995

Hardware mit Browser

Im April kündigt Compaq an, seine PCs mit dem Navigator auszustatten. Damit wird erstmals ein Browser direkt mit der Hardware ausgeliefert.56

Java

Im Mai wird die Programmiersprache Java eingeführt. Die Sprache vereinfacht es in vielerlei Hinsicht Inhalte veröffentlichen. So wird von nun an beispielsweise weniger Arbeitsspeicher beim Endnutzer benötigt, um Inhalte anzusehen. Sie können nämlich direkt im Webbrowser angezeigt werden.57

AOLpress

AOL kauft das Unternehmen Navisoft, welches Navipress entwickelt hatte. Das Produkt heißt von nun an AOLpress.58

Internet Explorer

Der Internet Explorer wird im August zusammen mit Windows 95 veröffentlicht.59

1996

Browser kommen und gehen

Netscapes Navigator 2.0 kommt auf den Markt.60

AOLpress stirbt, während AOL nun den Internet Explorer nutzt.61

PICS

PICS (Platform for Internet Content Selection) wird im März als mögliches Filter-Werkzeug für Webinhalte veröffentlicht.62

Amaya

Das W3C entwickelt ab 1996 den experimentellen Browser »Amaya«.63

1997

RDF

Ab 1997 erste Konzeption von RDF (Resource Description Framework) mit dem letztendlichen Ziel maschinenlesbare Daten für das semantische Web zu erhalten.64

1998

Open Source Policy

Netscape veröffentlicht im Januar den kompletten Quellcode seines Browsers.65

XML

XML (Extensible Markup Language) wird im Februar vom W3C veröffentlicht, um SGML abzulösen. XML ist die Basis von Sprachen wie HTML.66

DOM

DOM (Document Object Model) wird als Standard des W3C eingeführt.67

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 1.
  2. Vgl. Ebd., S. 10.
  3. Vgl. Ebd., S. 11.
  4. Vgl. Ebd., S. 12.
  5. Vgl. Ebd., S. 13.
  6. Vgl. Ebd., S. 15.
  7. Vgl. Ebd., S. 14.
  8. Vgl. Ebd., S. 15.
  9. Vgl. Ebd., S. 17.
  10. Vgl. Ebd., S. 17.
  11. Vgl. Ebd., S. 19.
  12. Vgl. Ebd., S. 21.
  13. Vgl. Ebd.
  14. Vgl. Ebd., S. 22.
  15. Vgl. Ebd., S. 23.
  16. Vgl. Ebd.
  17. Vgl. Ebd., S. 26.
  18. Vgl. Ebd., S. 27.
  19. Vgl. Ebd., S. 29.
  20. Vgl. Ebd., S. 41.
  21. Vgl. Ebd., S. 39.
  22. Vgl. Ebd., S. 30.
  23. Vgl. Ebd.
  24. Vgl. Ebd.
  25. Vgl. Ebd., S. 32.
  26. Vgl. Ebd., S. 33.
  27. Vgl. Ebd., S. 45.
  28. Vgl. Ebd., S. 46.
  29. Vgl. Ebd.
  30. Vgl. Ebd., S. 47.
  31. Vgl. Ebd.
  32. Vgl. Ebd., S. 48.
  33. Vgl. Ebd., S. 50.
  34. Vgl. Ebd.
  35. Vgl. Ebd.
  36. Vgl. Ebd.
  37. Vgl. Ebd., S. 56.
  38. Vgl. Ebd.
  39. Vgl. Ebd., S. 58.
  40. Vgl. Ebd., S. 62.
  41. Vgl. Ebd., S. 64.
  42. Vgl. Ebd., S. 67.
  43. Vgl. Ebd.
  44. Vgl. Ebd., S. 68.
  45. Vgl. »Lynx (web browser)« in: »Wikipedia, the free encyclopedia«, Stand: 26.2.2017, URL: https://en.wikipedia.org/wiki/Lynx_(web_browser), abgerufen am 20.3.2017.
  46. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 69.
  47. Vgl. Ebd.
  48. Vgl. Ebd., S. 74.
  49. Vgl. Ebd., S. 76 f.
  50. Vgl. Ebd., S. 80.
  51. Vgl. Ebd., S. 81.
  52. Vgl. Ebd., S. 82.
  53. Vgl. Ebd., S. 96.
  54. Vgl. Ebd., S. 97.
  55. Vgl. Ebd., S. 85.
  56. Vgl. Ebd., S. 93.
  57. Vgl. Ebd., S. 103.
  58. Vgl. Ebd., S. 104.
  59. Vgl. Ebd., S. 105.
  60. Vgl. Ebd., S. 108.
  61. Vgl. Ebd., S. 112.
  62. Vgl. Ebd.
  63. Vgl. Ebd., S. 113.
  64. Vgl. Ebd., S. 119.
  65. Vgl. Ebd., S. 181.
  66. Vgl. Ebd., S. 118 f.
  67. Vgl. Ebd., S. 119.
  68. Vgl. Ebd., S. 168.
Abbildungen
  1. CERN, O‘Luanaigh, Cian: »World Wide Web born at CERN 25 years ago«, Stand: 8.4.2014, URL: https://home.cern/about/updates/2014/03/world-wide-web-born-cern-25-years-ago, abgerufen am 20.3.2017.

Struktureller Aufbau des Webs und die Koexistenz von Mensch und Maschine

Nach meiner ersten Auseinandersetzung mit Tim Berners-Lees Buch, möchte ich im folgenden weiteren Gedanken nachgehen. Dabei geht es unter anderem um den Aufbau des Webs, welchen ich vor allem strukturell näher betrachten möchte. Zudem finde ich den Ansatz eines universellen Informationsraums, in dem Mensch und Maschine harmonisch koexistieren sehr faszinierend.

Nach meiner ersten Auseinandersetzung mit Tim Berners-Lees Buch (Die Vision eines Visionärs »), möchte ich im folgenden weiteren Gedanken nachgehen. Dabei geht es unter anderem um den Aufbau des Webs, welchen ich vor allem strukturell näher betrachten möchte. Zudem finde ich den Ansatz eines universellen Informationsraums, in dem Mensch und Maschine harmonisch koexistieren sehr faszinierend.

Hypertext als non-lineare Grundlage

Während das Internet grundsätzlich nur das infrastrukturelle Fundament für das World Wide Web bildet, basiert die Kernidee des World Wide Webs auf Hypertext. Laut Berners-Lee war seine Aufgabe lediglich beides zu »verheiraten«.1 Nachdem es zuvor schon ähnliche Konzepte gab, wurde der Begriff Hypertext im Jahr 1965 von Ted Nelson geprägt. Zum einen schrieb Ted Nelson von »Literarischen Maschinen«: Von Computern, die dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren.2 Zum anderen ist an dieser Stelle wichtig zu wissen, dass es sich bei Hypertext um einen dynamischen Text handelt, dessen einzelne Bestandteile durch Querverweise vernetzt sind. Dieser enzyklopädische Ansatz ist fundamental für die Entwicklung des World Wide Webs und sein non-lineares Format.

Auf Grundlage dieser Struktur, entwickelt Tim Berners-Lee den Vorläufer des World Wide Webs »Enquire«, das auf Knoten (Nodes) basiert, die – der Reihe nach – miteinander verlinkt sind. Er vergleicht das Software-Projekt mit dem menschlichen Gehirn, welches gleichermaßen netzartig funktioniert und zufällige Assoziationen zulässt.3 Dabei sind die Verbindungsmöglichkeiten unbegrenzt und zuvor nicht berücksichtigte Verbindungen können sichtbar werden.4 Diese Unbeschränktheit ist eine Voraussetzung dafür, dass das Web als universelle Resource dienen kann.5

Hyperspace

Laut Tim Berners-Lee ist das Web kein physisches »Ding«, sondern ein Raum in dem Informationen existieren können.6 An späterer Stelle nennt er diese Hypertext-Umgebung »Hyperspace«.7 Es war essenziell, dass Berners-Lee etwas schafft, das keine komplette Umstrukturierung der vorherigen Arbeit sowie Umformatierung sämtlicher Daten verlangt. Ihm war wichtig ein System zu kreieren, welches für jeden akzeptabel ist und mit so wenig wie möglich Regeln bzw. Beschränkungen auskommt.8 Denn nur dann, wenn Menschen selbst in der Lage sind Informationen einzuspeisen und Informationen zu verbinden,9 kann dieser universelle Informationsraum entstehen. Und nur was in diesem Informationsraum besteht, ist von informationellem Wert. Das »World Wide Web Consortium« selbst handelt dabei nach der Maxime, dass alles, was nicht in diesem Hyperspace – im Web – vorhanden ist, nicht exitierst.10

Das erinnert mich zum einen an Luciano Floridis Blick auf die Infosphäre (Zwischen Realität und Fiktion »), welche jedoch auch Menschen als informationelle Wesen mit in diese Sphäre aufnimmt. Zum anderen an Felix Stalders Betrachtung des raumzeitlichen Horizonts (Neuer Raum – neue Zeit: Neu denken »). Stalder beschreibt dabei, dass alles, was nicht »hier« ist, unerreichbar und alles, was nicht »jetzt« ist, verschwunden ist.
Zudem sehe ich in Bezug auf die netzartige Struktur einen Zusammenhang zu Marshall McLuhan, welcher von der Auflösung von Raum und Zeit spricht, sowie die Veränderung unserer westlich geprägten, sequentiellen Denkweise voraussagt (Das globale Dorf – Raum, Zeit und Dynamik »). Hier sehe ich vor allem das World Wide Web als einschneidendes Medium, welches als non-lineares Format unsere Gewohnheiten grundsätzlich verändert. Hier fände ich spannend, inwiefern nachfolgende Generationen non-linear geprägt werden. Meine Generation (Jahrgang 1986) ist noch sehr sequentiell aufgewachsen und in das Medium Web reingewachsen. Zudem halte ich unsere aktuelle Lebenswelt noch immer für sehr linear ausgelegt.

Human-Computer-Interaction und die Verschmelzung zu einem großen Informatiosnraum

Um das World Wide Web nicht nur als Medium zu sehen, in das man »einsteigen« kann, ist die Zugänglichkeit enorm wichtig. Für Berners-Lee war der Zugang noch sehr umständlich und so hatte er schon damals Ideen, welche für uns heute eine Selbstverständlichkeit sind. Mehrere Minuten warten bis der Computer hochgefahren ist, um sich dann über die Telefonleitung ins Netz einzuwählen, nahm einfach viel zu viel Zeit in Anspruch. Er träumte davon, dass Computerbildschirme immer erreichbar sind, wenn man sie benötigt und hatte die Idee von sofortiger und ständiger Verfügbarkeit.11 Er hat bereits damals die Vorstellung, dass der Computer ein ständiger Begleiter und gutes Werkzeug darstellt, um aufkommende Ideen sofort festzuhalten und sie nicht zu verlieren.12 Zwar gibt es noch immer Leute, die weder Smartphone noch Daten-Flat besitzen, doch im Großen und Ganzen ist genau dieser Fall eingetreten. Das Smartphone ist als kleiner Pocket-Computer ständiger Begleiter vieler, die an den meisten Orten auch durchgehend online sind. Das ist auch die Onlife-Erfahrung von der Floridi spricht (Von Loops und der Hyper-Realität »): Die Unterscheidung von on- und offline wird es zukünftig kaum noch geben.

Eine weitere Selbstverständlichkeit ist, dass Technologie heute zunehmend transparenter wird. Das sieht Berners-Lee als Voraussetzung für den intuitiven Umgang mit ihr. Er denkt diese Transparenz jedoch noch weiter: Computer und Netzwerke sollten seiner Ansicht nach völlig aus dem Weg gehen, da es letztendlich unwichtig ist, wo Information gespeichert wird. Die Daten und die Werkzeuge, um auf sie zuzugreifen sollten unabhängig voneinander sein – er nennt das das Konzept der Ortsunabhängigkeit. Ob Hypertext oder lokaler Ordner – beides sind für ihn gleichermaßen Informationen. Er ist auch der Meinung, dass Dateinamen verschwinden müssen und jede Datei eine andere Art von URL erhalten sollte.
Weiter kann er sich vorstellen, dass URLs komplett verschwinden und man nur noch Hyperlinks sieht.13

Diesen Ansatz halte ich für spannend sowie in seiner Argumentation richtig. Eine Vorstellung davon wie das aussehen könnte, habe ich jedoch nicht. Hierfür müsste sich die komplette Ordnerstruktur auflösen, an der wir in unserer analogen Denkweise festhalten. Grundsätzlich wäre dieser Ansatz genau der richtige, um Daten nicht selbst vorzusortieren, sondern diese Arbeit den »Verbindungen« und einer anderen Art der Kategorisierung zu überlassen. Jedoch stelle ich mir die Sortierung insofern schwierig vor, dass beispielsweise bei der grafischen Arbeit auf lokale Daten zugegriffen werden muss. Zum einen werden dabei nicht alle möglichen Suchergebnisse über dieses Thema oder den Kunden benötigt, zum anderen ist hier eine zeitliche Abfolge in der Dateistruktur sehr wichtig. Zudem kann ich mir vorstellen, dass sich die grafische Nutzeroberfläche, die sehr intuitiv angelegt ist, dadurch grundlegend ändert.

Der Begründer des World Wide Webs sah das Web selbst noch nicht als universellen Informationsraum an. Daten sind auf verschiedenste Art und Weise getrennt voneinander gespeichert und oft nicht in Beziehung gesetzt. Hier kommt das semantische Web ins Spiel, welches auch als Web 3.0 bezeichnet wird. Dabei geht es darum, maschinenlesbare Formate zu nutzen, um den Algorithmen zu ermöglichen, nicht nur stichwortartige, sondern auch kontextuale Zusammenhänge erschließen zu können. Als grundlegenden Baustein nennt er RDF, das Resource Description Framework, das auf XML basiert und logische Aussagen über Dinge trifft. Er nennt das Beispiel, dass durch logische Schlussfolgerungen maschinell erkannt werden kann, dass »Mittlere Tagestemperatur« dasselbe wie »Tagesdurchschnittstemperatur« bedeutet. Das Marktforschungsunternehmen Gartner vermutet in einer Präsentation aus dem Jahr 2007, dass 2017 die meisten Webseiten mit einer Form von semantischem Hypertext ausgestattet sind.14 Inwieweit das semantische Web tatsächlich da ist, kann ich momentan aber weder beurteilen noch sicher herausfinden.

Das semantische Web wird uns dabei helfen, die unzähligen Informationen aus dem World Wide Web zu filtern – ohne maschinelle Hilfe wäre das für uns Menschen zwischenzeitlich unmöglich. Tim Berners-Lee ist davon überzeugt, dass der Computer uns bei der Lösung großer analytischer Probleme helfen wird und hält es für wichtig, dass das Web den Menschen dabei unterstützt, sowohl intuitiv als auch analytisch zu sein. Unsere Gesellschaft benötigt beide Funktionen.15
Zudem ist er sich sicher, dass die Menschheit durch die Zusammenarbeit mit Maschinen nur profitieren kann. Er nennt das World Wide Web als Ort, wo Mensch und Maschine in einer idealen, kraftvollen Mischung koexistieren werden.16
Diese Ansicht teil auch Michael Dertouzos in seinem Vorwort. Er glaubt entgegen vieler Menschen, die davon überzeugt sind, dass Technologie uns entmenschlicht, dass sie ein untrennbares Kind der Menschheit ist. Mensch und Maschine müssen für echten Fortschritt Hand in Hand gehen, ohne dass einer als Diener des anderen handelt.17
Mit dieser Thematik habe ich mich bereits in »Die 4. Revolution« befasst und auch ich bin überzeugt davon, dass wir mit der richtigen Nutzung der jeweils stärkeren Potenztiale eine völlig neue Entwicklungsstufe erreichen und eine wunderbare Koexistenz von Mensch und Maschine führen können.

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 6.
  2. Vgl. Ebd., S. 5.
  3. Vgl. Ebd., S. 10.
  4. Vgl. Ebd., S. 3.
  5. Vgl. Ebd., S. 99.
  6. Vgl. Ebd., S. 36.
  7. Vgl. Ebd., S. 206.
  8. Vgl. Ebd., S. 15.
  9. Vgl. Ebd., S. 201.
  10. Vgl. Ebd., S. 163.
  11. Vgl. Ebd., S. 158 f.
  12. Vgl. Ebd., S. 159 f.
  13. Vgl. Ebd.
  14. Vgl. Gartner Report: »Finding and Exploiting Value in Semantic Web Technologies on the Web« 2007, in: Herman, Ivan: »What is being done today?«, Stand: 14.12.2009, URL: https://www.w3.org/2009/Talks/1214-Darmstadt-IH/Applications.pdf, S. 3, abgerufen am 18.2.2017.
  15. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 201.
  16. Vgl. Ebd., S. 158.
  17. Vgl. Ebd., S. IX.

Vision eines Visionärs

Zur Recherche über die Entwicklung des World Wide Webs dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee, dem Begründer höchstpersönlich. Der Name Tim Berners-Lee ist fest mit dem World Wide Web verwoben, doch wie viel Anteil er tatsächlich an der Entwicklung dieses Mediums besitzt, wird mir erst jetzt bewusst. Er ist nicht der gewürdigte Mann, der am Ende einer langen Kette von Prozessen steht. Er ist der Mann, der mit einer großartigen und weltveränderten Vision am Anfang, in der Mitte und am Ende dieser Kette Platz nimmt.

Zur Recherche über die Entwicklung des World Wide Webs dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee – dem Begründer höchstpersönlich. Der Name Tim Berners-Lee ist fest mit dem World Wide Web verwoben, doch wie viel Anteil er tatsächlich an der Entwicklung dieses Mediums besitzt, wird mir erst jetzt bewusst. Er ist nicht der gewürdigte Mann, der am Ende einer langen Kette von Prozessen steht. Er ist der Mann, der mit einer großartigen und weltveränderten Vision am Anfang, in der Mitte und am Ende dieser Kette Platz nimmt.
In seinem Idealbild eines universellen, »einzigen, globalen Informationsraums«1 ist alles potenziell mit allem verbunden.2 Er liebte die Vorstellung davon, dass »ein Stück Information wirklich nur dadurch definiert wird, womit und wie es verbunden ist«3. Aus seiner Sicht können dadurch völlig neue Relationen entstehen und Dinge zusammenkommen, die zuvor keine sichtbare Gemeinsamkeit hatten.4 Laut des Vorworts von Michael Dertouzos, dachte Tim Berners-Lee das Web als Medium, das in diesem gigantischen Informationsnetz menschliches Wissen und menschlichen Verstand kodifizieren würde.5

Generell begeistert ihn daran nicht nur die Idee, dass unzählige Informationen für jeden zugänglich sind, sondern auch, dass jeder daran teilhaben und sich selbst einbringen kann. Diese Begeisterung teilt er mit Ted Nelson, der schon zuvor von einer utopischen Gesellschaft geträumt hatte, in der alle Informationen von Leuten geteilt werden können, die sich auf Augenhöhe begegnen.6 Das Internet, das es längst vor dem World Wide Web gab, lässt zwar den Austausch von Daten zu. Für einen Laien sind die Hürden jedoch zu groß, um sich wirklich daran beteiligen zu können.7 Daher ist es für Berners-Lee eine Grundvorraussetzung, dass das Erstellen von Inhalten und Verlinkungen nicht nur machbar, sondern so einfach wie möglich ist. Zusätzlich setzt er voraus, dass das System komplett dezentralisiert aufgebaut sein muss, so dass ein Nutzer mit dem nötigen Equipment sofort und ohne Zugangserlaubnis »mitmachen« kann.8 Diese Dezentralisierung des Systems bedeutet für ihn zeitgleich, dass keine hierarchischen Strukturen vorherrschen dürfen und es niemanden gibt – weder eine Person noch eine Gruppe –, der das World Wide Web unter seine Kontrolle bringt.9

Ursprünglich dachte Berners-Lee an ein Web, dass das »reale«, nicht-virtuelle Leben widerspiegelt. Eine ungeahnte Folge ist die, dass Menschen durch das Web völlig neue Aktivitäten gefunden hatten. Sie fingen an zu schreiben oder zu malen, obwohl sie das zuvor nicht getan haben. Dadurch, dass sich das Web zum primären Raum für viele Aktivitäten etabliert hat, rät er dazu vorsichtig zu sein, um weiter eine gerechte und faire Gesellschaft zu ermöglichen.10

In seinem Buch zitiert der Begründer des Webs zudem eine Rede des südafrikanischen Vizepräsidenten, da er selbst seine Mission nicht besser in Worte fassen hätte können. Thabo Mbeki ruft dazu auf, die neue Technologie dafür zu nutzen sich selbst zu ermächtigen, sich über die Wahrheit der eigenen ökonomischen, politischen und kulturellen Situation zu informieren und sich selbst eine Stimme zu geben, die die ganze Welt hören kann.11

Diese Worte beschreiben wunderbar, wie dieses neue Medium als Werkzeug eines jeden genutzt werden kann. Zudem bin ich Tim Berners-Lee nicht einfach nur dankbar für ein Medium, das unser aller Leben bestimmt. Ich bin begeistert, wie er Schritt für Schritt das World Wide Web nach seiner Vorstellung gebaut hat. Ein Visionär, dessen damaliges finales »Werk« nicht nur das Endergebnis einer langen Evolution ist, sondern von Beginn an als Vision in seinem Kopf umherschwirrte.

Quellen
  1. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 4.
  2. Vgl. Ebd., S. 1.
  3. Ebd., S. 13.
  4. Vgl. Ebd., S. 37.
  5. Vgl. Ebd., S. VIII.
  6. Vgl. Ebd., S. 5.
  7. Vgl. Ebd., S. 18.
  8. Vgl. Ebd., S. 16.
  9. Vgl. Ebd., S. 80.
  10. Vgl. Ebd., S. 165.
  11. Vgl. Ebd., S. 102.