Um mir über das Ziel meiner Master-Arbeit klar zu werden, habe ich mich im letzten Schritt noch einmal von den bisherigen Überlegungen frei gemacht. Zum einen habe ich meine bisherigen Ansätze und Themen während der kompletten Recherche-Zeit Revue passieren lassen. Zum anderen kategorisierte ich die Themen systematisch, welche mir gleichermaßen als gesellschaftlich relevant als auch für mich persönlich wichtig erschienen. Dadurch konnte ich sowohl Inhalte ausschließen, als auch neu verknüpfen.
Um mir über das Ziel meiner Master-Arbeit klar zu werden, habe ich mich im letzten Schritt noch einmal von den bisherigen Überlegungen frei gemacht. Zum einen habe ich meine bisherigen Ansätze und Themen während der kompletten Recherche-Zeit Revue passieren lassen. Zum anderen kategorisierte ich die Themen systematisch, welche mir gleichermaßen als gesellschaftlich relevant als auch für mich persönlich wichtig erschienen. Dadurch konnte ich sowohl Inhalte ausschließen, als auch neu verknüpfen. Abschließend hat mir das bei der Themenfindung massiv geholfen.
Zu meinem finalen Master-Thema führen dabei verschiedene Überlegungen und Erkenntnisse, welche ich innerhalb meines Researches erhielt und nun kategorisiert, verknüpft und mit weiteren Gedanken ergänzt habe. Zum besseren Verständnis möchte ich an dieser Stelle einen kurzen Überblick geben, den detaillierten Verlauf werde ich jedoch in meiner Master-Thesis skizzieren.
Wichtiger Ausgangspunkt ist die Tatsache, dass wir in unserer westlichen Gesellschaft von Informationen abhängig sind. Das World Wide Web – als leicht zugänglicher Teil des Internets und als universeller Informationsraum – hilft uns massiv dabei, Informationen, Daten und menschliches Wissen zu sammeln, zu indexieren und miteinander zu verknüpfen. Immer feinere Algorithmen des maschinellen Lernens helfen uns dabei, innerhalb von Daten Zusammenhänge und Muster zu erkennen.
Die Zugänglichkeit des Informationsraums ist dabei mindestens gleichermaßen essenziell; der Zugriff findet üblicherweise über eine grafische Benutzeroberfläche innerhalb des Browsers statt. Meine bisherige Recherche sowie mein erster Ansatz, nämlich die Untersuchung dieser Oberflächen und deren visuelle Evolution unter Berücksichtigung kultureller und technologischer Aspekte, liefern mir dabei entscheidende Erkenntnisse, welche mich nun unterstützen. Die analytische Auseinandersetzung mit der bisherigen visuellen Evolution, meine theoretische Recherche, sowie das Bewusstsein, dass unsere Denkweise dynamischer wird und sich unsere Interfaces verändern, geben mir weitere Impulse.
Tim Berners-Lee beschreibt das »World Wide Web als Ort, wo Mensch und Maschine in einer idealen, kraftvollen Mischung koexistieren können.«I Nichtsdestotrotz steht letztendlich der Mensch im Mittelpunkt. Daher sollte es grundsätzlich immer um das Ziel gehen, Systeme und Methoden so zu verbessern, dass ein tatsächlicher Mehrwert und Fortschritt für uns geschaffen wird. Es geht also um die Frage: Wie können wir Technologie zum Vorteil der Menschheit nutzen?
Die vorangestellten Erkenntnisse, Gedanken und Fragen führen mich zu meinem letztendlichen Master-Thema, mit dem ich das Ziel verfolge, den Zugang zum und den Umgang mit dem World Wide Web auf gestalterischer Ebene mithilfe von maschinellem Lernen weiter zu vereinfachen. Meine These ist, dieses Ziel durch eine dynamische Anpassung des Designs, basierend auf den Daten eines einzelnen Menschen, zu erreichen.
Ich stelle mir darunter eine automatisierte Adaption des Interface Designs vor, welche an bestimmte Bedingungen und Parameter geknüpft ist. Erste und naheliegende Gedanken sind dabei beispielsweise die Veränderungen von Schriftgrößen oder Farbkontrasten bei Beeinträchtigung des Sehvermögens oder das Entfallen bestimmter Schritte innerhalb eines Prozesses, wenn die Daten schon vorhanden sind.
Überlegungen, ob und wie so ein Datenpool technologisch und gesellschaftlich umgesetzt werden kann oder welche ethischen Herausforderungen sich dabei in Bezug auf z. B. Datenschutz und Privatsphäre ergeben, möchte ich dabei nicht im Detail bearbeiten, jedoch theoretisch bedenken. Mein Master-Projekt soll zudem kein flexibles Designsystem in Form eines fertigen Lösungsvorschlags darstellen oder schwerpunktmäßig Themen wie Accessibility oder Usability abdecken.
Vielmehr möchte ich mein Master-Projekt als Experiment ansehen, um gestalterische Ansätze zu finden und Anreize zu geben, dieses Ziel umzusetzen. Ich sehe meine Arbeit dabei als Startpunkt und Ideenpool für weitere Nachforschungen.
Quellen
Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 158.
Nach meiner Präsentation im Masterstudio überlege ich weiter, wie meine Ausstellung aussehen könnte und welche Inhalte ich zeigen möchte. Nach wie vor ist das Ziel nicht gänzlich klar, was es sehr schwierig macht.
Nach meiner Präsentation im Masterstudio überlege ich weiter, wie meine Ausstellung aussehen könnte und welche Inhalte ich zeigen möchte. Nach wie vor ist das Ziel nicht gänzlich klar, was es sehr schwierig macht. Der enzyklopädische Ansatz, welcher die Evolution anhand von 3–4 Handlungssträngen zeigt, könnte in einem Raum gezeigt werden, der in 3–4 zeitliche Abschnitte geteilt wird und den Verlauf zeigt. Eine weitere Überlegung ist eine völlig reduzierte Form, die sich auf das Wesentliche konzentriert.
Am Mittwoch habe ich meinen bisherigen Ansatz im Masterstudio präsentiert. Dabei war zum einen wichtig, worum es im Kern meiner Untersuchung geht, zum anderen welche Aspekte ich dabei berücksichtigen möchte.
Am Mittwoch habe ich meinen bisherigen Ansatz im Masterstudio präsentiert. Dabei war zum einen wichtig, worum es im Kern meiner Untersuchung geht, zum anderen welche Aspekte ich dabei berücksichtigen möchte.
Der Fokus soll, wie schon beschrieben, klar auf der visuellen Untersuchung liegen, jedoch bin ich überzeugt davon, dass man die visuelle Ebene nicht isoliert betrachten kann. Zudem finde ich es spannend und wichtig, welche kulturellen und technologischen Aspekte daran angeknüpft werden können.
Weiter stelle ich mögliche theoretische Inhalte vor, wie die Historie des World Wide Webs, die Auseinandersetzung mit Informationssystemen sowie die Entwicklung grafischer Benutzeroberflächen. Zudem schwebt mir vor, mein Thema medientheoretisch zu untermauern; hier muss ich jedoch überdenken, welche Theoretiker tatsächlich passend für mein Thema sind. Bisher hatte ich an Marshall McLuhan, Vilém Flusser, Byung-Chul Han, Luciano Floridi und Felix Stalder gedacht. An dieser Stelle muss ich die Unterscheidung treffen, wer seine Theorien schon mit der Kenntnis der digitalen Welt geschrieben hat und ob beispielsweise Han, welcher sich im Allgemeinen kulturkritisch äußert, überhaupt relevant ist.
Es könnten weitere Vertreter wie Ada Lovelace, Charles Babbage oder Alan Turing berücksichtigt werden, welche aber aufgrund ihrer Irrelevanz für mein Thema nur am Rande auftauchen können.
Die wichtigste und gleichzeitig offenste Frage ist, welches Ziel ich mit meiner Arbeit verfolge. Hier konnten wir aufgrund der kleinen Runde fast drei Stunden diskutieren und Möglichkeiten abwägen. Auf mögliche Ansätze und weitere Research-Möglichkeiten werde ich im Anschluss meiner Präsentation eingehen.
Die dargestellte Präsentation ist nicht vollständig, da ich zu viel redundante Informationen, wie beispielsweise die Namen der Medientheoretiker, für überflüssig halte.
Grenzen der Evolution
Einen Ansatz, den ich zunächst ausgeschlossen habe, ist die Überlegung, wie grafische Benutzeroberflächen der Zukunft aussehen könnten. Dabei geht es nicht zwingend darum, ein mögliches Interface bis zum Ende zu gestalten. Viel wichtiger ist es, die Ergebnisse meiner visuellen Recherche zu analysieren, beschreiben, hinterfragen und zu verbinden. Auf Basis analysierter Muster, und mit dem Verständnis wie vergangenes und gegenwärtiges funktioniert, können Schlüsse für das Kommende gezogen werden.
Zudem ist wichtig zu wissen, dass eine Evolution nicht unendlich weiter geht, sondern sich als abflachende Kurve oder sogar in Wellen verhält. Das bedeutet, dass sich Entwicklungen nicht nur verlangsamen, sondern sogar umkehren können.
Kulturelle Bedeutung des Interfaces
Auf Grundlage des Status Quo kann nicht nur interessant sein, wie zukünftige Interfaces aussehen, sondern auch wie User Interfaces die Zukunft verändern können. Weiter ist die Perspektive, wie die gesellschaftliche Wirkung von Interfaces ist, interessant. Für diese Impulse, die ich besonders spannend finde, benötige ich aber noch Zeit, um sie weiter reifen zu lassen. Generell scheint es vielversprechend, eine Brücke zu gesellschaftlichen Themen zu schlagen.
Eine wichtige Essenz des Gesprächs ist zudem die, dass sich die visuelle Analyse letztendlich auf ein völlig anderes Thema beziehen könnte. Auf technischer Seite haben wir weitere Punkte verdeutlicht.
Die Erhaltung des menschlichen Körpers
Vannevar Bush und Doug Engelbart zielen mit ihren Visionen und Entwicklungen nicht darauf ab, die Technik selbst zu verbessern. Vielmehr geht es im Kern darum, das menschliche Leben zu verbessern. Diese Feststellung ist insofern aufschlussreich, dass auch heutzutage die unausweichliche Frage im Raum steht, was wir mit der Gestaltung von Interfaces bewirken. Geht es darum, die Technik selbst zu verbessern oder spielt es tatsächlich eine Rolle, welche Erleichterung der Mensch durch das Ergebnis erfährt? In welchen Bereichen benötigt der Mensch zweifelsfrei Unterstützung? Ein Fazit aus dem Gespräch ist, dass es ein Anliegen sein sollte, den menschlichen Körper nicht verkümmern zu lassen, sondern dessen Können zu akzeptieren, miteinzubeziehen und mit technischen Möglichkeiten lediglich zu verbessern.
Weiter ist eine erkennbare Entwicklung, dass sich Mensch und Maschine immer näher kommen und zunehmend verschmelzen. Schnittstellen verschwinden zunehmend und es ist eine generelle Entwicklung zurück zum Körper zu sehen. An dieser Stelle frage ich mich jedoch, wie weit wir gehen wollen. Möchte ich beispielsweise bei meiner täglichen Arbeit wirklich wild gestikulierend vor einem Riesen-Interface stehen, um Inhalte durch die virtuelle Welt zu swipen?
Eine zusätzliche Erkenntnis ist, dass sich Technik dessen Evolution vollstreckt ist, nicht mehr rückgängig machen lässt. Hier ist nur die völlige Verbannung oder die sinnvolle Integration hilfreich. Halbverbannte Technologien, wie beispielsweise die Google Glass, leben sonst in versteckten Grauzonen weiter.
Darstellerische Möglichkeiten
Eine der Ideen, welche ich hatte, konnten weiter ausgeführt werden. Ursprünglich dachte ich an den Bau eines Raums oder Tunnels, in dem die Evolution dargestellt wird. Im Gespräch hatten wir innerhalb der Studenten unter anderem die Idee, dass man eine Zeitreise durchgehen kann. Jeder hat seine eigenen Erfahrungen mit dem Web und durch eine gute Inszenierung könnte sich der Besucher selbst gedanklich zurückerinnern und somit emotional angesprochen werden. Das kann durch die Verwendung von passenden Requisiten und Soundelementen unterstützt werden. In Bezug auf die Soundkomponente, kann man festhalten, dass das Web sowohl auditiv als auch visuell ruhiger und klarer geworden ist. Das beginnt bei der vorhandenen Technologie wie beispielsweise Modems, die sich geräuschvoll einwählen, oder laut kleckernden Tastaturen und zieht sich durch die visuelle Ebene weiter durch. Auch hier ist zu erkennen, dass sich das sehr überladene und blinkende Design in eine minimalistische, geordnete und ruhige Umgebung verwandelt.
Der enzyklopädische Ansatz könnte durch mehrere Handlungssträngen unterstützt werden, welche sich durch die Evolution ziehen und das Storytelling unterstützen.
Wünschenswert, aber sehr schwierig umzusetzen, wäre eine poetische Ebene miteinzubringen. Prof. Dr. Phi. Stefan Asmus spricht auch von einer Metaebene, über die man von oben oder unten auf alles blicken kann. Auch denkbar wäre, dass ich eigene Thesen oder die eigene Sicht einarbeite – das würde meine Arbeit von der rein faktischen Ansicht unterscheiden. Das ist vor allen Dingen deshalb wichtig, da die Arbeit als Designer sehr von Intuition geprägt ist. Im Gespräch fällt der Vergleich mit einem Gitarrenspieler, der sich intuitiv voll und ganz auf die Musik einlässt und möglicherweise nicht wissenschaftlich exakt erklären kann, was nun genau passiert ist.
Die poetische Ebene könnte auch dazu dienen, dass das was kodifiziert gezeigt wird, gleichzeitig das zeigt, was nicht dargestellt wird. Hier verwenden wir die berühmte Eisberg-Metapher, bei der nur die Spitze des Eisbergs sichtbar über dem Wasser liegt.
Die Erweiterung des Menschen
Im weiteren Verlauf sprechen wir über künstliche Intelligenz und wie schon erwähnt über Technologien, die den Menschen unterstützen sollen. Letztendlich geht es immer darum, das Leben des Menschen zu verbessern und die künstliche Intelligenz trägt unterstützend dazu bei. In Kooperation können Probleme gelöst werden und die häufige Darstellung, dass wir mit Chips leben und von KIs getrieben und bedroht werden, ist vorerst weit hergeholt. Ein Kernpunkt ist der, dass Algorithmen im Unterschied zum Menschen nichts Unbekanntes benennen können. Das heißt nicht, dass sie keine Fähigkeit haben selbst zu lernen und sich selbst zu verbessern, jedoch kann etwas, das in keiner Form im System war, nicht selbst erstellt werden. Die Gedanken im Bezug auf künstliche Intelligenzen finde ich auch in Bezug auf Interface Design sehr spannend. Letztendlich geht es immer darum, dem Menschen bestmöglichen Zugang zu einem System zu geben und hier ist die Überlegung spannend, was der Mensch überhaupt braucht, um sinnvoll auf ein System zugreifen kann. Das meine ich sowohl im allgemeinen Bezug auf Interfaces als auch speziell mit Blick auf das Design grafischer Benutzeroberflächen.
Weitere Empfehlungen
Je nachdem in welche Richtung ich mich entscheide, können mir eine weitere theoretische Auseinandersetzung helfen. Dabei geht es zum einen um den Technikbegriff von Heidegger. Zum anderen könnte Bruno Latours Akteur-Netzwerk-Theorie interessant sein, falls ich mich tiefer mit der Koexistenz von Mensch und Maschine beschäftigen möchte. Barads buch über den agentiellen Realismus, Dirk Bäckers Text über Designvertrauen sowie Luhmanns Theorien über Weltkunst könnten weitere Quellen sein.
Momentan bin ich mir unschlüssig, welche Richtung ich einschlagen möchte. Die theoretischen Hintergründe, welche wir im Studio diskutiert haben, habe ich prinzipiell verstanden. Letztendlich fällt es mir aber schwer so schnell eine Verknüpfung zu meinem Thema zu finden. Hier möchte ich mir noch einige Tage Zeit geben und in den nächsten Tagen intensiv über mein Abschlussprojekt nachdenken. Dabei kommen Pro-Contra-Listen zum Einsatz und die wichtige Frage, die ich mir selbst beantworten muss, ist was ich selbst möchte. Was möchte ich mit meinem Abschlussprojekt später machen und welches Thema holt mich so leidenschaftlich ab, dass ich darin nicht nur wochenlang eintauchen möchte, sondern bestenfalls einen Forschungsschwerpunkt oder Interesse für danach finde.
Als Ausstellungform kann ich mir den Bau eines Raumes vorstellen, welcher die Evolution des Webs zeigt. Ähnlich der Wunderkammer könnten die gesammelten Materialien und Essenzen scheinbar unstrukturiert, aber geordnet, gezeigt werden.
Als Ausstellungform kann ich mir den Bau eines Raumes vorstellen, welcher die Evolution des Webs zeigt. Ähnlich der Wunderkammer könnten die gesammelten Materialien und Essenzen scheinbar unstrukturiert, aber geordnet, gezeigt werden. Als weitere oder auch zusätzliche Möglichkeit halte ich den Aufbau im zeitlichen Verlauf für denkbar. Der Raum oder lange Gang wäre dabei in 3–4 Zeitabschnitte aufgeteilt und der Besucher durchgeht die Evolution.
Für den Raum selbst finde ich eine Zusammenstellung diverser Materialien ansprechend. So könnten weiße oder mit UI-Elementen tapezierte Wände aus Holz als Hintergrund dienen und ein schwarzes Gitter als Netzwerk im Vordergrund stehen. An ihm könnten die Objekte angebracht werden. Als Objekte sehe ich momentan beispielsweise Plakate, Fotos oder LED-Rahmen, die die Information transportieren. Im Raum selbst stelle ich mir einen angedeuteten »Nachbau« der Zeit selbst vor. Möbelstücke und Gegenstände geben dabei erste Hinweise und durch 3D-Druck gefertigte UI-Elemente oder z. B. einem Hinweisschild mit »Under Construction« könnten digitale Elemente in den analogen Raum geholt werden.
Zurzeit ist es jedoch schwierig mich noch intensiver mit der Ausstellung selbst zu beschäftigen, da ich das Ziel der Arbeit noch nicht ausgearbeitet habe. Ich hoffe, dass es in den nächsten Tagen auf den Punkt bringen kann, um die übrige Zeit intensiv nutzen zu können.
Inspiration für die Ausstellung im realen Raum
Abbildungen
Architektur: Snøhetta + Duncan Lewis, Szenografie: Casson Mann, Conseil Général de la Dordogne: »Besucherzentrum in Montignac, France«, URL: http://www.janglednerves.com/lascaux-4/, abgerufen am: 12.5.2018.
Bezüglich meiner Recherche über die visuelle Evolution im Web, möchte ich einige Punkte festhalten, welche sich für mich als wichtige Eckpfeiler herauskristallisieren.
Bezüglich meiner Recherche über die visuelle Evolution im Web, möchte ich einige Punkte festhalten, welche sich für mich als wichtige Eckpfeiler herauskristallisieren.
Das Heranwachsen zum eigenen Medium
Im Gesamtüberblick ist eine Erkenntnis für mich besonders essenziell. Nämlich die, dass sich das Layout im Web aus einer zunächst technisch bedingten Fluidität ins Statische wandelt, um anschließend wieder dynamischer zu werden. Zunächst spricht man von der No-Layout-Ära, welche sich etwas bis 1996 hält. Zuvor gab es einfach keine Möglichkeiten und Ansätze, Layouts zu erstellen. Mit der anfänglichen Aufteilung durch Tabellen und Frames, konnten endlich mehrere Spalten angelegt werden, was letztendlich jedoch zur völligen Starrheit des Designs geführt hat. Diese Gestaltung, welche sich stark am Printdesign anlehnt und ein gescheiterter Versuch ist, die komplette Kontrolle über das Medium zu erhalten, wird durch die Einführung des iPhones im Jahr 2007 überflüssig. Nach und nach kommen mehr Endgeräte mit noch mehr Bildschirmgrößen auf den Markt, was bedeutet, dass ein neuer Weg gefunden werden muss, für ein flexibles Medium wie es das Web ist, zu gestalten. Ethan Marcotte führt 2010 den Begriff Responsive Design ein, welches in eine neue Fluidität des Webs mündet. Letztendlich ist es wichtig, das World Wide Web nicht als festen Rahmen zu verstehen, sondern als ein wandelbares Medium, welches sich an die Endgeräte unterschiedlichster Art anpassen sollte und dessen Kontrolle nicht ausschließlich in der Hand des Designers liegt.
Entwicklung einer eigenen Formsprache
Ein entscheidender Punkt ist für mich zudem die Entwicklung der Materialität im Web. In Bezug auf das GUI bei Computern, habe ich bereits von Metaphern gesprochen, die dafür verwendet werden, Technik verständlicher zu machen. Auch in Bezug auf UI-Elemente sehe ich diese Vorgehensweise zu Beginn des World Wide Webs. Zwar war die Gestaltung häufig in den technischen Möglichkeiten begründet, aber an vielen Stellen sieht man die Übertragung analoger Gegebenheiten ins Digitale. Ein Button war in einem Beispiel tatsächlich so entworfen, dass es einem roten Button aus dem Realen ähnelt. Weiter wurde beispielsweise bei der Einführung des iPhones der Stil des Skeuomorphismus verwendet. Auch hier finden sich Metahpern wieder, welche z. B. e-Books in einem Regal angeordnet zeigen. Funktional wäre diese Darstellung zwar nicht wichtig, dem Nutzer hilft das aber ungemein, um einen Bezug zum Realen herstellen zu können und das Neue zu begreifen. Skeuomorphismus unterscheidet sich dabei vom Realisums, bei dem aus ausschließlich visuellen Gründen, reale Materialitäten verwendet werden.
Später verwandelt sich dieser Stil ins Flat-Design, welcher wiederum durch das Material Design von Google abgelöst wird. Flat-Design stellt prinzipiell den Gegenentwurf vom Skeuomorphismus dar. Während zuvor versucht wurde, alles so realistisch wie möglich darzustellen, fällt beim Flat-Design jeder Bezug zum Realen weg. Jegliche Höhen und Tiefen gehen verloren, Schatten oder optische Schimmereffekte fallen gänzlich weg. Material Design hebt dagegen die Wichtigkeit hervor, auch reale Gegebenheiten mit in die Gestaltung einzubeziehen. Hier ist ein Button tatsächlich erhaben, Input-Felder dreidimensional eingelassen und Schatten sollen bei der Darstellung des Objekts helfen. Gleichermaßen geben Schattierungen einen Hinweis auf die Dimensionen.
Diese Entwicklung zeigt mir, dass das Medium allmählich eine eigene Formsprache für sich beansprucht. Nach vorheriger Imitation des Realen, welche durch das Flat-Design ins extreme Gegenteil umspringt, könnte durch das Material Design eine harmonische Mischung beider Welten entstehen.
Veränderte/Verschwundene GUI/Elemente
Eine dritte und letzte Feststellung, welche mir innerhalb des visuellen Parts wichtig ist, ist die Veränderung von grafischen Benutzeroberflächen sowie das gänzliche Verschwinden von Elemenenten durch neue Formen von Interfaces und kulturelle Lernprozesse.
Endgeräte wie das Smartphone oder Tablet brachten bereits neue gestalterische Herausforderungen mit sich. In Zukunft wird sich das Erscheinungsbild durch weitere Interfaces, welche es bereits gibt, wandeln. Hier denke ich an Voice Interfaces, Conversational Interfaces oder neue Technologien wie Augmented oder Virtual Reality. Des Weiteren steht der Mensch längst nicht mehr vor einem gänzlich neuen Medium, was bedeutet, dass UI-Elemente gänzlich verschwinden können. An vielen Stellen ist es dem Nutzer zwischenzeitlich bewusst, dass man eine Galerie anklicken oder die einzelnen Fotos am Handy durch Wischen durchblättern kann. Dazu braucht es keinen separaten Hinweis in z. B. Text- oder Icon-Form.
Beide Fälle werfen bei mir die Frage auf, inwiefern sich grafische Benutzeroberflächen verändern und auflösen können. Welche Information ist tatsächlich wichtig und was kennt der Mensch bereits? Welche Technologien können zum Einsatz kommen, um die Bedienung zu erleichtern und wie sähe eine Nutzeroberfläche im Extremfall bei fortgeschrittener Technologie aus? Wie weit muss die Kontrolle des Designers über die Gestaltung tatsächlich reichen?
Frank Chimero teilt mit seinem Beitrag »The Web’s Grain« Überlegungen, wie man aus einer anderen Perspektive für das Web gestalten kann. Für besonders interessant und zugleich naheliegend halte ich seine Idee, randlos zu gestalten.
Frank Chimero teilt mit seinem Beitrag »The Web’s Grain« Überlegungen, wie man aus einer anderen Perspektive für das Web gestalten kann. Für besonders interessant und zugleich naheliegend halte ich seine Idee, randlos zu gestalten. Er vertritt dabei die Idee, zunächst Elemente ohne bekannte Größe der »Leinwand« zu arrangieren und sie erst dann in eine Box zu packen.1 Das steht dem häufigen Ansatz gegenüber, in festen Bildschirmgrößen zu denken – sei es nur klein, mittel, groß –, um diesen Raum auszufüllen.
Er ist zudem der Meinung, dass wir unsere Designs mit dem Hintergedanken entwickeln, wie sie am besten in der responsiven Ansicht zusammenbrechen. Vielmehr sollten wir uns darauf konzentrieren, wie sich die Elemente aufbauen.2
Seine Ansichten machen meiner Meinung nach durchaus Sinn, da das Web kein begrenzter Raum ist, wie wir es beispielsweise auf dem Printbereich kennen. Meinem Verständnis nach, geht es ihm jedoch nicht darum, den angezeigten Bereich ins unendliche auszuweiten, so dass man in alle Richtungen scrollen kann, sondern eher darum, dass man vorgefertigte Größen nicht als Grundlage der Gestaltung nehmen soll. Hier denke ich auch an Raster, welche viel zu häufig viel zu schnell zum Einsatz kommen. So hat sich eine Aufteilung in 12 oder 16 Spalten zwar bewährt, was jedoch nicht bedeuten muss, ein solches Raster sofort zu wählen. Vielmehr sollte sich die Aufspaltung aus dem Design heraus ergeben. Weiter finde ich seine Kritik berechtigt, dass zu viel darüber nachgedacht wird, wie Elemente im responsiven aussehen. Auch hier weiß man zwar aus der Erfahrung, welche Muster sich bewährt haben, was aber auch hier nicht automatisch zu einer Aufteilung ohne vorherige Gestaltung führen sollte. Die Verbreitung hat meiner Ansicht nach auch damit zu tun, dass weit verbreitete Frameworks wie beispielsweise Bootstrap die Anzahl der Spalten fest definieren. So können Webseiten schnell und funktional umgesetzt werden, was aus wirtschaftlicher Sicht natürlich sinnvoll ist.
Vor allen Dingen in Hinblick darauf, dass sich das Web aus seiner statischen Begrenztheit befreit und den Weg zurück zur fluiden Gestaltung findet, halte ich den Ansatz für spannend und für einen gelungenen Anreiz, um weiter über das Thema nachzudenken.
In meiner Zwischenbesprechung mit Alain Yimbou am 28.3.2018 geht es um den aktuellen Stand meines Master-Projekts sowie um die mögliche praktische Umsetzung. Mein Thema, das den Arbeitstitel »evolution of a medium« trägt, zielt auf die kulturellen, technologischen und visuellen Veränderungen des World Wide Webs von Beginn an.
In meiner Zwischenbesprechung mit Alain Yimbou am 28.3.2018 geht es um den aktuellen Stand meines Master-Projekts sowie um die mögliche praktische Umsetzung. Mein Thema, das den Arbeitstitel »evolution of a medium« trägt, zielt auf die kulturellen, technologischen und visuellen Veränderungen des World Wide Webs von Beginn an.
Mögliche Inhalte
Kulturell sind für mich die Verformung der Gesellschaft, die Auflösung geographischer Grenzen, die Infosphäre, die Neuordnung von Raum und Zeit sowie das Web als Abbild der Kultur interessant. Technologisch könnte man das Web als jeweiligen Prototype der nächsten Entwicklung sehen. Zudem ist die Technologie als Motor und Lösung spannend für mich. Entwicklungen im Frontend, wie beispielsweise die Erstellung von Web-Layouts mit Tabellen, Floats, Flexbox oder CSS Grid gehören dabei fast schon in den visuellen Bereich.
Während kulturelle und technologische Aspekte vielmehr eine Nebenrolle spielen werden, steht vor allen Dingen der visuelle Part im Vordergrund. Nachdem das Web anfänglich mit seinen sehr gegenständlichen UI-Elementen eher eine Übersetzung der materiellen Welt war, evolviert es zunehmend zu einem eigenen Medium. Weiter halte ich den Verlauf von einer »No-Layout-Ära« hin zu sehr statischen Layouts und zurück zu fluiden Umsetzungen für sehr wichtig. Auch hier ist zu sehen, dass sich das Web zunächst sehr am Printbereich orientiert hat, um sich dann als eigenes Medium zu etablieren. Die Veränderung der grafischen Benutzeroberflächen, basierend auf kulturellen Lernprozessen und technologischem Fortschritt, ist ein weiterer essenzieller Bestandteil.
Theoretischer Teil
In meinem theoretischen Part möchte ich mich neben der historischen Entwicklung des World Wide Webs und grafischer Benutzeroberflächen mit Informationssystemen, medientheoretischen Inhalten sowie allgemeinen Konzepten des World Wide Webs auseinandersetzen. Dieser Bereich bietet zwar nur oberflächliche Einblicke, hilft mir jedoch zur Orientierung und zur Erfassung des Gesamtkontexts.
Im Bereich der Informationssysteme werde ich mich unter anderem mit Paul Outlet, Vannevar Bushs Memex, J.C.R. Licklider, Ted Nelson, Doug Engelbart und Bill Atkinsons HyperCard beschäftigten. Im medientheoretischen Teil möchte ich Einblicke in die Theorien von Marshall McLuhan, Vilem Flusser, Luciano Floridi, Byung-Chul Han oder Felix Stalder geben. Hier muss eine weitere Auswahl oder Erweiterung zeigen, welche Inhalte tatsächlich relevant für meine Arbeit sein werden. Im allgemeinen könnten Konzepte wie z. B. das von Linked Open Data bereichernd sein.
Praktische Ansätze
In welche exakte Richtung mein praktisches Projekt gehen könnte, ist momentan noch unklar. Für ein spannendes Detail halte ich die zeitliche Einordnung. In diesem Jahr wird das freie World Wide Web 25 Jahre alt und das erste Proposal jährt sich im kommenden Jahr zum 30. Mal. Ich kann mir sowohl eine Ausstellung im World Wide Web als auch im realen Raum vorstellen, wobei wir die ausschließliche Präsentation im Web während des Gesprächs ausgeschlossen haben. Um die digitalen Ergebnisse physisch greifbarer zu machen, macht es durchaus Sinn eine Exposition im realen Raum zu entwickeln. Wie die finale Umsetzung aussehen könnte, muss sich allerdings während meiner weiteren Arbeit herauskristallisieren.
Wie in meinem Beitrag »evolution of a medium« schon ausgeführt, kann ich mir vorstellen, eigene Räume zu bauen und Elemente des Webs, wie beispielsweise den berühmten Sternenhimmel oder MIDI-Sound, ins Analoge zu transportieren. Weiter wäre die Übersetzung von UI-Elementen mithilfe von 3D-Druck denkbar. Im vergangenen Beitrag beschreibe ich mögliche weitere Komponenten, welche ich an dieser Stelle nicht weiter ausführen möchte.
Ausblick
Meine Arbeit könnte Fragen nach zukünftigen Veränderungen beinhalten. Sowie der Einsatz von Natural User Interfaces vieles in der Gestaltung verändert hat, gehe ich davon aus, dass Conversational User Interfaces, Voice Interfaces oder dergleichen massive Auswirkungen auf grafische Benutzeroberflächen haben werden. Auch das Konzept von Linked Open Data beziehungsweise die generelle – auch automatisierte – Darstellung von Informationen wird sicher noch viele, neue Herausforderungen für Gestalter mit sich bringen.
Vor allem die neueren Formen von Interfaces als auch die Verwendung von Technologien wie Eye-Tracking und Augmented oder Virtual Reality, könnten aus meiner Sicht die Auflösung aktueller Formen von grafischen Benutzeroberflächen mit sich bringen.
Inspirierende Projekte
Abschließend habe ich inspirierende Projekte zusammengefasst, welche ich innerhalb meiner Master-Dokumentation behandelt habe. Dazu gehört »Once Upon« von Olia Lialina und Dragan Espenschied, welche im Jahr 2011 soziale Netzwerke mit den technologischen Möglichkeiten von 1997 nachbauten. Weiter inspiriert mich von den beiden Netzkünstlern »One Terabyte of Kilobyte Age«, welches ein Archiv von geocities-Seiten darstellt, die kurz vor Schließung des Dienstes gesichert wurden. Bei beiden gefällt mir vor allen Dingen die visuelle Komponente, welche die visuelle Ästhetik der 90er Jahre widerspiegelt. »Grosse Fatigue« stellt für mich eine großartige, poetische Form dar, ein Thema zu behandeln. Eine beeindruckende Verbindung zwischen theoretischen Inhalten und visueller Darbietung sehe ich zudem in den Projekten »In Pieces« von Bryan James, »Pulse« von Markus Kison und »Laws of UX« von Jon Yablonski.
Für meine Abschlussarbeit möchte ich eine visuelle Form finden, welche die Inhalte direkt und ohne Umschweife kommuniziert und die Ästhetik des Webs gleichermaßen mit aufnimmt.
Frank Chimero spricht in einem Vortrag im Oktober 2017 bei der Mirror Conf in Braga über die steigende Komplexität in der Webentwicklung und wiederkehrende Verwirrtheit in Bezug auf technologische Neuerungen und Möglichkeiten. Seine Schilderung finde ich vor allen Dingen dahingehend spannend, dass es mir in vielerlei Hinsicht ähnlich geht.
Frank Chimero spricht in seinem Vortrag »Everything Easy is Hard Again« im Oktober 2017 bei der Mirror Conf in Braga über die steigende Komplexität in der Webentwicklung und wiederkehrende Verwirrtheit in Bezug auf technologische Neuerungen und Möglichkeiten. Seine Schilderung finde ich vor allen Dingen dahingehend spannend, dass es mir in vielerlei Hinsicht ähnlich geht.
Er erläutert die Veränderung bei der Entwicklung von Web-Layouts und von dem Gefühl, dass es sich alle fünf Jahre so anfühlt als würde man noch einmal von vorne beginnen,1 nachdem man sich gerade in die aktuelle Technologie eingearbeitet hat. Ab Mitte der 90er Jahre war die Gestaltung mithilfe von Tabellen üblich; später waren es Floats, Flexbox oder CSS Grid, welche auch in Kombination verwendet werden können.
Zudem spricht er von der Tatsache, dass Methoden, die Tabu waren plötzlich zu den Empfehlungen gehören. Hier nennt er das Beispiel, dass er einen Artikel gelesen hat, in dem es um die Vorteile geht, keine Stylesheets, sondern Inline-Styles zu verwenden.2 Ich selbst hing auch schon an diesem Punkt als ich das erste mal von »above the fold« hörte und eine Seite nach diesem Konzept verbessern sollte.
Ähnlich wie Chimero gab es bei mir immer wieder – wenn auch riesengroße – Lücken bei der Entwicklung von Webseiten. Nachdem ich meine ersten Webseiten im Jahr 2000 erstellte, habe ich mich jahrelang nicht mehr im Detail damit beschäftigt. Hier und da nur Versuche bis ich mich mit Beginn meiner Ausbildung 2007 wieder angenähert habe. Durch kleine statische Seiten oder die Betreuung von Seiten via Content Management Systeme wurde es wieder wärmer, doch den richtigen Sprung habe ich nicht mehr geschafft. Erst mit dem Beginn meines Studiums hatte ich immer wieder die Motivation, »das jetzt endlich richtig lernen zu wollen«. Es ging damit los, Floats richtig zu verstehen und plötzlich gab es dieses Responsive Webdesign, welches vieles durcheinander brachte: Pixel, em, rem oder Prozent? Fluid, Adaptiv, was? Und nach kurzer Pause gab es mit Flexbox plötzlich wieder etwas Neues. Ist das zusätzlich? Oder alternativ? Die meiste Zeit verbrachte ich wohl damit, zu verstehen, was wie und warum verwendet wird.
Mit meinen Kenntnissen war es bisher kein Problem, kleinere Webprojekte umsetzen, doch vor wenigen Wochen habe ich mich entschieden, tiefer eintauchen zu wollen. Ich habe damit begonnen bei #100daysofcode mitzumachen, um zu sehen, was passiert, wenn ich jetzt länger am Ball bleibe. Dabei geht es darum, sich eigene Ziele zu setzen und 100 Tage lang mindestens eine Stunde täglich zu üben und zu lernen. Es ist erstaunlich wie viel man in so kurzer Zeit lernen kann und ich hoffe trotz Master-Arbeit dran bleiben zu können. Vor allem wünsche ich mir, nicht wie bisher demotiviert zu sein, sobald es in JavaScript zu sehr ins Detail geht.
Der Vortrag von Frank Chimero inspiriert und motiviert mich dahingehend, dass es aus seiner Sicht egal sein könnte, ob man direkt aus der Schule kommt oder 20 Jahre Erfahrung mitbringt. Man könnte an der gleichen Stelle landen, nämlich im ersten Jahr, in dem man Webseiten erstellt.3 Und das ist immerhin ein hervorragender Anfang für viele weitere Jahre.
Ursprünglich wollte ich die grafischen Benutzeroberflächen anfänglicher Systeme gegenüberstellen. So z.B. die Interfaces des Xerox Alto, Xerox Star, Apple Lisa oder Macintosh. Aus jetziger Sicht sehe ich jedoch leider keinen großen Mehrwert für meine Arbeit.
Ursprünglich wollte ich die grafischen Benutzeroberflächen anfänglicher Systeme gegenüberstellen. So z. B. die Interfaces des Xerox Alto, Xerox Star, Apple Lisa oder Macintosh. Aus jetziger Sicht sehe ich jedoch leider keinen großen Mehrwert für meine Arbeit. Ich finde die Entwicklung nach wie vor spannend und wichtig. Zudem kann ich mir vorstellen, dass ich die ein oder andere Erkenntnis daraus ziehen hätte können. Nichtsdestotrotz erhoffe ich mir mehr Erkenntnisse durch die spezielle Auseinandersetzung mit der Gestaltung im Web. Ab jetzt möchte ich mich daher verstärkt dem grafischen Research für mein praktisches Projekt widmen sowie weitere theoretische Grundlagen, speziell für diesen Bereich, schaffen.
Gestern ging die Webseite Laws of UX (lawsofux.com) von Jon Yablonski online. Er präsentiert damit ein Regelwerk mit den wichtigsten Punkten, die ein Designer beim Erstellen von Benutzeroberflächen berücksichtigen sollte. Eine großartige Arbeit, die theoretische Inhalte hervorragend mit guter Gestaltung verbindet.
Gestern ging die Webseite Laws of UX (lawsofux.com) von Jon Yablonski online. Er präsentiert damit ein Regelwerk mit den wichtigsten Punkten, die ein Designer beim Erstellen von Benutzeroberflächen berücksichtigen sollte.
Meiner Ansicht nach punktet er dabei nicht nur mit den Inhalten bzw. den Regeln selbst, sondern setzt sie zusätzlich großartig in Szene.
Gelangt man auf die Seite sieht man bildschirmfüllend lediglich eine grafische Karte mit dem Titel der jeweiligen Regel, einen kurzen erklärenden Text sowie einen Button mit »Learn more«. Dezent im Hintergrund – Ton in Ton – erscheint die Ordnungsnummer der Regel sowie ein grafisches Element. In dieser Ansicht kann man sich durch die einzelnen Regel-Teaser scrollen. Eine seitliche Navigation verweist auf soziale Netzwerke, über das Burger-Menu erreicht man die Navigation, die alle Inhalte im Überblick zeigt.
Klickt man sich in eine Regel, sind – wieder bildschirmfüllend – eine Farbfläche im Hintergrund, der Titel, die Ordnungsnummer sowie dezente grafische Elemente zu sehen. Der Aufbau vollzieht sich dabei in zurückhaltenden, wirkungsvollen und meiner Ansicht nach visuell sehr ansprechenden Animationen.
Scrollt man nun weiter, erhält man einen bei allen Regeln den strukturell gleichen Überblick über sie. Die »Übersicht«, den »Ursprung« sowie weitere Leseempfehlungen.
Insgesamt halte ich das Projekt für eine großartige Arbeit, die zeigt wie man theoretische Inhalte visuell ansprechend inszenieren kann. Generell fällt mir auf, dass mir vor allem die Arbeiten im Gedächtnis bleiben, die sowohl mit theoretischen Inhalten als auch mit hervorragender Gestaltung bzw. Umsetzung hervorstechen. Dazu gehören beispielsweise auch »In Pieces« von Bryan James oder »Pulse« von Markus Kison. Mit »theoretischen Inhalten« meine ich dabei nicht allein Daten, die so auch auf Unternehmenswebseiten oder ähnlichen auftauchen können. Ich verstehe darunter ein gut recherchiertes Thema dessen Hauptinhalte durch gute Gestaltung fokussiert und in Szene gesetzt werden. So basiert »In Pieces« beispielsweise auf dem Wissen über bedrohte Tierarten, »Pulse« dagegen auf einer Emotionstheorie von Robert Plutchik aus dem Jahr 1980.
Diese Arbeiten sowie das aktuelle Projekt von Jon Yablonski verdeutlichen mir im Bezug auf meine Masterarbeit zunehmend, welche Schwerpunkte für mich immer bedeutender werden.
Abbildungen
Titelbild: Eigener Screenshot; Yablonski, Jon: »Laws of UX«, URL: http://lawsofux.com, abgerufen am 16.1.2018.
Eigener Screenshot; Yablonski Jon: »Laws of UX«, URL: http://lawsofux.com, abgerufen am 16.1.2018.
Wie in meinem Beitrag »evolution of a medium« vorweggenommen, habe ich es mir zur Aufgabe gemacht, UI-Elmenete zu sammeln und zusammenzuführen. Das Ziel ist es, Veränderungen der letzten Jahrzehnte visuell herauszuarbeiten, um die Entwicklungen deutlich zu machen. Ich verspreche mir davon zudem, diese Evolution in einen Gesamtkontext einordnen zu können, um sie noch besser verstehen zu können.
Wie in meinem Beitrag »evolution of a medium« vorweggenommen, habe ich es mir zur Aufgabe gemacht, UI-Elmenete zu sammeln und zusammenzuführen. Das Ziel ist es, Veränderungen der letzten Jahrzehnte visuell herauszuarbeiten, um die Entwicklungen deutlich zu machen. Ich verspreche mir davon zudem, diese Evolution in einen Gesamtkontext einordnen zu können, um sie noch besser verstehen zu können.
Bis dato habe ich Buttons gesammelt. Die Auswahl der Webseiten folgte dabei Kriterien, welche ich in »Evolution der Webästhetik« grob formuliert habe. Obwohl ich die möglichen Webseiten noch nicht final eingegrenzt habe, habe ich erste Buttons von amazon, eBay, Google und yahoo! gesammelt. Der Fokus lag dabei zunächst auf dem primären Button, der jeweils für den Kern der Plattform – nämlich die Suchfunktion –, eingesetzt wurde.
Weitere vorstellbare Quellen sind: Apple, BILD, Bing, Chip, Facebook, Firefox, Focus, GMX, Microsoft, MSN, New York Times, PayPal, Spiegel, T-Online, Twitter, web.de, Wikipedia, youTube. Die Selektion beruht dabei zum Teil auf den Top 100 Webseiten in Deutschland.
Erste Buttons
Die nachfolgende Übersicht zeigt eine erste Sammlung von Buttons der Webseiten von Amazon, Google, yahoo! und web.de. Ich habe mich dabei auf den primären Button, in diesem Fall immer die Suchfunktion betreffend, fokussiert.
Mein Master-Projekt wird nun immer konkreter. Nach meiner bisherigen Recherche zur Entwicklung des World Wide Web, präzisiert sich meine Vorstellung, welche theoretische Auseinandersetzung und welche praktische Umsetzung Teil meiner Arbeit werden können.
Mein Master-Projekt wird nun immer konkreter. Nach meiner bisherigen Recherche zur Entwicklung des World Wide Web, präzisiert sich meine Vorstellung, welche theoretische Auseinandersetzung und welche praktische Umsetzung Teil meiner Arbeit werden können.
Die erste Fragestellung innerhalb meines Master-Studiums beinhaltet bereits erste Gedanken meines jetzigen Ansatzes. Nichtsdestotrotz habe ich sehr breit recherchiert, da mir auf meinem Weg unzählige spannende Themen begegnet sind, die mich stets in eine neue Richtung gelenkt haben. Ich hatte viele Ideen von zu plump bis zu komplex und habe enorm viel Kraft in die theoretische Arbeit gesteckt. Ich habe viel gelesen und recherchiert, viel geschrieben und verworfen.
Während meiner Master-Zeit hatte ich ab und an das Gefühl den Wagen fälschlicherweise von hinten aufzurollen. Habe mich aber aus Leidenschaft nicht davon abbringen lassen.
Ich habe mir kein Thema XY ausgesucht für das ich nun ein passendes Medium für die praktische Umsetzung suche, sondern ich beschäftige mich von Anfang an mit dem Medium selbst. So liebe ich beispielsweise Netzkunst, weil sie oft eine besondere Art hat mit dem Medium Web umzugehen und eine außergewöhnliche, visuelle Sprache spricht. Ich interessiere mich für die Auflösung virtueller und nicht-virtueller Grenzen, die Veränderung der Gesellschaft durch die virtuelle Welt und für die Theorien von beispielsweise Flusser und McLuhan. Ich bin überzeugt davon, dass sich Schnittstellen zunehmend auflösen und eine neue Art der Kommunikation entsteht. Ich bin begeistert von neuen Technologien und mich bewegen Projekte, die Theorie und Praxis lückenlos verschmelzen.
Letztendlich merke ich jedoch, dass meine Gedanken häufig um ähnliche Themen kreisen. Dazu gehören wiederkehrend die Anfänge und die Entwicklung des World Wide Web, die mich sowohl visuell, technologisch als auch kulturell interessieren. Das Medium selbst wurde lange wie eines behandelt, das ausschließlich die nicht-virtuelle Welt in die virtuelle überträgt. Webseiten waren »Schaufenster« des realen Lebens, Buttons waren zum Teil rote Knöpfe mit Schrift und Baustellenschilder zeigten, dass die Webseite noch in Bearbeitung ist. Das Verständnis für das Medium wächst zunehmend und wir wissen zwischenzeitlich, dass Webseiten so gut wie immer »under construction« sind. Zum einen kann aus meiner Sicht erst eine spezifische, visuelle Sprache für ein Medium entwickelt werden, sobald das Medium verstanden wird – sprich, dass das Web kein Buch ist. Auf der anderen Seite frage ich mich, ob nicht gerade dieser spielerische Umgang mit einem unbekannten Medium – wie er in den 90er Jahren stattfand – die unantastbarste und »originalste« Sprache von allen spricht.
In meiner bisherige Recherche zeigt sich, dass sich die visuelle Sprache immer weiter von der materiellen Welt entfernt und sich das Web zunehmend zu einem eigenen Medium entwickelt. Neben visueller und kultureller Veränderungen, halte ich hierfür auch die technologischen Entwicklungen für sehr wichtig. So nutzte man teils solange wie nötig die default styles für z.B. Buttons und ersetzt sie nach und nach mit Grafiken und letztendlich Code.
Der bisher stärkste Ansatz ist meiner Ansicht nach eine Ausstellung anlässlich des 25-jährigen Jubiläums des freien Webs. Dabei kann ich mir zum einen eine interaktive Webausstellung vorstellen, aber auch eine nicht-virtuelle Exhibition mit gebauten Räumen voller Sternenhimmeltapeten und MIDI-Sound. Die Ausstellung könnte die Entwicklung des Web zeigen. Dabei wären aus meiner Sicht die visuellen Veränderungen im Vordergrund.
Ich möchte zum einen schon zum Teil gesammelte und katalogisierte UI-Elemente zusammenführen, um grafische Veränderungen deutlich zu zeigen. Die Elemente stammen dabei von verschiedenen Unternehmen, die auch in der Wayback Machine des Internet Archive zu finden sind: https://archive.org/web/. Ein erster Ansatz der Auswahlkriterien ist in meinem Beitrag »Evolution der Webästhetik« zu finden. Dabei steht noch offen, ob diese – dem Plan nach mehrere tausend – Elemente im Zentrum stehen oder einfach nur ein Pattern für die Ausstellung darstellen könnten. Zudem soll eine inhaltlich-kulturelle Komponente hinzukommen, die ich noch erarbeiten muss und eine poetische Ebene enthalten kann. Eine weitere Komponente könnte die Frage nach dem Danach sein, da ich mir unter anderem die Frage stelle, ob grafische Benutzeroberflächen durch neue Technologien wie z.B. Voice Interfaces ersetzt werden können.
An dieser Stelle wird mein Titel »Digitale Primaten« wieder mit der anfänglichen Bedeutung belegt. Nämlich, dass Menschen der Technologie noch immer hinterherhinken und wohl auch nicht mehr aufholen werden. Mein gewählter Arbeitstitel ist »digital primates – evolution of a medium« in englischer oder deutscher Form.
Vor längeren bin ich bereits auf das Carbon Design System aufmerksam geworden. Da vor kurzem ein Interwiew mit Bethony Sonnenfeld, Design Lead bei IBM, veröffentlicht wurde, habe ich nochmals mit dem System auseinandergesetzt. Carbon ist ein Designsystem, das für die Produkte der IBM Cloud entwickelt wurde.
Vor längeren bin ich bereits auf das Carbon Design System aufmerksam geworden. Da vor kurzem ein Interwiew mit Bethony Sonnenfeld, Design Lead bei IBM, veröffentlicht wurde, habe ich mich erneut mit dem System auseinandergesetzt.
Carbon ist ein Designsystem, das für die Produkte der IBM Cloud entwickelt wurde. Nachdem anfänglich nur ein überarbeitetes System für IBM Bluemix eingeführt werden sollte, wuchs der Wunsch, dass Carbon ein allgemeines, produktunabhängiges System wird. Im März 2016 wurde mit dem Umbau begonnen, seit Juni 2016 gibt es die Version 6.0, im Oktober 2017 wurde die aktuelle Version 8 des Systems veröffentlicht.
Im Interview mit Jason Grant stellt Bethony Sonnenfeld die Herangehensweise bei der Überarbeitung bzw. Neugestaltung des Systems vor. Sie erläutert die Motivation und Denkweise, sowie den Prozess selbst. Zwei für mich wichtige Punkte sind dabei die Verhaltensregeln sowie die Dokumentation. Die Verhaltensregeln zeigen, auf welchen Wegen und in welcher Art und Weise bestenfalls kommuniziert wird. Das betrifft unter anderem die zwischenmenschliche Umgangsweise. So wird beispielsweise auf die Selbstverständlichkeit hingewiesen, dass man trotz unterschiedlicher Ansichten respektvoll miteinander umgehen sollte. Zusätzlich schafft eine Übersicht der möglichen Kontaktmöglichkeiten Klarheit und vermeidet eine chaotische Kommunikation auf diversen Kanälen.
Die Dokumentation klärt viele Fragen rund um das Carbon Design System. Zu jedem Element gibt es Informationen, so dass viele Fragen überflüssig werden und bestenfalls auf allen Seiten Zeit eingespart wird.1 Dabei ist nicht nur ein reibungsloser Arbeitsauflauf wichtig. Wie Alla Kholmatova in ihrem Buch »Design Systems – A practical guide to creating design languages for digital products.« schon festhält, ist es vor allem in größeren Teams wichtig, die Elemente eindeutig festzulegen. Das verhindert beispielsweise, dass doppelte Bausteine aus unklaren oder unvollständigen Vorgaben entstehen und das System inkonsistent wird.
Für einen weiteren wichtigen Punkt halte ich die Nutzung von GitHub. Der Prozess ist sehr kontrolliert festgelegt, es müssen stets zwei Designer Änderungen absegnen. Damit kann trotz der Zusammenarbeit vieler sichergestellt werden, dass das System konsistent bleibt und den Spezifikationen entspricht.
Bethony Sonnenfeld betont, dass die Auswahl eines vorhandenen Designsystems von der persönlichen Präferenz abhängt. Sie basieren beispielsweise auf verschiedenen JavaScript-Softwarebibliotheken und als Unerfahrene würde sie ein System auswählen, das eine gute, saubere Code-Basis besitzt sowie User Experience-Richtlinen anbietet. Viele Systeme zeigen laut ihr viel zu wenig Anwendungsbeispiele, so dass man es als Nicht-Designer in der Umsetzung sehr schwer hat.2 Wobei ich mir hier die Frage stelle, wie »einfach« solche Systeme wirklich angelegt werden müssen. Aus meiner Sicht sollen sie den Arbeitsablauf von Designern und Entwicklern effizienter und schneller gestalten, die Berufe an sich jedoch nicht völlig ersetzen.
Mir persönlich gefällt das Carbon Design System vor allem im Hinblick auf das synchronisierte Arbeitsmaterial für Designer und Entwickler. Für Designer gibt es beispielsweise eine Sketch-Datei, die alle Elemente enthält. Für Systeme bzw. Frameworks wie Bootstrap gibt es zwar unzählige Sketch-Dateien im Web zu finden, dabei sind aber sicherlich nicht alle vollständig, sauber angelegt und vor allem nicht stets synchron. Abschließend finde ich es sehr spannend einen näheren Einblick in den Prozess erhalten zu haben, da er verständlich macht wie lange die Entwicklung eines solchen Systems inklusive der einzelnen Versionen und Verbesserungen benötigen kann. Das wirkt zum einen abschreckend, da in dieser Zeit natürlich auch die nötigen Ressourcen bereitgestellt werden müssen. Auf der anderen Seite zeigt es den zwischenzeitlich standardisierten Ablauf vieler Produkte, die erst auf den Markt gelangen, um dann stetig verbessert zu werden.
Quellen
Vgl. Sonnenfeld, Bethony, Integral: »UX Design Interview With Bethany Sonnenfeld, Design Lead at IBM for Carbon Design System«, URL: https://www.youtube.com/watch?v=HI-hvAjQc4A, TC: 00:13:50–00:15:15, abgerufen am 27.12.2017.
Bei meiner Auseinandersetzung mit Informationssystemen, Hypermedia sowie der Entwicklung des Internets stoße ich regelmäßig auf neue Namen, welche im Vorfeld des World Wide Webs richtungsweisende Konzepte und Arbeiten entwickelten. Mit manchen von ihnen habe ich mich bereits während meiner Recherche beschäftigt, andere muss ich leider bewusst außen vor lassen, um mich auf die wesentlichen Punkte meiner Arbeit zu konzentrieren.
Bei meiner Auseinandersetzung mit Informationssystemen, Hypermedia sowie der Entwicklung des Internets stoße ich regelmäßig auf neue Namen, welche im Vorfeld des World Wide Webs richtungsweisende Konzepte und Arbeiten entwickelten. Darunter einige mir bis dahin unbekannte, wie beispielsweise Andries van Dam, Eugene Garfield, Wendy Hall oder Ada Lovelace, sowie in der Allgemeinheit sicherlich bekanntere, wie Charles Babbage, Gottfried Wilhelm Leibniz, Ted Nelson, Alan Mathison Turing oder Konrad Zuse.
Die Namen stehen für die unterschiedlichsten Erfindungen: für Rechenmaschinen, den ersten Algorithmus, Hypermedia-Systeme oder Theorien über Computerentwicklung und Informatik. Die meisten haben jedoch eines gemeinsam: Sie sind thematisch zu weit von meinem Thema weg. Mit manchen von ihnen habe ich mich bereits während meiner Recherche beschäftigt, andere muss ich leider bewusst außen vor lassen, um mich auf die wesentlichen Punkte meiner Arbeit zu konzentrieren.
Abbildungen
Lloyd, Gregory: »Photo of the Hypertext Editing System (HES) console in use at Brown University«, Stand: Oktober 1969, via Wikimedia Commons, abgerufen am 30.9.2017, Lizenz: CC BY 2.0.
Science History Institute: »Photograph of Eugene Garfield, recipient of the 2007 Richard J. Bolte Sr. Award, at Heritage Day, May 9, 2007, at the Chemical Heritage Foundation.«, Stand: 9.5.2007, via Wikimedia Commons, abgerufen am 26.1.2017, Lizenz: CC BY-SA 3.0.
Mabbett, Andy: »Wendy Hall at the Wikipedia Science Conference, London 2/3 September 2015«, Stand: 2.9.2015, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 4.0.
Science Museum London/Science and Society Picture Library: »Babbages Analytical Engine, 1834-1871«, Stand: 28.8.2013, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 2.0.
Museum Herrenhausen Palace: »Leibniz‘ Vier-Spezies-Rechenmaschine – Original, um 1690«, Stand: 7.9.2013, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY 3.0.
Yates, Tom: »Bombe – Rebuild«, Stand: 17.4.2014, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 3.0.
Venusianer, Wikipedia Deutschland: »Nachbau der Zuse Z3 im Deutschen Museum in München«, Stand: 20.9.2006, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 3.0.
Der Dokumentarfilm (oder die Fantasy-Dokumentation) »Hyperland« aus dem Jahr 1990 wurde von Douglas Adams geschrieben und von Max Whitby produziert. In dem 50-minütigen Film geht es unter anderem um interaktives Multimedia sowie andere Technologien wie z.B. einen VR-Helm. Er zeigt dabei vorstellbare Ansätze für ein Hypermedium.
Der Dokumentarfilm (oder die Fantasy-Dokumentation1) »Hyperland« aus dem Jahr 1990 wurde von Douglas Adams geschrieben und von Max Whitby produziert. In dem 50-minütigen Film geht es unter anderem um interaktives Multimedia sowie andere Technologien wie z.B. einen VR-Helm. Er zeigt dabei vorstellbare Ansätze für ein Hypermedium.
Der Software-Agent stellt sich vor
Der Hauptdarsteller Douglas Adams schläft vor dem Fernseher ein und trifft in seinem Traum auf Tom Baker – die Personifizierung eines Software-Agenten. Mit der Frage, ob Adams gelangweilt vom linearen, nicht-interaktiven Fernsehen ist, tritt er mit Adams in Kontakt. Da jener aber überfordert mit dieser neuen Form der Kommunikation ist, fordert ihn der Agent auf, mit ihm zu interagieren. Baker beschreibt sich als eine Simulation, eine künstliche und komplett anpassbare Persönlichkeit, die nur als Anwendung in seinem Computer existiert.
Optisch an einen Butler angelehnt, präsentiert er sich dabei als selbstloser Assistent, der jederzeit für jede Art von Arbeit bereit ist. Er könne ihm sofortigen Zugang zu jedem Stück Information, das digital irgendwo auf der Welt gespeichert ist, ermöglichen: Jedes Bild, jeder Film, jeder Sound, jedes Buch, jede Statistik, jeder Fakt. Jede Verbindung zwischen allem, was er sich nur vorstellen kann.2
Als nächstes stellt der Agent die Konfigurationsoberfläche vor, von wo aus Adams alle Einstellungen vornehmen kann. Über eine grafische Benutzeroberfläche hat man die Wahl, wie der Assistent sprechen soll – ob forsch oder freundlich oder mit welchem Akzent –, was er an hat oder welche Spezies er sein soll.3 Es wird suggeriert, dass der Nutzer die komplette Kontrolle besitzt und alles erdenkliche auch möglich ist.
Bei der Frage, welchen Namen diese Software hat, nennt Tom Baker eine ganze Liste: Dynabook, Hyperspace, Cyberia, Infinite Virtual Address Space, Intelligent TV, Interactive Television, Interactive Multimedia oder Hypertext.4
Anlehnung an ein Hypermedium
Hyperland ist in seinem Aufbau selbst an ein Hypermedium angelehnt. So klickt sich Adams mithilfe seines Agenten über sogenannte Micons – ein Kunstwort aus Moving und Icons – durch den Informationsraum. Die geloopten Micons stehen dabei für eine Idee, ein Konzept oder ein Stück Information in irgendeiner Form.5
Neben diversen Beispielen interaktiver Systeme stellt Tom Baker Auszüge der historischen Entwicklung vor. So erwähnt er Vannevar Bushs Memex, Ted Nelsons Hypertext-Idee, die Gründung des MIT Media Labs und des Multimedia Labs, sowie Robert Abel,6 welcher als Pionier der Computeranimation und visueller Effekte7 oder sogar als Vater interaktiver Erfahrungen gilt.
Adams gelangt dabei zusammen mit Baker immer tiefer in die Informationssphäre, was am Beispiel des Atlantic Monthly, in dem Vannevar Bush seinen berühmten Essay »As We May Think« veröffentlichte, demonstriert wird. Douglas Adams wählt naheliegenderweise den Atlantik als nächstes Ziel. Hierüber gelangen sie zur Ökologie, Ozeanografie, Schifffahrt, Literatur und zu einem Live Feed. Der Live Feed zeigt als Quellen die Labrador-Basis und den Azoren-Gibraltar-Rücken. Auf Nachfrage, ob das wirklich live wäre, gesteht Baker ein, dass die Bilder 10 Sekunden Verzögerung hätten, was also live wäre.
Als weiteren »Tiefgang« wird die Sparte Literatur vorgestellt, welche passend zum Atlantik, assoziative Verknüpfungen zu Melville, Conrad, Hemingway, Coloridge, CS Forrester oder »Mehr« zeigt. Texte werden dabei parallel vorgelesen, da die Autoren scheinbar über Wasser schreiben.8
Im weiteren Verlauf werden verschiedene Systeme vorgestellt, so z. B. die interaktive Anwendung »Life Story – Demonstration Prototype« des MIT Labs. Auf den Film »Life Story« zugeschnitten, können beispielsweise spezielle Inhalte ausgewählt oder Transkriptionen abgerufen werden. Das Team bestand aus Steve Gano, Kristee Kreitman, Kristina Hooper, Mike Naimark und Fabrice Florin. Letzterer spricht im Interview davon, dass das interessante an Multimedia die Tatsache ist, dass man viele Stories zusammenführen kann. Es gibt nicht nur eine, sondern eine Verflechtung vieler. Diese Vielzahl macht aus seiner Sicht den Unterschied, so dass man von einer zur anderen wandert und den Themenkomplex aus unterschiedlichsten Blickwinkeln betrachten und miteinander vergleichen kann.9
Resümee
Für meine Nachforschungen hat der Film inhaltlich leider keinen großen Mehrwert. Zum einen liebe ich jedoch die Art und Weise, wie er umgesetzt ist. Zum anderen faszinieren mich die damaligen Ansichten, welche einerseits sehr zukunftsweisend wirken, andererseits aber sicher genau am Geist der Zeit liegen. Mitten im Aufbruch und längst auf dem Weg in ein neues Zeitalter.
Eugene Garfield ist unter anderem der Gründer des »Science Citation Index« (SCI) sowie der Erfinder des »Journal Impact Factor«. Der SCI ist eine Zitationsdatenbank, welche als Vorläufer des »Web of Science« zählt. Die Anfang der 60er Jahre erfundene Datenbank enthält Informationen darüber, welche Publikationen von welchen zitiert werden. Die systematische Erfassung der wissenschaftlichen Fußnoten macht damit Zitationszusammenhängen deutlich. Der Journal Impact Factor ist dagegen ein Art Ranking, welches die Häufigkeit der Zitationen – somit also den Einfluss auf andere Veröffentlichungen – angibt.
Eugene Garfield ist unter anderem der Gründer des »Science Citation Index« (SCI) sowie der Erfinder des »Journal Impact Factor«. Der SCI ist eine Zitationsdatenbank, welche als Vorläufer des »Web of Science« zählt. Die Anfang der 60er Jahre erfundene Datenbank enthält Informationen darüber, welche Publikationen von welchen zitiert werden. Die systematische Erfassung der wissenschaftlichen Fußnoten macht damit Zitationszusammenhänge deutlich.1 Der Journal Impact Factor ist dagegen ein Art Ranking, welches die Häufigkeit der Zitationen – somit also den Einfluss auf andere Veröffentlichungen – angibt.
Seine grundsätzliche Idee war dabei, so Alex Wright, dass man vergessen kann, was im Artikel selbst steht. Das wichtigste findet man in den Fußnoten und als eine Art Hyperlink kann man über sie den Pfaden aus Assoziationen folgen.2 Wright erläutert weiter, dass dieses Citation Ranking die direkte Basis für das heutige Google PageRank ist.3
Auch wenn ich Eugene Garfields Erfindung nicht in einer Sparte mit denen von beispielsweise Paul Otlet oder Vannevar Bush sehe, erkenne ich eine ähnliche Wertschätzung gegenüber assoziativen Verknüpfungen. Während sich Otlet und Bush auch dem »dazwischen«, nämlich den Informationen und dem Wissen zwischen den Verbindungen, widmen, hebt Garfield ausschließlich die Verknüpfungen selbst hervor. Auch Berners-Lee betont bei jeder Gelegenheit, dass man in einer extremen Sichtweise die Welt ausschließlich als aus Verbindungen bestehend sehen kann und er die Idee mag, dass jedes Stück Information nur durch dessen Beziehung zu anderen Informationen definiert wird.4 Auch wenn es im World Wide Web im Allgemeinen nicht um die Gewichtung von Inhalten geht – das übernimmt Google PageRank –, liegt der grundsätzliche Gedanke, nämlich dass eine Information durch eine andere definiert wird, sehr nah beieinander.
Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:33:49–00:35:40, abgerufen am 18.8.2017.
Vgl. Ebd., TC: 00:35:45–00:36:09.
Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 12.
Abbildungen
Science History Institute: »Photograph of Eugene Garfield, recipient of the 2007 Richard J. Bolte Sr. Award, at Heritage Day, May 9, 2007, at the Chemical Heritage Foundation.«, Stand: 9.5.2007, via Wikimedia Commons, abgerufen am 26.1.2017, Lizenz: CC BY-SA 3.0.
Das WordPress-Theme »The Ark« wird als »Best Rated Theme of All Time« angepriesen – aus meiner Sicht nicht umsonst. Mich hat in den letzten Jahren kein Theme so sehr überzeugt, weshalb ich meine Erfahrung teilen möchte.
Heute möchte ich dem WordPress Theme »The Ark« einen Beitrag widmen. Warum? Jahrelang habe ich mal mit guten, mal mit schlechten Themes gearbeitet und bisher hat mich keins so sehr überzeugt. Ich denke, dass es nicht umsonst als »Best Rated Theme of All Time«1 angepriesen wird. Der Beitrag basiert dabei auf persönlichen Erfahrungswerten und soll kein Tutorial darstellen.
Zu Beginn sei gesagt: Das Frustrationslevel liegt erstmal sehr hoch. Der Aufbau ist – bis hierhin – sehr unüblich und man weiß nicht, wo man was ändern und einstellen muss, um zum gewünschten Ergebnis zu kommen. Zusätzlich hatte ich bei der ersten Website, die ich mit diesem Theme umgesetzt habe (literaturarchiv1968.de), große Probleme damit, dass die (tatsächlich nur gefühlte) Standard-Antwort des Supports die war, dass custom code benötigt wird. Das Problem war hier nicht, dass ich es nicht per Code lösen hätte können, sondern dass ich mich ständig gefragt hatte, wofür ich ein so umfangreiches Theme mit scheinbar unzähligen Elementen benötige, wenn ich ohnehin die Hälfte selbst coden muss. Zum einen weiß ich nun, dass die Seite nach sehr vielen individuellen Lösungen verlangt hat. Zum anderen hat sich seitdem sehr viel durch Updates getan. Das Entwicklerteam ist dabei ein besonderes Plus. Die Antwortzeiten sind unheimlich kurz, das Team unheimlich hilfsbereit und die Entwickler stehen im ständigen Dialog mit der Community, um das Theme stetig zu verbessern. Das bedeutet natürlich gleichermaßen, dass es an einigen Stellen noch Verbesserungsbedarf hat.
Der Aufbau
Grundsätzlich baut das mobile-first-Theme auf Bootstrap auf, so dass zumindest die Logik sehr einfach zu verstehen ist. Des Weiteren arbeitet es mit dem »Fresh Builder« – einem sehr eingängigen page builder, mit dem man die Webseite via Klicks aufbaut. Dabei kann man nicht nur sehr schöne, sondern auch sehr gut funktionierende Websites in kürzester Zeit erstellen. Die Möglichkeiten sind dabei wohl unbegrenzt, da man sich die sections entweder selbst aus unzähligen Elementen zusammenstellt oder vorgefertigte section blocks als Vorlage verwendet. Jedes einzelne Element hat dabei viele, zusätzliche Einstellungsmöglichkeiten. Durch die global styles können ähnlich wie bei SketchApp Stile angelegt werden, die per Klick eingefügt werden. Zum Verständnis: Man kann sich damit beispielsweise eine große Headline anlegen, der wiederum durch Klicks einzelne, selbst zu erstellende Komponenten wie font-size, line-height, etc. zugeordnet werden. Dieses gesamte Headline-Element ordnet man nun den Überschriften zu, die so aussehen sollen. Zudem können zum einen Abschnitte wie Header, Footer oder die Titlebar mit dem Fresh Builder aufgebaut werden. Zum anderen Seiten, die man via Sitemap gestaltet. In der Sitemap können die einzelnen Seitentypen (Blog Archive, Blog Single, Page, …) global angelegt werden, so dass sie nicht wie in den meisten Themes über die PHP-Dateien geändert werden. Selbst die Übersetzungen durch das PlugIn WPML, eigene Felder durch das PlugIn ACF oder die Verwendung der sections für custom post types funktionieren hervorragend.
Das Grundprinzip Einfachheit
Vor allem die Funktionalität und Gestaltungsfreiheit spricht aus meiner Sicht für The Ark. Bisher hatte ich die Erfahrung, dass Themes häufig sehr eingeschränkt sind. So sehen sie auf den ersten Blick gut aus und spätestens beim mobilen Design müsste man die ganze Seite – aus visueller Sicht – neu schreiben. Ein weiteres Problem hatte ich häufig durch die Begrenztheit der Elemente. Zwar kann man bei der Entwicklung sehr viel selbst einbauen und z.B. für die einfache Bedienung durch den Kunden eigene Felder erstellen. Jedoch bin ich der Meinung, dass das Grundprinzip von WordPress Einfachheit bedeutet und die wird bei The Ark von Haus aus mitgeliefert.
Durch weitere Projekte wird mir das Theme immer zugänglicher und es ist erstaunlich, wie effizient man damit arbeiten kann. Alles in allem, trotz einiger Mankos, ein absolut empfehlenswertes Theme. Also ab, online mit euch: Klick Klick – Hallo Welt!
H. G. Wells ist ein englischer Schriftsteller und träumte von einem »World Brain«. In seiner gleichnamigen Sammlung aus Essays und Talks aus den Jahren 1936–1938 beschreibt er seine Vision einer neuen, freien, synthetischen, autoritativen und permanenten Welt-Enzyklopädie.
H. G. Wells ist ein englischer Schriftsteller und träumte von einem »World Brain«. In seiner gleichnamigen Sammlung aus Essays und Talks aus den Jahren 1936–1938 beschreibt er seine Vision einer neuen, freien, synthetischen, autoritativen und permanenten Welt-Enzyklopädie.1
Laut Alex Wright glaubt er daran, dass der Schlüssel Konflikte zwischen Ländern zu lösen darin liegt, den freien Fluss von Informationen zu ermöglichen. So käme es nämlich zu einem Ungleichgewicht, welches mit einem Art universellen Verständnis, wie die Welt funktioniert, wieder ausgeglichen wird.2
Weiter zitiert er H. G. Wells, dass das gesamte menschliche Wissen für jedes Individuum verfügbar gemacht werden könnte und das wahrscheinlich schon bald so sein wird. Zwar wurde Information mit dem Telefon oder Telegraf nur elektronisch und nicht digital, womit jedoch möglicherweise eine globale Enzyklopädie und ein Netzwerk der Wissensgenerierung geschaffen werden könnte.3 Alex Wright hebt hervor, dass Wells in seinen Beschreibungen eine Reihe von organischen Metaphern verwendet. So spricht er beispielsweise von einer Enzyklopädie mit zahlreichen Tentakeln und Ganglien.4
Eine erste Vorstellung war jedoch eine Welt-Enzyklopädie, die aus einer Reihe von Bänden besteht und im eigenen Haus oder zumindest in Häusern oder Bibliotheken in der Nähe gelagert wären und die auf dem aktuellen Stand gehalten werden würden. Die Inhalte wären dabei sehr sorgfältig ausgewählt.5
Mit seiner SciFi-Vision hielt Wells sogar einen Vortrag auf dem Weltkongress der universellen Dokumentation, welcher unter anderem das Ziel hatte, Ideen und Methoden zur Umsetzung des »World Brains« zu diskutieren.6
Sowohl H. G. Wells als auch Paul Otlet waren bereits 1933 bei diesem Kongress, jedoch ist unklar, ob sich die beiden dort getroffen hatten. Ähnlich wie Wells spricht jedoch auch Otlet von einem Schreibtisch der Zukunft, der ausgestattet mit einem Bildschirm sowie möglicherweise einem Telefon zulässt, Dokumente automatisch abzurufen.7
Weiter scheint der Autor Arthur C. Clarke von Wells inspiriert worden zu sein. So sagt er in »Profiles of the Future« vorher, dass Wells World Brain in zwei Schritten stattfinden würde. Der erste würde der Bau einer Welt-Bibliothek sein, welche für Jedermann per Computer-Terminal von zu Hause zugänglich sein würde. Diese Phase 1 sagte er für das Jahr 2000 voraus. In der zweiten Phase könnten Menschen mit dem World Brain als superintelligente AI interagieren und mit ihr diverse Probleme der Welt lösen. Die Welt-Bibliothek wäre dabei ein Teil des World Brains, welches 2010 komplett wäre.8 Auch Eugene Garfield konstatiert Wells Vision eine großartige Zukunft und prophezeit, dass der Science Citation Index ein Vorläufer dessen ist.9 Brian R. Gaines sieht sogar das World Wide Web als Erweiterung des World Brains, auf das Menschen nun mit PCs zugreifen konnten.10
Wie schon in meiner Ausführung über Paul Otlet hervorgebracht, finde ich es erstaunlich, wie früh schon an Konzepten und Gedankenexperimenten für einen universellen Informationsraums gearbeitet wurde. Umso deutlicher wird mir, dass der Status Quo des Webs noch lange nicht das erreichte Ziel ist. Ich habe bereits Teile von Ted Nelsons Kritik an der Umsetzung des World Wide Webs angeführt und auch Alex Wright sieht Otlets Vision in mancher Hinsicht als anspruchsvoller als das World Wide Web selbst. Zwar ist das Web tief verankert in unserem Alltag, nichtsdestotrotz ist es erst 30 Jahre alt. Da das in der Geschichte nur ein winziger Zeitraum ist, ist es tatsächlich fraglich, ob das Web in seiner heutigen Form überleben kann – selbst, wenn es unglaublich ist, dass nicht. Ein weiteres amüsantes Detail ist, dass Wells SciFi-Vision in der Welt der Wissenschaft angekommen ist und sogar als Redner Platz auf dem genannten Kongress gefunden hat.
H. G. Wells wird mich in meiner Recherche vermutlich nicht weiter voranbringen, seine Idee wird jedoch immerhin einen kleinen Nebenzweig meiner Dokumentation darstellen. Des Weiteren motiviert mich diese Auseinandersetzung, Arthur C. Clarkes Buch zu lesen, da ich den Autor schon durch »2001: Odyssee im Weltraum« zu schätzen gelernt habe.
Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:10:12–00:11:23, abgerufen am 18.8.2017.
Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 99, abgerufen am 28.9.2017.
H.G. Wells: »Cover of the book World Brain by H. G. Wells. Published by Methuen & Co Ltd, London, 1938.«, Stand: 26.2.2015, via Wikimedia Commons, abgerufen am 10.11.2017.
Bei der Recherche über das World Wide Web darf Ted Nelson nicht fehlen. Er prägt 1965 den Begriff Hypertext und schrieb von literarischen Maschinen, welche dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren. Zudem träumt er von einer utopischen Gesellschaft, in der Menschen alle Informationen teilen können und sich auf Augenhöhe begegnen. Die wahrscheinlich bekannteste Arbeit von Ted Nelson ist das Hypertext-Projekt Xanadu, welches 1960 seinen Anfang nahm.
Bei der Recherche über das World Wide Web darf Ted Nelson nicht fehlen. Er prägt 1965 den Begriff Hypertext und schrieb von literarischen Maschinen, welche dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren.1 Zudem träumt er von einer utopischen Gesellschaft, in der Menschen alle Informationen teilen können und sich auf Augenhöhe begegnen.2 Seine wahrscheinlich bekannteste Arbeit ist das Hypertext-Projekt Xanadu, welches 1960 seinen Anfang nahm.
Das Projekt Xanadu
Durch das Projekt Xanadu soll ein »Docuverse«, ein Universum aus Dokumenten, entstehen, welches es möglich macht, jegliche Literatur fest miteinander zu verflechten. Alex Wright beschreibt in seinem Vortrag, dass es bei Xanadu nicht nur um simple Verlinkungen geht, sondern um dynamische Beziehungen, wenn ein Abschnitt in einen anderen Abschnitt kopiert wird. Das Dokument lebt innerhalb des anderen weiter, jedes hat seinen Platz und wird dynamisch upgedatet.3
In einer Demonstration von Xanadu Space, der meinem Verständnis nach letzten Xanadu-Version vor der aktuellen OpenXanadu aus dem Jahr 2013, spricht Ted Nelson über seine ursprüngliche Hypertext-Idee. Als Schreibender sah er das Blatt Papier als Gefängnis, durch das der Text von vier Wänden eingesperrt wurde und aus dem Ideen entfliehen wollten. Klammern oder Fußnoten sind dabei erste Hinweise darauf, dass ein Bedarf besteht, Texte miteinander zu verbinden oder mit zusätzlichen Informationen zu versehen. Mit der Erfindung von Computern sah er die Möglichkeit, aus diesem Papiergefängnis zu entfliehen.4
Mit elektronischen Dokumenten sind viele Dinge möglich, die mit Papier nicht umsetzbar sind. Umso irrsinniger ist es aus seiner Sicht, dass alle versuchen Papier zu imitieren; so z. B. Adobes Acrobat oder Microsofts Word. Er kann nicht verstehen, wieso es nicht möglich ist Randnotizen zu machen, da er Parallelität als großen Vorteil elektronischer Schriftstücke sieht. Diese Parallelität macht es laut ihm einfacher, Texte zu schreiben und zu lesen.5
Xanadu sieht Nelson als Lösung des Problems. Bei seiner Präsentation zeigt er den dreidimensionalen Raum, der in seinem Beispiel aus elf Dokumenten und 27 Verweisen besteht. Neben den »Deep Links« für Inhaltsverknüpfungen, liefert er einen wichtigen Ansatz mit dem von ihm geprägten Begriff »Transklusion«.
Mit Transklusion ist die Verbindung zwischen einem Hauptdokument und einer Begleitseite gemeint. Dabei sind die Inhalte an verschiedenen Orten verfügbar und das Hauptdokument wird auf diese Weise mit weiteren Informationen verbunden.6 Dabei geht es nicht um einen Link zum ursprünglichen Inhalt, sondern um eine Wiederverwendung dessen.7 Das bedeutet, dass beispielsweise Änderungen im originalen Text, dynamisch im aktuellen Dokument geupdatet werden. Nelsons Beschreibung nach »ist die Transklusion das, was Zitat, Nachahmung und Querverweis lediglich versuchen. […] Alias und Caches sind Formen der Transklusion«8. Er bemerkt zusätzlich, dass Vannevar Bushs Idee des Memex mit Transklusionen anstelle von Links arbeitet.9
In Xanadu Space werden sie sichtbar, wenn man sich durch die Hauptseite klickt. Man erhält parallel die verbundene Information, die auf der Begleitseite im eigentlichen Kontext zu sehen ist.10 In diesem riesigen Kosmos aus Verknüpfungen, kann man einer Verbindung folgen und genau nachvollziehen, was sie bedeutet.11 Damit besteht der Informationsraum aus vielen Informationsatomen, die Klammern, Fußnoten oder Formulierungen wie »Wie schon erwähnt« überflüssig machen.
Unterschiede zum und Probleme mit dem World Wide Web
Ted Nelson hat offensichtlich ein Problem mit dem aktuellen Aufbau des World Wide Webs. So schreibt er beispielsweise in »I DON’T BUY IN«, dass das Web kein Hypertext ist, sondern nur dekorierte Verzeichnisse. Er fügt hinzu, dass es bei Xanadu ausschließlich um die Dokumentenstruktur geht, so dass Autoren und Leser nicht über Dateistrukturen oder hierarchische Verzeichnisse nachdenken müssen, sondern sich auf das wesentliche konzentrieren können. Gleichermaßen ist er der Ansicht, dass das Dokument und das MarkUp voneinander getrennt sein müssen, um den Inhalt nicht mit der Präsentation zu vermischen.12 Auf technischer Ebene sieht er einen fundamentalen Fehler des Webs darin, dass Links nur in eine Richtung führen. Er macht deutlich, dass es eine Alternative zum aktuellen Aufbau des World Wide Webs gibt und sie – vermutlich das Team und Xanadu-Anhänger – weiter dafür kämpfen werden.13
Offen gesagt fällt es mir schwer zu beurteilen, inwiefern Ted Nelson mit seinen Aussagen richtig liegt. In manchen Teilen meiner Auseinandersetzungen hatte ich das Gefühl, dass er den verlorenen Kampf nicht akzeptieren will und aus diesem Grund an mancher Stelle behauptet wird, dass Tim Berners-Lee seine Idee geklaut und schlecht umgesetzt hat. Auf der anderen Seite halte ich vor allem die Verwendung von Transklusionen für großartig und dem Web bei weitem voraus. Das treibt meiner Meinung nach den Gedanken einer völligen Vernetzung sinnvoll weiter. Auch die Verwendung bidirektionaler Links halte ich hierbei für einen Fortschritt. Ähnlich wie bei Bushs Memex sehe ich die Möglichkeit, Inhalte nicht nur miteinander zu verknüpfen, sondern Verknüpfungen nachvollziehen zu können. Hierdurch kann wiederum neues Wissen generiert werden.
Um diese Frage final zu klären, müsste ich mich durch die unzählig vorhandenen Dokumente über Xanadu arbeiten, was ich aus Zeitgründen nicht tun werde; dafür ist sie für mein gesamtes Masterthema letztendlich nicht wichtig genug. Jedoch werde ich mich eventuell in einem weiteren Beitrag der Frage widmen, inwiefern ein System wie Xanadu Auswirkungen auf das UI im Web hätte. Bisherige visuelle Eindrücke halte ich nämlich nicht für sonderlich praktikabel oder zumindest nicht für sehr ansprechend.
Abschließend möchte ich noch – völlig umkommentiert – weitere Begriffe für mich festhalten, die Nelson geprägt hat. Alex Wright erwähnt sie in seinem Vortrag und sie könnten möglicherweise zu einem späteren Zeitpunkt wichtig werden: stretchtext, zippered list, window sandwiches, indexing vortexes, part-punces, tumblers, collateral hypertext, Hummers, thinkertoys, fresh hyperbooks, anthological hyperbooks, grand systems.14
Quellen
Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 5.
Vgl. Ebd.
Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:44:40–00:45:56, abgerufen am 18.8.2017.
Vgl. Nelson, Theodor Holm, photonhunter: »Ted Nelson demonstrates Xanadu Space«, Stand: 6.9.2008, URL: https://www.youtube.com/watch?v=En_2T7KH6RA, TC: 00:30:00–00:01:20, abgerufen am 23.10.2017.
Vgl. Ebd., TC: 00:01:20–00:02:30.
Vgl. Ebd., TC: 00:03:12–00:04:52.
Vgl. Nelson, Theodor Holm; Project Xanadu; Keio University: »Xanalogical Structure, Needed Now More than Ever: Parallel Documents, Deep Links to Content, Deep Versioning and Deep Re-Use«, URL: http://www.xanadu.com.au/ted/XUsurvey/xuDation.html, Absatz 4, abgerufen am 23.10.2017.
Ebd., Absatz 6.
Vgl. Ebd., Absatz 9.
Vgl. Nelson, Theodor Holm, photonhunter: »Ted Nelson demonstrates Xanadu Space«, Stand: 6.9.2008, URL: https://www.youtube.com/watch?v=En_2T7KH6RA, TC: 00:03:12–00:04:52, abgerufen am 23.10.2017.
Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:46:53–00:47:46, abgerufen am 18.8.2017.
Die französische Kommunikationsagentur Reflet Communication zaubert eine Seite, die mich in ihrem Gesamterscheinungsbild und in ihrer Navigation sehr positiv überrascht.
Die französische Kommunikationsagentur Reflet Communication zaubert eine Seite, die mich in ihrem Gesamterscheinungsbild und in ihrer Navigation positiv überrascht.
Vollflächige Fotos, die beim Bewegen der Maus sachte mitschwingen, untermalt von leichtem Sound. Sehr wenige Wörter und dünne Grafiken, die der Navigation dienen und minimal animiert sind. Sie unterstreichen die leichte Anmutung. Auf jeder Seite steht ein Wort in großen serifenlosen Lettern. Mit gedrückter Maustaste kann man dieses Wort zur Phrase »ziehen«.
Erst durch Scrollen schiebt sich eine Ebene mit Textelementen über etwa 75 % des Bildschirms, so dass man nun mehr über die Agentur erfährt.
Insgesamt konzentriere mich dabei nur auf das Look and Feel der Seite und es macht Spaß mit ihr zu interagieren, hier und da ein paar Bewegungen auszulösen. Die Tiefeneffekte sind zum Teil großartig.
Inhaltlich bin ich mir noch etwas unschlüssig, ob man als Nutzer mehr Spaß am Spiel hat oder tatsächlich auf den ersten Blick erfährt, was die Agentur zu bieten hat. Jemandem mit ernsthaften, inhaltlichen Interessen steht aber ausreichend Text zur Verfügung.
Die Website ist unter anderem mit dem JavaScript-Webframework AngularJS gebaut.
Zur weiteren Recherche im Bezug auf Designsysteme arbeite ich mit dem Buch »Design Systems – A practical guide to creating design languages for digital products.« von Alla Kholmatova. Im Gesamten dient es als gute Grundlage, die die Umsetzung eines Designsystems in der Praxis zeigt.
Zur weiteren Recherche im Bezug auf Designsysteme arbeite ich mit dem Buch »Design Systems – A practical guide to creating design languages for digital products.« von Alla Kholmatova. Das Buch erscheint digital in zwei Hälften – eine Mitte des Jahres, die andere im September 2017. Anschließend liegt das Buch auch als Printausgabe vor.
Im Gesamten dient es als gute Grundlage, die die Umsetzung eines Designsystems in der Praxis zeigt. Mit vielen Beispielen von Unternehmen wie sipgate, TED, Airbnb oder FutureLearn wird verständlich, inwiefern sich die Erstellung der sowie die Arbeit mit Designsystemen von Team zu Team unterscheiden. Parameter wie z. B. die Team- und Projektgröße oder die generelle Arbeitsweise sind dafür entscheidend und müssen individuell gehandhabt werden.
In kleineren Teams hat der einzelne mehr Einblick und Verantwortung, in größeren müssen Verantwortlichkeiten eventuell anders verteilt werden.1 Zudem müssen die Designprinzipien für jeden verständlich sein. Das bedeutet entweder, dass im Team wirklich jeder weiß, welche Grundsätze gelten oder dass die fundamentale Gestaltungslinie eindeutig dokumentiert ist. Auch in der Anwendung der Systeme muss klar sein, ob die Regeln strikt oder eher locker eingehalten werden. Während beispielsweise bei Airbnb alles exakt festgelegt ist und die Pattern strikt angewendet werden müssen,2 sind bei dem kleineren Team von TED ein offener Umgang und mehr Flexibilität zu finde.3 Bei einer rigorosen Einhaltung der Regeln muss das Designsystem dementsprechend so gut konzipiert sein, dass die Gestaltung trotz Modularität nicht generisch wirkt.4
Bei der Dokumentation bzw. im allgemeinen Verständnis des jeweiligen Systems ist zudem das gemeinsame Sprachverständnis wichtig. So nennt sie das Beispiel eines Sequenz-Moduls.5 Dieses Modul sollte für jeden Sequenz heißen, nicht »Wizards Control« oder »Fancy Bubbles«.6 Des Weiteren sollten die Ausdrücke eindeutig so gewählt werden, dass man auch als Designer, der nicht bis in die Tiefen des Projekts involviert ist, weiß um welches Element es sich handelt. Neben dem klaren Einsatz des Elements werden Dopplungen durch Neugestaltung verhindert. Bestimmte Buttons wurden bei FutureLearn »Minions« genannt, ein großer Button heißt »Boss«7. Durch diese Benennung wird klar, dass es nur einen großen Button auf der Seite geben kann, da es nur einen Boss gibt. Diese metaphorische Benennung halte ich – insofern man für alle Elemente ähnliche Bezeichnungen finden kann – für sehr vorteilhaft. Ein weiteres Beispiel ist die »Whisperbox« sowie eine zugefügte Komponente namens »Boombox«. Schon im Wortlaut wird klar, welches der beiden zurückhaltend leise und welches prominent laut ist. Die Autorin schlägt generell vor sich vorzustellen, dass das Interface nicht visuell ist, sondern laut vorgelesen wird. Dadurch erkennt man schnell, ob man in Bezug auf die »Visual loudness scall« bereits ein Element der gleichen Lautstärke vorhanden ist.8
Kholmatova unterteilt die Pattern in zwei große Gruppen. Die funktionalen sowie die, die der Wahrnehmung zuzuordnen sind. Zur Unterscheidung kann man sich vorstellen, dass funktionale im HTML-, zweitere typischerweise im CSS-Code zu finden sind.9 Noch klarer macht sie es mit dem Beispiel eines Hauses, indem alle Möbel funktional dieselben sein können. Jeder hat etwa einen Tisch, ein Sofa oder ein Bett. Und doch macht der Stil den großen Unterschied, ob man sich in der Umgebung wohl oder sogar völlig fehl am Platz fühlt.
Insgesamt könnte ich noch unzählige weitere Absätze verfassen. Wenn man in diesem Bereich arbeitet, sind zwar einige Dinge nicht überraschend neu, dennoch fühlt es sich gut an sie zum einen gesammelt niedergeschrieben zu sehen und zum anderen einen Einblick in die Arbeit anderer zu bekommen. Vor allem die Methodik anderer Unternehmen zu verstehen, finde ich sehr spannend. Zudem gibt es natürlich trotzdem viele neue Erkenntnisse und das Buch hilft hervorragend die eigene Arbeitsweise zu analysieren und zu hinterfragen. Aus diesem Grund empfehle ich das Buch absolut jedem, der sich für Designsysteme interessiert.
Quellen
Vgl. Kholmatova, Alla: »Design Systems«, Freiburg 2017, S. 144.
An verschiedenen Stellen bin ich auf Doug Engelbart, Forscher an der Standford University, gestoßen. Eine seiner Visionen war, dass Hypertext als Werkzeug für die Arbeit im Team genutzt wird und dass Personen in einem sehr nahen und natürlichen Weg mit Maschinen kommunizieren können.
An verschiedenen Stellen bin ich auf Doug Engelbart, Forscher an der Standford University, gestoßen. Eine seiner Visionen war, dass Hypertext als Werkzeug für die Arbeit im Team genutzt wird und dass Personen in einem sehr nahen und natürlichen Weg mit Maschinen kommunizieren können.1 In den 60er Jahren erschuf er das kollaborative Hypertext-System »oN-Line System« (NLS) und gilt als Erfinder der Computermaus.2 Die Erfindung seiner Einhand-Tastatur mit nur fünf Tasten, sieht Licklider rückblickend sogar als eine der wahrscheinlich größten Erfindungen.3
Engelbart gilt als stark beeinflusst von Vannevar Bush und ist zudem Autor von »Augmenting Human Intellect: A Conceptual Framework« (1962).4 Damit ist die Fähigkeit eines Menschen gemeint, »sich einer komplexen Problemsituation zu nähern, Verständnis für seine speziellen Bedürfnisse zu entwickeln und Problemlösungen abzuleiten. Unter erhöhter Fähigkeit wird in diesem Zusammenhang eine Mischung aus Folgendem verstanden: schnelleres Verständnis, besseres Verständnis, die Möglichkeit, in einer bisher zu komplexen Situation einen brauchbaren Grad an Verständnis zu gewinnen, schnellere Lösungen, bessere Lösungen und die Möglichkeit Lösungen für Probleme zu finden, die vorher unlösbar schienen«5. Zudem sieht er die Wichtigkeit, dass Ahnungen, Ausprobieren, immaterielle Werte und das menschliche »Gefühl für eine Situation« sinnvollerweise mit den rationalen Gegebenheiten der elektronischen Hilfsmittel koexistieren.6
Seine Ausarbeitung gilt als Pionierarbeit seiner Zeit und seine Denkweise ist der Lickliders sehr nahe. Die auf den ersten Blick für meine Arbeit relevantere Entwicklung ist jedoch die des oN-Line Systems. Selbstverständlich kann beides nicht gänzlich getrennt voneinander betrachtet werden, da genau dieses System zur Erweiterung der menschlichen Intelligenz bestimmt war.7 Jedoch möchte ich mich nicht zu sehr in seinem sehr umfangreichen, theoretischen Konzept verstricken.
Das oN-Line System
Wie schon erwähnt ist das oN-Line System ein Hypertext-System. Der Prototyp wurde erstmals 1968 demonstriert und Alex Wright hält es im Wesentlichen für das Template für den modernen Computer.8 Ian Ritchie beschreibt wie Engelbart das System mit Headset-Mikrophon mittels 5-Finger-Tastatur und der ersten Computermaus der Welt demonstriert und zwischen Dokumenten und Graphiken weiter schaltet.9 Aus Ritchies Sicht war das Problem unter anderem das, dass ein Computer zu dieser Zeit mehrere Millionen Pfund kostete und damit als Heimcomputer nicht wirklich praktisch war.10 Wright erläutert weiter, dass das System bereits Hyperlinks und ein Videokonferenz-System enthält,11 was mir als sehr fortschrittlich erscheint. Es gilt als das erste System, das den praktischen Einsatz von mit Hyperlinks vernetzten Dokumenten, der Maus, Raster-Scan-Monitoren, nach Relevanz organisierten Informationen, einer Bildschirmverwaltung, Präsentationsprogrammen und anderen modernen Computing-Konzepten angewandt hat.12
Für mich immer wieder erstaunlich ist die Tatsache, wie früh daran gearbeitet wurde Informationen nach Relevanz zu sortieren und wie lange es gedauert hat bis es mit dem World Wide Web tatsächlich praktikabel für Jedermann umgesetzt wurde. Natürlich gibt es davor schon analoge Systeme, die sich wie im Falle von Paul Otlet durch die Verbindung von Inhalten abheben oder fiktive Anwendungen, die wie bei Vannevar Bushs Memex Assoziationen zwischen Dokumenten auf elektronischem Wege hervorbringen sollten.
Gleichermaßen lässt sich der Antrieb, neue Wege für die Organisation von Informationen zu finden, als logische Konsequenz der menschlichen Entwicklung sehen und sich in den historischen Kontext einordnen. So nahm neben der Fülle an Informationen auch die Abhängigkeit von eben diesen massiv zu. Wohlstand und Fortschritt sind in der Hypergeschichte, in der wir uns beispielsweise in Deutschland befinden, enorm an sie gebunden. Zudem sieht man in Tim Berners-Lee Konzept von Linked Open Data eine weitere Evolution, welche mich stark an »The World City« erinnert, mit der Paul Otlet das Wissen der Menschheit vereinen wollte. Auch bei Linked Open Data ist letztendlich das Ziel alle Daten zusammenzutragen, so dass sie nicht auf lokalen Rechnern oder in geschlossenen Systemen verloren gehen. Zwar unterscheiden sich Informationen und Wissen grundlegend, aber durch das Zusammenführen der Daten bzw. Informationen lässt sich nicht nur Wissen herauslesen, sondern sogar neues generieren. So werden nämlich Sachverhalte assoziativ verbunden, welche vorher nicht als zusammenhängend betrachtet wurden.
Diese abschließenden Gedanken bringen mir insofern neue Erkenntnisse für meine Arbeit, dass mir der Gesamtkontext nun immer klarer wird. Die Recherche über vergangene Entwicklungen, die zeitliche Einordnung sowie aktuelle Konzepte helfen mir enorm beim Verständnis. In diesem Zusammenhang wird mir zudem bewusst, das Informationsdesign eine große Rolle in meiner Arbeit spielen könnte.
Quellen
Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 6.
Vgl. Ebd., S. 50.
Vgl. Licklider, Joseph Carl Robnett, Yoshiki Ohshima: »Some Reflections on Early History by J.C.R. Licklider (VPRI 0093)«, Stand: 5.8.2015, URL: https://www.youtube.com/watch?v=SN–t9jXQc0, TC: 00:12:22–00:13:50, abgerufen am 20.8.2017.
Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:36:11–00:37:18, abgerufen am 18.8.2017.
Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:38:04–00:39:36, abgerufen am 18.8.2017.
Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:38:04–00:39:36, abgerufen am 18.8.2017.
Der Dokumentarfilm »ForEveryone.net« verbindet die Vergangenheit, Gegenwart und Zukunft des Webs. Unter anderem durch Umfragen, Interviews sowie Tim Berners-Lee als Erzähler selbst, schafft die Regisseurin Jessica Yu einen Film, welcher einen kurzen, aber präzisen Einblick in die Entwicklung und Grundideen des World Wide Web gibt.
Der Dokumentarfilm »ForEveryone.net« verbindet die Vergangenheit, Gegenwart und Zukunft des Webs. Unter anderem durch Umfragen, Interviews sowie Tim Berners-Lee als Erzähler selbst, schafft die Regisseurin Jessica Yu einen Film, welcher einen kurzen, aber präzisen Einblick in die Entwicklung und Grundideen des World Wide Web gibt.
Schon in den ersten Minuten bringen Jeff Jaeff, Daniel Weitzner und Peggie Rimmer die Wichtigkeit des Webs auf den Punkt. Jaeff beschreibt das Web als die transformierende Entwicklung überhaupt in unserer Zeit.1 Daniel Weitzner glaubt fest daran, dass es keine andere Technologie gibt, die so viel für freie Meinungsäußerung, Zugang zu Wissen und Demokratie getan hat als das Web.2 Peggie Rimmer sagt vorher, dass die Welt buchstäblich angehalten wird, wenn das Web untergeht.3
Vor allem die letzte Aussage wirft bei mir viele Fragen und Gedanken auf. Während wir uns langsam, Jahr für Jahr, an das Web gewöhnt haben, wäre der Untergang ein tatsächlicher – sicher zeitlich begrenzter – Untergang. Das Web ist so präsent und selbstverständlich, dass das Leben vieler massiv davon abhängt. Ganze Berufe und Branchen sind ausschließlich dem Web zu verdanken und selbst in Bereichen, welche nicht in erster Linie mit dem Web verbunden sind, wäre es fatal, wenn keine Kommunikation über das Web bzw. das Internet stattfinden könnte. Es geht dabei nicht nur um die tägliche Kommunikation via E-Mail oder das Gestalten schöner Webseiten als Beruf. Allein die Forschung, die durch den weltweiten Austausch von Daten massiv von der Vernetzung profitiert, wäre sicher um einiges zurückgeworfen.
Umso besser, dass Tim Berners-Lee eines Tages mit seinem Vater eine Diskussion über eine Idee des Vaters hatte. Berners-Lee erzählt die Anekdote, dass sein Vater nach Ideen suchte, um Computer intuitiver zu machen und Verbindungen zu vervollständigen, wie es das Gehirn kann. Computer sind gut in der logischen Organisationsverarbeitung, aber nicht darin Verbindungen zu schaffen. Dass Computer sehr viel stärker wären, wenn unverbundene Informationen verbunden werden würden, schlummerte weiter als Vision in Berners-Lees Hinterkopf. Laut ihm sind die Verbindungen wichtig und in einer extremen Sichtweise könnte man sogar sagen, dass alles nur aus Verbindungen besteht.4
Die Anfänge des Internets sind schon in den 60er Jahren zu finden, doch Informationen abzurufen oder einzuspielen war für Lieschen Müller unmöglich. Daniel Weitzner drückt es so aus, dass Berners-Lee viel Komplexität weggenommen hatte und das Internet durch das World Wide Web zugänglich machte.5
Das grundsätzliche Problem war nämlich die Inkompatibilität der Computer, weshalb sie oft nicht miteinander kommunizieren konnten. Bei CERN lag die Schwierigkeit schon darin, dass nicht einmal die Stromstecker untereinander kompatibel waren. Die Mitarbeiter kamen aus der ganzen Welt und da es keine strengen Reglements gab, arbeitete jeder an unterschiedlichen Rechnern. Da Berners-Lee irgendwann genug davon hatte, baute er einen eigenen Adapter, der so flexibel war, dass er alles tun kann, was er damit tun möchte. Daraus entstand die weitere Vorstellung, wie es wäre, wenn er seinen Computer so programmieren könnte, dass er einen Raum kreiert, in dem alles verlinkt ist. Jede Information, jedes Bit auf dem Planeten wären für ihn sowie jeden anderen verfügbar. Ein einziger Informationsraum.6
Welche Ideen hinter diesem Informationsraum stecken, so wie z. B. die Dezentralisierung oder die Arbeit mit möglichst wenigen Regeln, fasse ich bereits in »Vision eines Visionärs« zusammen.
Während durch meine bisherige Auseinandersetzung viele Dinge wie die Namensgebung des Webs, die freie Herausgabe von CERN oder beispielsweise die Magna Carta nicht neu für mich waren, fand ich einen neuen Anhaltspunkt in den Erzählungen von Tilly Blyth, Kuratorin des Londoner Science Museum. Sie erklärt, dass schon viele darüber nachgedacht haben, wie man Informationen kategorisieren, verlinken und teilen kann.7 Auf der Webseite des Museums finde unzählige weitere Informationen, die im weiteren Verlauf hilfreich werden könnten. Zudem nennt sie Ted Nelson, Vannevar Bush oder Paul Otlet, welcher die Idee eines physischen Platzes entwickelte, wo alle Informationen aufbewahrt und auf Anfrage abgerufen werden können.8
Insgesamt fühlt sich der Film wie eine Hommage an das Web an, welche es durchaus auch verdient hat. In den letzten Szenen wird Tim Berners-Lees Auftritt bei der Eröffnungsfeier der olympischen Spiele 2012 in London gezeigt, wo er als Erfinder des Webs vorgestellt und mit riesigen Lettern »THIS IS FOR EVERYONE« auf den Zuschauertribünen begleitet wird.9 Das unterstreicht seinen Kampf um das offene Web und die weltweite Verbreitung. Erst wenn jeder Mensch am World Wide Web teilnehmen wird und garantiert werden kann, dass das Web ein offener Informationsraum bleibt, wird Tim Berners-Lees Vision in so mancher Hinsicht erfüllt sein.
Quellen
Vgl. Yu, Jessica, Non-Fiction Unlimited: »ForEveryone.net«, USA 2016, URL: http://www.foreveryone.net/, TC: 00:00:40–00:00:45, abgerufen am 17.4.2017.
Vgl. Ebd., TC: 00:01:05–00:01:16.
Vgl. Ebd., TC: 00:01:30–00:01:35.
Vgl. Ebd., TC: 00:05:02–00:05:57.
Vgl. Ebd., TC: 00:07:20–00:07:32.
Vgl. Ebd., TC: 00:09:44–00:11:47.
Vgl. Ebd., TC: 00:06:15–00:07:20.
Vgl. Ebd.
Vgl. Ebd., TC: 00:23:32–00:33:56.
Abbildungen
Titelbild: Eigener Screenshot; Yu, Jessica, Non-Fiction Unlimited: »ForEveryone.net«, USA 2016, URL: http://www.foreveryone.net/, TC: 00:33:37, abgerufen am 17.4.2017./li>
Bei der Entstehung des World Wide Webs spielt die Erfindung des Internets die grundlegende Rolle überhaupt. Joseph Carl Robnett Licklider gilt als einer der wichtigsten Begründer, weshalb ich ihn in meine Dokumentation aufnehmen möchte.
Bei der Entstehung des World Wide Webs spielt die Erfindung des Internets die grundlegende Rolle überhaupt. Joseph Carl Robnett Licklider gilt als einer der wichtigsten Begründer, weshalb ich ihn in meine Dokumentation aufnehmen möchte. Meine Recherche über ihn war verhältnismäßig lange, da ich es sehr schwierig fand geeignete Materialien zu finden. Jedoch möchte ich meine Ergebnisse sehr gebündelt zusammentragen, da die detaillierte Entstehung des Internets kein Kernthema für mich darstellt. Aus diesem Grund habe ich mich bisher auch nicht im Detail mit seinen Büchern wie z. B. »The Dream Machine« oder »Libraries of the future« auseinandergesetzt. Innerhalb eines Vortrags von Hannes Högni Vilhjálmsson spielen seine Arbeiten »Man-Computer-Symbiosis« und »The Computer as a Communication Device« eine Rolle. Zudem dient mir »Brief History of the Internet« der Internet Society als Basis.
Advanced Research Projects Agency
Den Grundstein des Internets legt Licklider in den 60er Jahren bei seiner Arbeit für die ARPA (Advanced Research Projects Agency). Schon vor seiner Zeit bei ARPA (später DARPA) entstand 1960 seine Arbeit »Man-Computer-Symbiosis«. Dabei geht es nicht darum, dass der Mensch von der Maschine ersetzt oder mechanisch erweitert wird, sondern eine tatsächliche Symbiose entsteht.1 Einen Vorteil sieht er vor allen Dingen darin, dass die Maschine Aufgaben übernehmen kann, welche dem Menschen die Zeit für intellektuelle Arbeit rauben.2 In seinen Anforderungen für die Symbiose spricht er bereits in dieser Arbeit von »Networked thinking centers«, welche durch Aufteilung der Computerleistung verhindern sollen, dass zu schnelle und teure Computer nicht ausgelastet werden und nur wenigen Menschen dienen.3 Licklider ist davon überzeugt, dass Computer die Mensch-Mensch-Kommunikation verbessern können und vor allem die Beschleunigung von Arbeitsprozessen spielt bei seinen Gedanken eine Rolle.4
Ab 1962 ist er Leiter bei ARPA, wo er in den kommenden Jahren über das »Intergalactic Computer Network« nachdenkt, erste Experimente durchführt und Verbindungen mit seinen Mitarbeitern realisiert.5 Nachdem er 1967 seinen Plan für das »ARPANET« veröffentlicht, wird die Umsetzung einer Schlüsselkomponente, dem »Interface Message Processor«, ausgeschrieben. »BBN Technologies« realisiert ihn letztendlich und legt damit den Grundstein für das erste Rechnernetz im Jahr 1969, welches in den kommenden Jahren immer mehr Computer aufnimmt.6 Dieses Netz gilt als Vorreiter des Internets.
Wie eingangs erwähnt möchte ich mich nur kurz mit diesem Thema befassen, weshalb ich es ohne Reflexion oder Erkenntnisse mit in meine Dokumentation aufnehme.
Quellen
Vgl. Vilhjálmsson, Hannes Högni, RU Computer Science: »Pearls of Computation: „J. C. R. Licklider: Man-Computer Symbiosis on the Intergalactic Computer Network«, Stand: 13.2.2015, URL: https://www.youtube.com/watch?v=ncCPTgWX6a8, TC: 00:17:31–00:19:22, abgerufen am 24.8.2017.
Vgl. Ebd., TC: 00:23:23–00:25:10.
Vgl. Ebd., TC: 00:25:18–00:26:03.
Vgl. Ebd., TC: 00:36:16–00:37:31.
Vgl. Ebd., TC: 00:12:18–00:14:23.
Vgl. Leiner, Barry M.; Cerf, Vinton G.; Clark, David D.; Kahn, Robert E.; Kleinrock, Leonard; Lynch, Daniel C.; Postel, Jon; Roberts, Larry G.; Wolff, Stephen, Internet Society: »Brief History of the Internet«, »Origins of the Internet« URL: https://www.internetsociety.org/internet/history-internet/brief-history-internet/, abgerufen am 26.8.2017.
Im Zuge meiner Nachforschungen hinsichtlich der Entwicklung des World Wide Webs stoße ich häufig auf den Namen Paul Otlet. An diversen Stellen wird er als Pionier des Informationsmanagements oder als Wegbereiter des Webs oder Google genannt. Alex Wright, amerikanischer Autor und Informationsarchitekt, spricht in seinem Vortrag »The Web That Wasn’t: Forgotten Forebears of the Internet« bei UX Brighton über Paul Otlet sowie diverse andere Vorreiter des Internets.
Im Zuge meiner Nachforschungen hinsichtlich der Entwicklung des World Wide Webs stoße ich häufig auf den Namen Paul Otlet. An diversen Stellen wird er als Pionier des Informationsmanagements oder als Wegbereiter des Webs oder Google genannt. Alex Wright, amerikanischer Autor und Informationsarchitekt, spricht in seinem Vortrag »The Web That Wasn’t: Forgotten Forebears of the Internet« bei UX Brighton über Paul Otlet sowie diverse andere Vorreiter des Internets.
Die universelle Dezimalklassifikation
Der Belgier Otlet lebte von 1868 bis etwa Mitte des 20. Jahrhunderts und entwickelte seine Vision dementsprechend vor der Erfindung des ersten Computers. Ein zentraler Gedanke seiner Arbeit ist die systematische Anordnung, inhaltliche Verknüpfung und Darstellung menschlichen Wissens. Die bis dahin übliche Katalogisierung der Medien – weitestgehend Bücher – brachte ein großes Problem mit sich: Die Inhalte waren nicht ersichtlich. Das Ziel war also, ein System zu entwickeln, welches es zulässt, Inhalte zu extrahieren und sie auf intelligente Weise zu indexieren,1 um sie wiederum einfach verfügbar machen zu können. Basierend darauf entwickelt er zusammen mit Henri La Fontaine, beides Bibliothekare, die universelle Dezimalklassifikation, welches noch immer in fast ganz Europa von öffentlichen Bibliotheken verwendet wird2 und menschliches Wissen systematisch einteilt.
Wissen der Menschheit
Das bescheidene Ziel war es schließlich, das komplette Wissen der Menschheit seit Erfindung des Drucks zu sammeln und zu indexieren. Im Mundaneum war ab 1895 das »Institut International de Bibliographie« beheimatet,3 wo das Duo mit der Umsetzung dieser Vision begann. Die jahrzehntelange Arbeit wurde von der Regierung unterstützt und die Mitarbeiter versuchten absolut jede Information der Welt zu sammeln,4 um sie schließlich systematisch auf Karteikarten zu indexieren. Allein zwischen 1895 und dem 1. Weltkrieg entstanden so zehn Millionen Karteikarten,5 welche auch andere Medien wie Fotografien, Filme oder Audioaufnahmen mit einbezogen.6 Bis ins Jahr 1934 wurden mithilfe eines internationalen Netzwerks ganze 18 Millionen Karteikarten erstellt, welche innerhalb von Aktenschränken stolze 15.000 Zettelkästen füllten.7
Ab 1910 entstand das International Museum, das eher als Lehrinstitut als als Museum verstanden wurde. In 150 Räumen war Wissen thematisch sortiert aufbereitet und für die Öffentlichkeit zugänglich.8
The World City
Der Utopist ging gedanklich noch einen Schritt weiter. Er dachte über eine physische Manifestation der Informationen nach und arbeitete zusammen mit bekannten Architekten an Plänen für eine »World City«. Dessen Herz sollte das Mundaneum sein und unter anderem globale Universitäten oder ein Netzwerk von Museen beherbergen.9 Rund um das zentrale Mundaneum sollte ein Art Netzwerk fließender Informationen und Institutionen entstehen, welches durch Zweigstellen in der ganzen Welt unterstützt werden sollte. Die Aufgabe der Zweigstellen wäre die gewesen, Informationen des jeweiligen Landes zu verwalten, sie weiterzugeben und sie gegen Informationen aus der globalen Stadt einzutauschen.10
Inhaltliche Verlinkung
Alex Wright bewertet den Ansatz Otlets in mancher Hinsicht als anspruchsvoller als das World Wide Web selbst. Zwar wäre es heute unmöglich alle Informationen zu sammeln, doch das Web sei ein flacher Informationsraum ohne Organisationsprinzipien. Das macht es auf der einen Seite als offenes Medium aus, auf der anderen Seite sieht er genau das als Krankheit. Man käme etwas auf die Spur, Dinge verschwänden wieder, man müsse herausfinden, wem und was man vertrauen könne und es sei ohnehin unmöglich das große Ganze zu verstehen. Zudem fand Otlet sehr anspruchsvolle Wege Informationen zu verlinken, während Hyperlinks nur von A nach B führen, ohne dass man genau weiß in welcher Beziehung die Links zueinander stehen.
Otlet hatte dagegen eine ausgefeilte Syntax aus Zahlen und Zeichen, welche letztendlich zeigt, dass ein Dokument mit dem anderen übereinstimmt oder es in bestimmten Aspekten sogar erweitert. Aus Wrights Sicht besitzt das Web diese Art und Weise der Verbindungen noch nicht, obwohl viele Menschen daran arbeiten.11
Aus meiner Sicht ist die Vision Otlets ein wunderbarer Ansatz, um Informationen sammeln, organisieren und verbreiten zu können. Vor allem die globale Stadt, die sich letztendlich nur dem Fluss des menschlichen Wissens widmet, halte ich für großartig. Andererseits halte ich die Zentralisierung des Wissens aus heutiger Sicht nicht für den besten Ansatz. Dadurch, dass nur bestimmte Institutionen in den jeweiligen Ländern Informationen austauschen, wäre der freie Fluss sehr beschränkt. Man muss jedoch bedenken, dass ein digitaler Austausch wie heute natürlich noch nicht möglich war.
Mein Beitrag soll nur einen kurzen Einblick in Otlets Vision geben, um sein System besser verstehen zu können. Sollte es während meines Masters relevanter werden, möchte ich mich noch einmal detaillierter mit der tatsächlichen Systematik auseinandersetzen. Zudem werde ich meine Dokumentation durch einen kleinen Exkurs zu Otto Neurath erweitern. Er war österreichischer Design Thinker und an den Plänen der Stadt beteiligt.
Quellen
Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:14:34–00:15:14, abgerufen am 18.8.2017.
Vgl. Ebd., TC: 00:13:43–00:14:34.
Vgl. Tiny Big Story, in collaboration with Ikesu, Mundaneum: »Mundaneum – Small history of a big idea – Context EN«, Stand: 9.7.2015, URL: https://www.youtube.com/watch?v=flBcebZ7MCo, TC: 00:00:54–00:01:14, abgerufen am 18.8.2017.
Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:20:19–00:21:00, abgerufen am 18.8.2017.
Vgl. Ebd., TC: 00:21:00–00:21:30.
Vgl. Ebd., TC: 00:16:30–00:16:54.
Vgl. Tiny Big Story, in collaboration with Ikesu, Mundaneum: »Mundaneum – Small history of a big idea – Context EN«, Stand: 9.7.2015, URL: https://www.youtube.com/watch?v=flBcebZ7MCo, TC: 00:01:15–00:01:29, abgerufen am 18.8.2017.
Vgl. Ebd., TC: 00:01:59–00:02:26.
Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:17:14–00:18:40, abgerufen am 18.8.2017.
Im TED-Beitrag »The day I turned down Tim Berners-Lee« erläutert Ian Ritchie, wie sich das Web entwickelt hat und wie es dazu kam, dass er 1990 Berners-Lees Anfrage einen Browser zu schreiben, ablehnte. Da ich mich mit Teilen der Entwicklung schon beschäftigt habe und die Essenz seines Vortrags nicht sonderlich erkenntnisreich finde, interessiert mich vor allen Dingen seine Schilderung über Vannevar Bush und Doug Engelbart.
Im TED-Beitrag »The day I turned down Tim Berners-Lee« erläutert Ian Ritchie, wie sich das Web entwickelt hat und wie es dazu kam, dass er 1990 Berners-Lees Anfrage einen Browser zu schreiben, ablehnte.1
Da ich mich mit Teilen der Entwicklung schon beschäftigt habe und die Essenz seines Vortrags nicht sonderlich erkenntnisreich finde, interessiert mich vor allen Dingen seine Schilderung über Vannevar Bush und Doug Engelbart.
Ritchie erwähnt Bushs Artikel »As We May Think«, der 1945 veröffentlicht wurde. Er behauptet damals, dass die Art, wie wir Informationen nutzen, zerstört sei und wir als Menschen nicht wie Bibliotheken oder Katalogsysteme funktionieren würden. Das Gehirn arbeitet durch Assoziationen und springt zwischen einzelnen Gedanken hin und her.2 Auf dieser Grundlage entwickelte er 1945 die fiktive Maschine Memex, welche Informationen miteinander verknüpfen würde. Ein Memex hatte eine Plattform, auf der man Informationen verbinden und abrufen konnte. Der Computer war zu dieser Zeit noch nicht erfunden.3
Bushs Artikel inspiriert Engelbart, welcher später das oN-Line System baute, das zur Erweiterung der menschlichen Intelligenz bestimmt war. Er präsentierte es 1968 live auf einer Konferenz. Man sah wie er es mithilfe der 5-Fingertastatur und der ersten Computermaus bediente und zwischen Dokumenten und Grafiken wechselte.4 Während Computer zu dieser Zeit noch unerschwinglich waren,5 ändert sich das in den 80er Jahren mit dem Einzug der Heimcomputer. Ritchies Unternehmen OWL entwickelte in dieser Zeit das erste erfolgreiche Hypertextsystem, später folgt Apples HyperCard6 und schließlich die Erfindung des World Wide Webs durch Tim Berners-Lee.
Auf Bushs »As We May Think« bin ich schon häufiger innerhalb meiner Recherche gestoßen und Doug Engelbart hat beispielsweise Tim Berners-Lee in seinem Gespräch bei Sternstunde Philosophie erwähnt. Daher möchte ich mich im Weiteren zumindest grob mit beiden auseinandersetzen, um deren Ansätze besser zu verstehen.
Tim Berners-Lee erläutert in seinem TED-Vortrag »The next web« im Februar 2009, was genau unter seinem Konzept »Linked Data« zu verstehen ist und wie wichtig es ist, dass wir alle gemeinsam daran arbeiten, so viel Daten wie möglich im Internet bereitzustellen.
Tim Berners-Lee erläutert in seinem TED-Vortrag »The next web« im Februar 2009, was genau unter seinem Konzept »Linked Data« zu verstehen ist und wie wichtig es ist, dass wir alle gemeinsam daran arbeiten, so viel Daten wie möglich im Internet bereitzustellen.
Zunächst versucht Berners-Lee die Unterscheidung zwischen Dokumenten und Daten klarzumachen, da die bereits vorhandenen Dokumente im Web allgemein sicher auch als Daten verstanden werden.1 Daten müssen aber in einer speziellen, maschinenlesbaren Form aufbereitet werden, damit sie von Computern lesbar sind.
Er sieht ein, dass Daten zunächst langweilig erscheinen, weist aber darauf hin, dass sie enorm interessant werden, wenn man beginnt sie zu kombinieren.2 Er fordert das Publikum auf, sich vorzustellen, wie eine Welt aussehen könnte, in der alles, was man sich vorstellen kann in Form von Daten ins Web gespeist und verknüpft wird. Das ist das, was er linked data bzw. verknüpfte Daten nennt. Für die Erstellung von Daten nennt er drei wichtige Regeln. Nicht nur Dokumente, sondern alle Dinge, um die es in Dokumenten geht werden mit HTTP: beginnen und somit eindeutig benennbar sein.3 Die zweite Regel ist, dass man bei der Abfrage dieses HTTP:-Dokuments zusätzliche Daten erhält, die für die Anfrage relevant sind.4 Dass es allein um die Beziehung zwischen den Daten geht, sieht er als dritte Regel. So kann man die Daten effektiv Weise durchsuchen.5
Die Macht der Daten
Berners-Lee hebt mehrmals hervor, dass die Daten umso mächtiger werden, je mehr davon existieren und miteinander verbunden werden.6 Daher ist es für ihn so wichtig, dass es das Web ermöglicht, dass alle Arten von Daten eingespeist werden können: Ob Regierungsdaten, Unternehmensdaten, wissenschaftliche und persönliche Daten, Wetterdaten oder ganz andere Daten. Für ihn sind alles wichtige Daten.7
Um die Macht der Daten weiter zu unterstreichen, verdeutlicht er, wie wichtig sie für die Lösung der Herausforderungen der Menschheit sind. Wissenschaftler, die sich den Problemen stellen, können ohne Daten nicht ausreichend über das Web kommunizieren. Zudem wird laut Berners-Lee ein großer Teil des menschlichen Wissens in irgendwelchen Datenbanken verborgen, oft sogar auf Computern gelagert und nicht geteilt.8 Als anschauliches Beispiel nennt er die Forschung nach neuen Medikamenten gegen Alzheimer. Die Frage, welche Neuronen bei der Signalübertragung beteiligt und außerdem verwandt mit pyramidenförmigen Neuronen sind, liefert bei Google 223.00 Treffer mit null brauchbaren Ergebnissen, da keiner diese Frage je gestellt hat. In einer Datenbank mit verknüpften Daten lassen sich 32 Treffer, die alle auf die Ausgangsfrage zutreffen, finden. Auch die Querverbindung zwischen verschiedenen Wissenschaften sieht er als enorme Wende.9 Als weiteres Beispiel nennt er OpenStreetMap, das es jedem erlaubt, die Erde zu vermessen, einzutragen und Orte einzuspeisen. So kann jeder seinen Teil zu einem großen Ganzen beitragen.10
Der Begründer des Webs macht klar, dass Linked Data nicht nur große Institutionen angeht, sondern jeden einzelnen betreffen. Zudem fordert er beispielsweise Interoperabilität zwischen sozialen Netzwerken, um die Mauern zwischen ihnen abzubauen. Das müsse mit verknüpften Daten geschehen.11 Spätestens hier sehe ich viele zweifelnde Gesichter, mich selbst zum Teil mit eingeschlossen. Trotz der überzeugenden Beispiele und dem großen Wert, den ich in Linked Data erkennen kann, sehe ich vor allem die fehlende Privatsphäre durch Öffnung des Systems.
Alles in allem sehe ich jedoch überwiegend die Vorteile darin, einen großen allumfassenden Informationsraum zu schaffen, der nicht durch Silos voneinander abgegrenzt wird. Diesen Raum mithilfe von Daten zum semantischen Web aufzuwerten (Struktureller Aufbau des Webs und die Koexistenz von Mensch und Maschine ») halte ich zudem für einen enormen Fortschritt in der menschlichen Entwicklung, der die Masse an Informationen und Wissen in eine nutzbare Form bringen kann.
Im Gespräch mit Barbara Bleisch spricht Tim Berners-Lee in Sternstunde Philosophie über seine Erfindung, das World Wide Web. Dabei kommen Themen wie beispielsweise Linked Open Data, die World Wide Web Foundation, die Zusammenarbeit von Mensch und Maschine oder künstliche Intelligenz zur Sprache.
Im Gespräch mit Barbara Bleisch spricht Tim Berners-Lee in Sternstunde Philosophie über seine Erfindung, das World Wide Web. Dabei kommen Themen wie beispielsweise Linked Open Data, die World Wide Web Foundation, die Zusammenarbeit von Mensch und Maschine oder künstliche Intelligenz zur Sprache.
Eine gewaltige kulturelle Veränderung sieht der Begründer darin, dass Gruppen und Kulturen im World Wide Web von der Leidenschaft der Menschen bestimmt werden.1 Um diese durchbrochenen Barrieren vollständig zu nutzen, müssen wir laut ihm lernen, die neu gewonnene Freiheit zu nutzen. Er bewirbt dabei sein Konzept von Linked Open Data, indem er auf die Zusammenarbeit von Wissenschaftlern hinweist, die sich großen Herausforderungen wie die Bekämpfung von Krebs oder Alzheimer annehmen. Er sieht das Web als vernetzte Menschheit und wenn man in das Netz schaut, sieht man die Menschheit von ihrer guten sowie von ihrer schlechten Seite.2 Zudem ist er überzeugt davon, dass die Leute heutzutage »nicht mehr nur zum Spaß surfen, sondern es benutzen. Sie wissen, dass es riesig ist und kennen die Orte, die sie im Web mögen«3.
Die Erschließung des Planeten
Die Gründung der World Wide Web Foundation im Jahr 2008 basiert auf dem Wunsch, dass das Internet der Menschheit besser dienen soll. Ein wichtiges Ziel war die Verbreitung voranzubringen, da bei Aufnahme ihrer Arbeit erst 10, 15 % der Menschen Zugang zum Web hatten. Zur Zeit des Gesprächs (2015) waren immerhin schon 40 % versorgt,4 was ich noch immer als überraschend wenig empfinde. Er vermutet, dass in den kommenden 1–2 Jahre die 50 %-Marke überstiegen wird5 und durch eine kurze Recherche glaube ich, dass die Marke zurzeit geknackt werden dürfte.
Die Tatsache, dass nur etwa die Hälfte der Menschheit das World Wide Web nutzen kann, wirft bei mir unterschiedliche Gedanken auf. Zum einen wird es in seiner inhaltlichen Masse noch einmal enorm wachsen. Zudem bin ich gespannt, welche kulturelle Veränderungen vollzogen werden, wenn neben der entwickelten Welt andere Stimmen hörbar werden. Des Weiteren wird die Vernetzung mit der restlichen Welt sicherlich sehr viele neue Möglichkeiten eröffnen und einen enormen Fortschritt bedeuten.
Von der Künstlichen Intelligenz überholt
Tim Berners-Lee war schon immer darauf aus, Maschinen in sein System einzubinden. Er ist sich sicher, dass es sehr aufregend wird, wenn es ein gutes Datennetz gibt, welches Unmengen an Maschinen dazu bringen kann miteinander zu sprechen. Sie können dazulernen und verstehen wie die Welt funktioniert. Er ist überzeugt davon, dass wir ein Netz errichten müssen, in dem sich Mensch und Maschine die Aufgaben je nach Kompetenz teilen. Maschinen werden den schweren und die Menschen z. B. den kreativen Part übernehmen.6
Weiter sollten wir darauf gefasst sein, dass die künstliche Intelligenz so schlau wird wie wir Menschen. Früher konnte man sich nicht vorstellen, dass Computer Autos fahren oder Schach spielen. Beides ist nun der Fall und ähnlich ungläubig sind wir heutzutage, was die zukünftige Entwicklung der KI betrifft. Daher fordert er dazu auf, sich schon jetzt Gedanken zu machen, für den Zeitpunkt, wenn dieser Fall eintritt.7 Luciano Floridi sieht in dieser Turing-Revolution die 4. Revolution nach Kopernikus, Darwin und Freud. Er siedelt diese jedoch schon bei Turing an, da der Computer den Menschen schon längst z. B. in der logischen Informationsverarbeitung übersteigt.
Vorangegangene Entwicklungen
Als spannende vorherige Erfindungen nennt der Erfinder des Webs die Bulletin Boards, in die man sich mithilfe des Telefonhörers und einem Modem einwählen konnte. Außerdem erwähnt er Doug Engelbert und Vannevar Bush. Engelbert hatte das Internet nie namentlich erwähnt, sei aber durch die Idee Hypertext zu verwenden, Nachrichten zu versenden und Dinge zu verlinken, konzeptionell sehr nah dran. Bushs Idee der Memex erläutert Berners-Lee sehr praktisch. Memex wäre ein Tisch gewesen, an dem man Mikrofilme hätte lesen können. Am Ende wäre eine Verlinkung zum nächsten und durch einen Knopfdruck wäre ein ganzes mechanisches System in Bewegung gekommen und die Memex hätte einen vom einen zum nächsten Mikrofilm gebracht. Zudem hatte er die Idee Wissenschaftlern Zugang zum Human Record zu erleichtern. Das sind die Aufzeichnungen alldessen, was wir entdeckt haben. Zwar war seine Vision ohne tatsächliche Verwendung von elektronischen Computern, Berners-Lee ist sich aber sicher, dass er sich für die Forschung interessiert hätte.8
Utopische Räume
Einen sehr interessanten Ansatz lässt sich gegen Ende des Gesprächs finden. Auf die Frage, ob er seine Erfindung im Zusammenhang mit Problemen wie Datenschutz, Klimawandel, etc. sieht, hat er einen aus meiner Sicht sehr speziellen und guten Ansatz.
Er ist nicht der Meinung, dass das etwas mit utopischen Räumen zu tun hat. Solche Themen werden in einem wissenschaftlichen Umfeld diskutiert und in diesem Zusammenhang ist es wichtig, unsinnige Ideen von den guten zu trennen, um keine Zeit zu verlieren. Umso wichtiger ist es, dass Stimmen nach oben durchdringen, wenn tatsächlich ein Problem entdeckt wird. Er ist der Meinung, dass wir Systeme entwickeln, die nach Regeln funktionieren und keine utopischen Räume sind. Er ist sich sicher, dass man mit Hilfe von Auswahlsystemen diejenigen Menschen finden kann, welchen wir die richtigen Entscheidungen zutrauen und deren Stimmen wir vertrauen.9
Diese Überlegung finde ich insofern spannend, dass ich überzeugt davon bin, dass sich kompetentere Menschen finden lassen als diejenigen, die tatsächlich die Gesetze verabschieden. Nicht weil diese generell inkompetent sind, sondern weil sie sicher andere Schwerpunkte haben. John Perry Barlow bringt es so auf den Punkt, dass Menschen innerhalb der Regierung unter anderen Umständen geformt worden sind als die Leute, die die meiste Zeit virtuell verbringen. Wie soll jemand, der sich sonst für völlig andere Dinge einsetzt plötzlich entscheiden, ob irgendwelche Algorithmen so verwendet werden können, wie sie sind? Wie soll man ihnen Entscheidungen über das Land überlassen, wenn man vor der Entscheidung erst einmal die Technologie erklären muss? Hier wäre ein Zusammenschluss von wirklichen Experten, die sich tagtäglich unabhängig davon im World Wide Web bewegen, sehr sinnvoll.
Das und viele weitere Fragen tauchen regelmäßig auf, wenn ich mich mit der Arbeit und den Visionen von Tim Berners-Lee auseinandersetze. Erneut war dieses Gespräch sehr inspirierend, da es zum einen neue Gedankengänge öffnet und bei anderen Gedanken für Klarheit sorgt.
Quellen
Vgl. Berners-Lee, Tim, Das Weltrettungsforum, dem nichts heilig ist.: »Tim Berners Lee – Der Erfinder des Internets (Sternstunde Philosophie)«, Stand: 30.8.2015, URL: https://www.youtube.com/watch?v=1uErJzcr3fU, TC: 00:15:41–00:16:21, abgerufen am 8.7.2017.
Im Anschluss an meinen Text »Von der No-Layout-Ära zur wiedergewonnenen Fluidität des Webs« möchte ich mich kurz und knapp mit einem Artikel von Ethan Marcotte aus dem Jahr 2010 beschäftigen. Marcotte, Begründer des Terminus »Responsive Web Design«, beschreibt darin seinen Ansatz, Webseiten unabhängiger von ausgewählten Endgeräten zu entwickeln.
Im Anschluss an meinen Text »Von der No-Layout-Ära zur wiedergewonnenen Fluidität des Webs« möchte ich mich kurz und knapp mit einem Artikel von Ethan Marcotte aus dem Jahr 2010 beschäftigen. Marcotte, Begründer des Terminus »Responsive Web Design«, beschreibt darin seinen Ansatz, Webseiten unabhängiger von ausgewählten Endgeräten zu entwickeln. Er verfolgt dabei den Vorschlag mit Media Queries zu arbeiten, auf welche ich an dieser Stelle nicht weiter eingehen möchte. Sie sind zwischenzeitlich zum Standard-Werkzeug responsiver Gestaltung geworden.
Viel reizvoller finde ich seine Verknüpfung zwischen »responsive architecture« und der Gestaltung im Web. Dabei geht es grundsätzlich um die Frage, »wie physische Räume auf die Anwesenheit von Passanten reagieren können«1. Mit Bezug auf das Buch Interactive Architecture von Michael Fox und Miles Kemp, kristallisiert er den feinen Unterschied heraus: Es geht nicht darum unveränderliche Räume zu schaffen, sondern darum, dass sich die Nutzer und die Struktur gegenseitig beeinflussen können.2 Das ist vor allen Dingen wichtig, da das Web ein vergängliches Medium ist. Innerhalb weniger Jahre ändern sich Fensterbreiten, Bildschirmauflösungen, Benutzereinstellungen oder installierte Schriftarten.3 Viel mehr spricht er sich dagegen aus, das Design auf immer mehr unterschiedliche Endgeräte zuschneiden zu wollen. Er ist überzeugt davon, dass wir als Webdesigner »ein optimales Seherlebnis entwerfen und standardbasierte Technologien in unser Design einbetten können, um sie nicht nur flexibler zu machen, sondern auch an die Medien anzupassen, die sie rendern«4. Nur so kann man effektiv mit der Tatsache arbeiten, dass sich die Landschaft an angebotener Betrachtungsmöglichkeiten enorm schnell ändert.5
Wichtig ist Marcotte dabei nicht nur das visuelle Ergebnis, sondern auch die Möglichkeit die Benutzerfreundlichkeit verbessern zu können. So kann beispielsweise Fitts’ Gesetz über Touch-Geräte besser umgesetzt werden.6
Die drei technischen Zutaten für RWD
Als primäre Zutaten zur Umsetzung von responsiven Webdesigns sieht Marcotte flüssige Raster, flexible Bilder und Medienabfragen. Zudem ist eine andere Denkweise in Bezug auf das Medium erforderlich,7 das sich letztendlich sehr stark vom Printdesign unterscheidet und somit sehr viele neue Herausforderungen an den Gestalter herangetragen hat.
Abschließend ist der Ansatz der Media Queries aus heutiger Sicht eine Selbstverständlichkeit. Im Jahr 2010 war die Einführung des »Responsive Web Design« jedoch eine massive Neuerung. Schon zuvor gab es z. B. verschiedene Bildschirmgrößen oder -auflösungen und schon durch das iPhone, das 2007 auf den Markt kam, ist das Bedürfnis gewachsen, flexibler reagieren zu können. Langfristig macht es bei der Masse an Geräten aber natürlich keinen Sinn für jedes separate Versionen zu gestalten. In der Übergangszeit und auch bis heute, sieht man zudem Webseiten, welche komplett abgekoppelt für mobile Endgeräte entwickelt sind und sogar mit einer eigenen Subdomain angesprochen werden. In manchen Fällen macht das sicher nach wie vor Sinn, doch insgesamt sollte im Vordergrund stehen, sich anpassende Seiten zu gestalten, die auch die nächsten Endgeräte überstehen.
In Bezug auf mein Thema finde ich es außerdem sehr spannend, wie sich erneut Technologie, Design und das Bedürfnis der Menschen gegenseitig beeinflussen und Schritt für Schritt in ihrer Evolution voranbringen.
Eines meiner persönlichen Ziele während des Masters ist, mich in den Bereichen HTML und CSS, bestenfalls auch in JS, weiterzuentwickeln. Zurzeit widme ich der noch etwas neueren Spezifikation CSS Grid. Im März habe ich bereits am Meetup »Grids and Glory« von Sven Wolfermann in den Räumen von sipgate in Düsseldorf teilgenommen. Als weitere Grundlage dient mir das Tutorial »CSS Grid First Look« von Morten Rand-Hendriksen aud lynda.com. Generell bin ich gespannt, wie sich die visuelle Ästhetik des Webs in den nächsten Jahren durch diese neue Spezifikation evolviert.
Eines meiner persönlichen Ziele während des Masters ist, mich in den Bereichen HTML und CSS, bestenfalls auch in JS, weiterzuentwickeln. Zurzeit widme ich mich der noch etwas neueren Spezifikation CSS Grid. Im März habe ich bereits am Meetup »Grids and Glory« von Sven Wolfermann in den Räumen von sipgate in Düsseldorf teilgenommen. Als weitere Grundlage dient mir das Tutorial »CSS Grid First Look« von Morten Rand-Hendriksen auf lynda.com.
Nach der ersten Einarbeitung bin ich begeistert von den Möglichkeiten, die CSS Grid mit sich bringt. Zunächst muss man sich an die neue Terminologie gewöhnen, die das CSS Grid mit ins Spiel bringt. So gibt es neben »grid cells«, eine einzelne Zelle eingeschlossen von vier »grid lines«, sogenannte »grid tracks«, die den Bereich zwischen zwei horizontalen oder vertikalen Linien darstellt. Zusätzlich gibt es »grid areas«, die im Grunde aus mehreren zusammenhängenden Zellen bestehen. Es gibt noch weitere Begriffe, die zum Teil aber schon aus bisherigen Rastern bekannt sind.
Benennung von template areas oder grid lines
Neben einer neuen Terminologie gibt es natürlich neue Selektoren. Doch die Beschreibung der Eigenschaften ist das Wesentliche, was für mich wirklich neu ist. So können beispielsweise template areas oder grid lines, in denen die grid cells eingeschlossen sind, benannt werden. Das führt zum einen dazu, dass mithilfe »unserer Sprache« der Code und die einzelnen Bereiche übersichtlicher dargestellt werden. Zum anderen halte ich es jedoch für sehr wichtig, die Freiheit nicht zu sehr auszukosten. Die Benennung sollte eindeutig sein, so dass auch nachfolgende Entwickler die einzelnen Bereiche eindeutig erkennen können und keine Unklarheiten auftauchen. Da aber zum einen schon immer Klassen bzw. IDs selbst benannt werden konnten und zum anderen bereits standardisierte Begriffe für Webseitenbereiche vorhanden sind, sehe ich das nicht als wirkliches Problem.
Zusätzlich zu der Benennung ist die Einführung der repeat()-Funktion eine fundamentale Änderung. Muster können so durch Wiederholungen erstellt werden.
Die neue Einheit fraction
Die Einführung der Einheit »fraction« (fr) ist eine weitere wichtige Neuerung durch CSS Grid. Neben dem Vorteil, dass die ein oder andere Rechenarbeit entfällt, halte ich es vor allem für spätere Anpassungen für enorm wichtig. Soweit mein erster Eindruck stimmt, kann das Grid dadurch sehr schnell nachträglich geändert und z. B. mit zusätzlichen Spalten erweitert werden. Wenn zunächst nur mit der Einheit fr gearbeitet wird, genügt es weitere frs hinzufügen oder die Spaltenzahl durch weniger frs zu reduzieren. Insofern nicht einzelne Spalten pixelgenau oder in Prozenten angegeben sind, entfällt hier jegliche Rechnerei.
Wenn es für das Layout infrage kommt, kann fr selbst mit Angabe von genauen Maßen genutzt werden, da die Einheit grundsätzlich den übrigen Platz in Anspruch nimmt.
Veränderung der semantischen Ordnung durch CSS
Die wohl mächtigste Veränderung ist die Möglichkeit, die semantische Ordnung einfacher durch CSS verändern zu können. Elemente können zielgenau im Grid positioniert und mobile Seiten intuitiver gestaltet werden. Zudem zeigt Morten Rand-Hendriksen ein Beispiel, indem die semantische Ordnung von wichtig nach unwichtig sortiert ist. Ein Promo-Inhalt wird am Ende des HTML-Dokuments platziert, da er für den Inhalt irrelevant ist. Visuell wird er jedoch an den Anfang der Website gesetzt, um die Anzeige prominent zu bewerben.
Ästhetische Evolution durch neue Spezifikationen
Insgesamt ist es erstaunlich wie flexibel CSS Grid funktioniert und ich halte die Spezifikation für eine der größten Neuerungen der letzten Jahre. Mit der Unterstützung von Codecademy, w3schools und CodePen versuche ich noch spezifische Fragen für mich zu beantworten, jedoch bin ich mir sicher, dass man mit einiger Einarbeitung, sehr viel schneller äußerst flexible Grids erstellen kann. Aus visueller Sicht erhoffe ich mir zunehmend flexiblere Layouts, weg von dem Einheitsbrei der letzten Jahre. Selbst mit Frameworks wie Bootstrap kann man natürlich abweichende Layouts entwickeln, doch landet man viel zu oft an der einheitlichen Aufteilung von 2 bis 4 Spalten in der Desktopansicht, sowie der 12-Spaltigkeit bei mobilen Ansichten. Zwar macht diese Einteilung in vielen Fällen Sinn, jedoch bin ich davon überzeugt, dass sich das visuelle Bild des Webs in den nächsten Jahren deutlich ändern wird. Abschließend bin ich zum einen gespannt, in welche Richtung sich sowohl die Spezifikation des CSS Grids als auch das generelle visuelle Erscheinungsbild in den nächsten Jahren evolviert. Zudem bin ich sehr motiviert durch Tutorials, Lernportalen und ähnlichem weiter in die Materie einzutauchen.
Vor kurzem bin ich auf den Dokumentarfilm »What Comes Next Is the Future« von Matt Griffin gestoßen. Der Film setzt sich mit der Geschichte des Webs auseinander und wird von den Menschen, die bedeutende Figuren des Webs sind, erzählt. Darunter unter anderem Tim Berners-Lee, Eric Meyer, Ethan Marcotte, Brandon Eich oder John Resig. Mit den aus Interviews gewonnen Antworten, schustert Griffin einen Film, der kapitelweise auf unterschiedliche Themen eingeht.
Auf lynda.com findet man größtenteils Tutorials aus Bereichen wie z. B. Design, Entwicklung, Fotografie oder Web. Vor kurzem bin ich auf den Dokumentarfilm »What Comes Next Is the Future« von Matt Griffin gestoßen. Der Film setzt sich mit der Geschichte des Webs auseinander und wird von den Menschen, die bedeutende Figuren des Webs sind, erzählt. Darunter unter anderem Tim Berners-Lee, Eric Meyer, Ethan Marcotte, Brandon Eich oder John Resig. Mit den aus Interviews gewonnen Antworten, schustert Griffin einen Film, der kapitelweise auf unterschiedliche Themen eingeht.
Bei meiner Recherche stoße ich auf unzählige Timelines über die Entstehung des Webs, auf originale Dokumente oder kleine Zusammenfassungen. Zudem gibt es natürlich tausende Treffer inhaltlicher Natur, die sich auf Teile des technologischen oder visuellen Aspekts konzentrieren. Insgesamt stellt mich meine Suche jedoch noch nicht zufrieden, da es nur wenige ansprechende Auseinandersetzungen mit dem Web als Medium selbst gibt. Das macht den Film von Griffin so interessant für mich. Zum einen, weil die Entwicklung von Menschen erzählt wird, die sie miterlebt und beeinflusst haben. Zum anderen werden zum Teil genau die Aspekte angesprochen, für die ich mich interessiere.
Ein wichtiger Gesichtspunkt, der das Web fundamental ausmacht, wird dabei direkt zu Beginn angesprochen. Das Web wurde letztendlich als offener Informationsraum konzipiert, in dem es für Jeden möglich sein soll, etwas zu publizieren. Das ist für Dave Rupert, Co-Gründer von Paravel, die schönste Sache am Web: Man kann jederzeit Dinge veröffentlichen, die man selbst nützlich findet und Andere können daraus wiederum neues kreieren.1 Brad Frost, welcher Atomic Design entwickelt hatte, liebt den freien Fluss der Ideen, Informationen und Gedanken und betont, dass das vor dem Web unmöglich war.2 Dieser unaufhaltsame, geistige Fluss war auch für John Perry Barlow (Cyberspace als neue Heimat des Geistes ») eine essenzielle Eigenschaft des Webs. Ähnlich wie Barlow sieht Lyza Danger Gardner, Co-Autorin von »Head First Mobile Web«, eine offene Welt. Sie spricht davon, dass das Web keine Wände besitzt und die Kosten, um daran teilzuhaben, eher gering sind.3 Jeffrey Feldmann, unter anderem Autor von »Designing Web Standards«, sieht dagegen die technischen Hürden weiter sinken. Jeder kann zumindest Twitter und Facebook nutzen und hat so die Möglichkeit sich frei zu äußern. Zudem reicht es bei mehr Interesse für einen Tumblr-Blog oder sogar eine WordPress-Seite. Er findet die Tatsache, dass man responsive Webseiten machen kann, ohne überhaupt zu wissen, was die Wörter bedeuten, sehr bemerkenswert und gut.4 Diesen Aspekt finde ich extrem wichtig, da dadurch garantiert wird, dass jeder an dieser Welt teilnehmen kann. Bei solchen Aussagen muss natürlich immer von den vielen Menschen abgesehen werden, welche noch keinen Internetzugang besitzen oder in Ländern leben, wo viele Inhalte gesperrt sind. Die Erschließung des ganzen Planeten wird sicher einer Hauptaufgabe der nächsten Jahre sein.
Chris Wilson, welcher unter anderem an der Entwicklung des ersten Massen-Browsers Mosaic beteiligt war, erinnert sich dagegen noch gut an die Erschließung des Webs in der westlichen Welt. Er spricht davon, dass »wir keine normalen Menschen waren, welche das Web nutzten«5. Zwar gab es das Internet schon vor dem Web, doch es war sehr schwierig, an Informationen zu kommen. Daher bestätigt er Tim Berners-Lee in seiner Idee, dass es wirklich einfach sein muss, Zugang zu erhalten.6 Berners-Lee sieht den Schlüssel zum Web darin, dass es ein virtuelles System geben muss, dass über allen bereits vorhandenen Systemen liegt. Dieses große Hypertext-Buch wird via Internet zugänglich.7
No-Layout-Ära
Zu Beginn des Webs waren die Inhalte eher strukturierte Informationen, als wirklich gestaltete Seiten. Jen Simmons nannte das die No-Layout-Ära und die Darstellung der Inhalte war je nach Browser unterschiedlich.8 Eric Meyer erzählt, dass sich »Seiten gestalten« eher wie ein Witz anhörte.9 Der Designer David Siegel war es schließlich, welcher mit seinem Buch »Creating Killer Web Sites« einen Weg fand, Webseiten mit Tabellen zu gestalten.10 Dass das Buch, das 1996 erschien, im selben Jahr das meistverkaufte Buch bei Amazon war11 spricht Bände. Daran lässt sich erkennen, dass der Wunsch nach Gestaltungsmöglichkeiten riesig war. Ein erster Vorschlag für Cascading Style Sheets (CSS) wurde zwar schon 1993 gemacht, doch erst im Dezember 1996 wurde das CSS Level 1 veröffentlicht.12 Im ersten Moment funktionierten die Tabellen als erstes Grid, doch wie John Allsopp erklärt, gab es das Gefühl, dass es einen besseren Weg geben muss solche Anforderungen zu erfüllen.13 Christopher Schmitt sieht in der Nutzung von CSS eine Goldrausch-Ära. Jeder arbeitete daran durch CSS-Floats bessere Layouts erstellen zu können, so dass man die Gestaltung durch Tabellen endlich hinter sich lassen kann.14 Nichtsdestotrotz waren die Tabellen ein wichtiger Schritt auf dem Weg zur besseren Umsetzung. Eric Meyer sieht viele Dinge im CSS, welche darauf basieren, was Entwickler mit Tabellen-Layouts erstellt hatten.15
Flash als Prototype für CSS und JavaScript-Libraries
Viele Standards im Web basieren auf einer ähnlichen Herangehensweise, wie es mit der Übertragung von Tabellen auf CSS geschehen ist. Bedürfnisse werden experimentell mit vorhandenen Mitteln »irgendwie passend gemacht« bis aus ihnen langfristig neue Standards heranwachsen. Weitestgehend könnte man dabei von Prototypen sprechen, welche später in verbesserte, weniger komplexe Standards übertragen werden. Eine Aussage von Kelly Goto hat mich in Bezug auf Adobe Flash überrascht, selbst wenn sie absolut einleuchtend ist. Aus ihrer Sicht war die Arbeit mit Flash ein stückweit wie Prototyping. Flash gab vielen die Möglichkeit visuell für das Web zu denken. Als Werkzeug hat Flash den Prozess ermöglicht, dass kreative Personen Ideen ausdrücken konnten.16 Laut Aaron Gustafson gab Flash zudem die Möglichkeit mehr Kontrolle über die Gestaltung zu erhalten als mit CSS. Elemente konnten animiert und vereinnahmende Nutzererlebnisse geschaffen werden.17 Val Head sieht Flash auch als gute Chance herauszufinden, was das Web benötigt. Bei der Entwicklung einer neuen JavaScript-Library startete man somit zumindest nicht bei null.18
Eric Meyer sieht dagegen in Flash das komplette Gegenteil zum grundsätzlichen Aufbau des Webs. Der Ursprungsgedanke des Webs ist, dass die weite Verbreitung über der Konsistenz steht. Flash zu nutzen bedeutet jedoch, dass man alles oder nichts haben kann: Entweder man installiert Flash und hat ein konsistentes Nutzererlebnis oder man sieht im Gegenzug nichts.19
Letztendlich wurde die Ära Flash mit dem Erscheinen des iPhones 2007 eingeläutet. Das iPhone unterstützte kein Flash und Apple war überzeugt davon, dass alle Aufgaben mit HTML5 zu lösen sind. Das war ein entscheidender Einschnitt, da die Darstellung von Inhalten nun komplett zurück in die Hände der Browser bzw. des Codes gelegt wurde. Dieser Schritt vorwärts war gleichzeitig ein positiver Schritt rückwärts Richtung Web, das offen und zugänglich sein sollte.
Die Fluidität des Webs annehmen
Während das World Wide Web ursprünglich visuell sehr überschaubar war, wurde die Gestaltung zunehmend komplexer. Der Wunsch von Gestaltern mehr und mehr Einfluss auf die tatsächliche Darstellung zu nehmen wuchs und wirkte sich auch auf die Umsetzung aus. Tabellen und Frames wurden als Layout-Elemente verwendet, die Layouts selbst wurden immer statischer.
Ein entscheidender Beitrag von CSS ist der, dass Inhalt und Gestaltung getrennt werden. Dadurch kann der Fokus beim HTML-Dokument ausschließlich auf die inhaltliche Struktur gelegt werden. Mit CSS Zen Garden entstand im Mai 2003 ein Projekt, das das Ziel hatte zu zeigen, was alles einzig mit CSS möglich war. Das HTML-Dokument blieb dabei immer gleich und zugehöriges CSS konnte eingeschickt werden. Lyza Danger Gardner spricht von einem Art ersten universellen Gefühl dafür, was diese Trennung tatsächlich bedeuten kann.20 Kelly Goto bezeichnet das sogar als großen Moment, der alles im Web änderte und das Kreativitätslevel auf eine völlig neue Ebene anhob.21
Obwohl Tantek Çelik erklärt, dass CSS vorwärts-kompatibel für verschiedene Bildschirmgrößen angelegt war und Seiten somit auf verschiedenen Bildschirmen funktionierten,22 wurde diese Kompatibilität aus meiner Sicht durch fix angelegte Layouts zerstört. Nichts sollte dem Zufall überlassen werden und alles perfekt aussehen.
Mit dem Erscheinen des iPhones wurde das Web aus Kevin M. Hoffmans Sicht stark vermenschlicht. Es war immer dabei und man hatte nicht mehr das Gefühl online gehen zu müssen. Diesen Punkt empfand Tim Berners-Lee schon zu Beginn als sehr störend (Struktureller Aufbau des Webs und die Koexistenz von Mensch und Maschine »). Gleichzeitig wuchs das Bedürfnis nach mobiler Gestaltung deutlich und krempelte alles um. Während Jonathan Snook noch davon spricht, dass es ok war, dass man sich nur um zwei Auflösungen (1024 x 768 px und 320 x 240 px) kümmern musste,23 empfand es John Allsopp langfristig als eher unüberschaubare Aufgabe. Er fragt sich, wie weit es gehen soll und wann wir damit aufhören für jedes Endgerät einzelne Versionen zu entwickeln.24
Einen fundamentalen Fortschritt erreicht Ethan Marcotte, der 2010 den Begriff Responsive Design prägte. Ihm war die Wichtigkeit von flexiblen oder fluiden Layouts bewusst. Zudem musste der mediale Inhalt innerhalb dieser Layouts funktionieren. Mit den Mediaqueries aus CSS3 erreicht er, dass alles in allem responsiv funktioniert und ebnet damit den Weg für eine neue Dimension der Webgestaltung.
Auch Macrotte betont die Tatsache, dass das Web als flexibles Medium angelegt wurde und Designer und Entwickler das Extra an Komplexität in das Medium brachten. Er sieht es als wirklich flexibles, komplett anpassbares Medium, für das wir auch so gestalten sollten.25 Aus seiner Sicht, funktioniert die Industrie umso besser, je weniger wir versuchen die Darstellung zu kontrollieren.26 Jonathan Snook fügt hinzu, dass wir das Web umso einfacher verwalten können, wenn wir die Fluidität des Webs annehmen.27
Zugänglichkeit von Informationen
Die Entwicklung von Apps habe ich bisher – abgesehen vom Aufwand für die Bereitstellung auf verschiedenen Plattformen – als eher unproblematisch angesehen.
Durch Apps wird jedoch die Zugänglichkeit von Informationen stark eingeschränkt. Aus Sicht von Tim Berners-Lee treten die Leute damit in die Falle, dass sie denken eine App ist interaktiv und schneller. Doch bei Apps für beispielsweise Magazine ist es unheimlich wichtig, dass die Beiträge nicht ausschließlich in einem Programm landen, sondern offen im Web zugänglich sind. Ein essenzieller Bestandteil des Webs ist der, dass man Inhalte miteinander verknüpft. Einen Magazinbeitrag in einer App kann man dagegen ohne URL nicht einfach verlinken oder teilen.28
Çelik sieht zudem das Problem, dass jedes Programm evaluiert wird, bevor es – teilweise Tage später – zum Download bereitsteht. Man solle sich vorstellen, wenn man bei jeder Änderung einer Webseite tagelang warten muss, bis die Änderung akzeptiert wird. Den gleichen Standpunkt vertritt Lyza Danger Gardener. Nämlich das genau das das Web ausmacht: Wenn man etwas publizieren möchte, publiziert man das – ohne Autorisierung oder Bewertung des veröffentlichten Inhalts.29 Das würde nämlich wieder die Frage aufgreifen, wer dazu überhaupt legitimiert wäre, über die Veröffentlichung von Inhalten zu entscheiden (Verformung der Gesellschaft »).
Die Einzigartigkeit der Unbeschränktheit
Dass man etwas ohne »Pförtner« publizieren kann empfindet auch Alex Russell als sehr elementar. Ob es letztendlich jemanden interessiert oder nicht, ist erstmal irrelevant. Keine Möglichkeit zu haben sich zu äußern, wäre dagegen viel schlimmer. In dieser Unbeschränktheit sieht er die Einzigartigkeit des Webs. Er sieht das Web als das demokratischste System unserer Generation.30
Tim Berners-Lee spricht davon, dass es unser Web ist und fordert uns auf, dass wir alles dafür tun müssen, dass das Web weiterhin offen bleibt. Denn das ist nach wie vor keine Selbstverständlichkeit.31
Resümee
»What Comes Next Is the Future« von Matt Griffin ist aus meiner Sicht ein großartiger Zusammenschnitt der Web-Stimmen der letzten drei Jahrzehnte. Erst während des Films ist mir aufgefallen, was für ein Privileg es ist, dass noch so viele »originale« Stimmen zu hören sind. Das Web ist so selbstverständlich in unserem Alltag verankert, dass es nicht mehr wegzudenken ist. Gleichermaßen ist es noch so jung, dass Griffin den Begründer des Webs selbst, Tim Berners-Lee, interviewen konnte. Mit Brandon Eich als Entwickler von JavaScript oder Chris Wilson als Mitentwickler des Browsers Mosaic werden weitere Menschen gezeigt, welche das World Wide Web richtungsweisend beeinflusst haben. Das Schöne daran ist, dass der Film klar macht, dass wir nach wie vor in einer enormen Entwicklungsphase sind. Vor wenigen Jahren war der Ausdruck Responsive Webdesign noch nicht bekannt, erst seit kürzerer Zeit gibt es das CSS Grid, welches die Gestaltung weiter vereinfachen soll. Das Web entwickelt sich weiter und weiter und diese Evolution mitzuverfolgen ist großartig, da man nicht weiß, was der nächste Schritt sein wird. Wie viel wird sich noch einmal fundamental ändern? Wird es das Web in seiner Form weiter geben? In welche Richtung könnte es sich verändern?
Da ich die Auseinandersetzung mit der Vergangenheit sehr wichtig finde, um die jetzige Situation in ein Gesamtbild zu bringen und weitere Veränderungen abzusehen, möchte ich weiter in diese Richtung recherchieren. Unter anderem möchte ich mich mit dem Begriff »The next Web« auseinandersetzen. Zudem bin ich durch den Film auf Ethan Marcotte aufmerksam geworden dessen Aussagen mir in vielerlei Hinsicht zusagen. Auch mit ihm möchte ich mich weiter beschäftigen.
Der Artikel »Five things we’ve learned about the future of digital rights« präsentiert fünf zentrale Thesen, die sich in einer Diskussion von führenden Experten des »Stockholmer Internet Forums« herauskristallisiert hatten. In der Gesprächsrunde ging es darum wie sich die Zivilgesellschaft den Herausforderungen stellen kann, welche neue Technologien mit sich bringen. Dabei waren Themen wie Cybersicherheit, Kontrolle personenbezogener Daten oder algorithmischen Transparenz im Vordergrund.
Der Artikel »Five things we’ve learned about the future of digital rights« präsentiert fünf zentrale Thesen, die sich in einer Diskussion von führenden Experten des »Stockholmer Internet Forums« herauskristallisiert hatten. In der Gesprächsrunde ging es darum, wie sich die Zivilgesellschaft den Herausforderungen stellen kann, welche neue Technologien mit sich bringen. Dabei waren Themen wie Cybersicherheit, Kontrolle personenbezogener Daten oder algorithmische Transparenz im Vordergrund.1
Als erste These wird aufgeführt, dass Regierungen das Internet bedrohen, sobald es vom Internet bedroht wird. Gbénga Sèsan klärt auf, dass in Ländern teilweise das komplette Internet durch die Regierung abgeschaltet wird, um unrechtmäßig Kontrolle auszuüben. Häufig werden Hassreden oder Fehlinformationen als Ausrede vorgeschoben.2 Die Kontrolle einzelner, vor allem durch die Regierung oder Unternehmen, widerspricht dabei grundsätzlich der Vision des Erfinders des Internets.
Lisa Garcia führt die zweite These an, welche sich damit auseinandersetzt, dass sich Regierungen gezielt in Online-Diskussionen einklinken und versuchen sie zu steuern. Während des Wahlkampfs auf den Philippinen gab es sogar eine »Armee von Tastaturkriegern«, welche offiziell viele Botschaften verbreitet und Kritiker und Journalisten belästigt hat. Sie hält daher Medienkompetenz, vor allem für Leute, die zum ersten Mal online sind, für extrem wichtig.3
Die dritte These betrifft vor allen Dingen das Internet der Dinge. Wenn alles mit allem verbunden ist, werden komplexe ethische Fragen aufgeworfen. So muss es Lösungen geben, wer Zugang zu den Daten hat, wofür sie verwendet werden und wie sich die Entscheidung auf das Leben auswirkt.
Solana Larsen stimmt bedenklich, da zu große Komplexität lähmen kann. Daher ist es extrem wichtig, dass Experten die Menschen aufklären, damit sie zum einen das digitale Leben verstehen und zum anderen die Kontrolle übernehmen können.4
Malaviya Jayaram warnt davor, dass Länder mit niedrigen Einkommen zu Testgebieten werden. Westliche Praktiken werden dabei ohne die nötigen Schutzmechanismen übernommen. So war beispielsweise in Indien das Problem, dass Fingerabdrücke von landwirtschaftlichen Arbeiten aufgrund der Abnutzung der Finger nicht gelesen werden konnte und damit der Zugang zu wichtigen Dienstleistungen verhindert wurde.5
Die letzte These bringt Renato Rocha Souza hervor. Er setzt sich dafür ein, dass Algorithmen transparent sein müssen. Menschliche Entscheidungen, ob beispielsweise ein Darlehen vergeben wird oder wer zu Universität zugelassen wird, werden zunehmend von Algorithmen übernommen und dadurch massiv von den Vorurteilen der Entwickler sowie den nötigen Daten bestimmt. Das Problem ist dabei, dass man als Konsument kein Wissen darüber besitzt, was in den Berechnungen vorgeht. Damit könnte man die Technologie ablehnen oder ihr blind vertrauen.6
Die Thesen eröffnen mir den Weg für neue Gedanken. Es ist absurd, dass viele Länder noch immer keinen Zugang zum Web besitzen, während es für uns schon lange die größte Selbstverständlichkeit ist. Da ich davon überzeugt bin, dass unsere Entwicklung dadurch um ein vielfaches rascher vorangeht, klaffen die Welten dadurch noch weiter auseinander. Eine weitere Schwierigkeit sehe ich, ähnlich wie Garcia, in der fehlenden Medienkompetenz. Selbst der westlichen Welt fehlt hier sicher noch einiges an Kompetenz, doch konnte sie sich immerhin – parallel zur Erfindung des Webs – langsam an das neue Medium gewöhnen. Und trotz der anfänglichen Euphorie war die neue Welt im Web glücklicherweise überschaubarer und mit weniger Gefahren ausgestattet. Jemand, der nun zum ersten Mal online ist, wird sicher seine Probleme haben und zunächst sehr unkritisch mit dem Medium umgehen. Die Arbeit der World Wide Web Foundation beeindruckt mich daher sehr und ich hoffe, dass sie einiges damit bewegen kann.
Die World Wide Web Foundation fasst die grundsätzlichen Ideen des Webs sehr präzise zusammen, weshalb ich erneut grob auf sie eingehen möchte. Die Ideen und deren Umsetzung sollen ermöglichen, dass das Web weiter ein offener Informationsraum für alle bleibt.
Bei meiner Nachforschung bezüglich der Geschichte des Webs, finde ich – das liegt in der Natur der Sache – natürlich Dopplungen zu den Inhalten mit denen ich mich bereits beschäftigt habe, wie z. B. in dem Beitrag »Vision eines Visionärs«.
Die World Wide Web Foundation fasst die grundsätzlichen Ideen des Webs sehr präzise zusammen,1 weshalb ich darauf erneut eingehen möchte.
Grundsätzliche Ideen des Webs
Dezentralisierung
Wichtig ist, dass es keine Erlaubnis benötigt, etwas im Web zu publizieren. Das bedeutet gleichermaßen, dass man auch frei von willkürlicher Zensur und Überwachung sein muss.
Nichtdiskriminierung
Jeder sollte unabhängig von finanziellen Möglichkeiten in der Lage sein am Web teilzuhaben. Dieses Prinzip der Gleichheit ist als Netzneutralität bekannt und die Beibehaltung dieser ist zur Zeit ein großes Thema in den Medien.
Bottom-Up-Design
Das Web wird gemeinsam gebaut und nicht von einer kleinen Gruppe kontrolliert. Jeder kann teilnehmen und experimentieren, um das Web weiter voranzubringen.
Universalität
Jeder sollte in der Lage sein, etwas im Web zu äußern. Das sollte unabhängig von der Hardware, dem Wohnort, der Kultur oder politischen Neigungen möglich sein.
Konsens
Um Universalität zu erreichen, muss ein gemeinsamer Konsens gefunden wird. Jeder kann durch einen transparenten, partizipativen Prozess beim W3C das Web mitgehalten.
Diese Ideen sind sinngemäß von der World Wide Web Foundation übernommen. Die Ideen und deren Umsetzung sollen ermöglichen, dass das Web weiter ein offener Informationsraum für alle bleibt. Dass das Web von niemandem kontrolliert wird und jeder ein Teil davon sein kann, sind enorm wichtige Voraussetzungen, um das Web in seiner offenen Form beibehalten zu können.
Anlässlich zum 28. Jahrestag des World Wide Webs erscheint ein Brief von Tim Berners-Lee auf der Webseite der Web Foundation mit dem ich mich kurz auseinandergesetzt habe. In den vergangenen 12 Monaten beobachtet er drei kritische Trends, welche es anzupacken gilt, damit sich Web als Werkzeug für die gesamte Menschheit entfalten kann.
Neben dem Verlust über die Kontrolle unserer Daten, sieht er die Möglichkeit falsche Informationen im Netz zu verbreiten und die Undurchschaubarkeit und das Unverständnis über politische Werbung im Web als kritische Punkte.
Anlässlich des 28. Jahrestags des World Wide Webs erscheint ein Brief von Tim Berners-Lee auf der Webseite der World Wide Web Foundation, mit dem ich mich kurz auseinandergesetzt habe.
Seine ursprüngliche Vorstellung, dass das World Wide Web eine offene Plattform ist, die es jedem ermöglicht von überall Informationen auszutauschen oder über geografische und kulturelle Grenzen hinweg zusammenzuarbeiten, hat sich seiner Auffassung nach in vielerlei Hinsicht verwirklicht. In den vergangenen 12 Monaten beobachtet er jedoch drei kritische Trends, welche es anzupacken gilt, damit sich das Web als Werkzeug für die gesamte Menschheit entfalten kann.1
Neben dem Verlust über die Kontrolle unserer Daten, sieht er die Möglichkeit falsche Informationen im Netz zu verbreiten und die Undurchschaubarkeit und das Unverständnis über politische Werbung im Web als kritische Punkte.
Die Herausgabe unserer Daten gegen kostenlosen Content ist bereits ein viel diskutiertes Thema. Der Begründer des Webs sieht die Problematik zum einen darin, dass die Daten in Nirgendwo verschwinden und für uns unsichtbar sind. Zum anderen hätten wir Vorteile, wenn wir selbst darüber entscheiden könnten, wann und mit wem sie geteilt werden.2
Als weiteren Kritikpunkt sieht er, dass Regierungen Unternehmen nötigen, um jeden unserer Schritte verfolgen zu können und entwickeln Gesetze, die unser Recht auf Privatsphäre verletzen.3
In meinem Beitrag »Cyberspace als neue Heimat des Geistes« bezweifele ich bereits John Perry Barlows Vorstellung, dass wir unsere Meinung frei äußern können ohne in Schweigen oder Konformität gezwungen zu werden. In einigen Ländern ist die freie Meinungsäußerung nach wie vor sehr gefährlich und selbst in einem vermeintlich liberalen Land wie Deutschland gibt es gehäuft Diskussionen über Meinungsfreiheit und Zensur im Netz. Die nicht vorhandene Konformität sehe ich vor allem durch den entstehenden gesellschaftlichen Druck, wenn Inhalte weit gestreut werden können.
Berners-Lee empfindet vor allem die Tatsache, dass Bürger beobachtet werden als sehr abschreckend auf die freie Meinungsäußerung. Das verhindert, dass das Internet als freier Raum genutzt wird, um wichtige sensible Gesundheitsprobleme, Sexualität oder Religion zu erkunden.4 Dass das World Wide Web nicht frei als Informationsquelle genutzt werden kann bzw. nur mit der Sorge im Hinterkopf, dass jeder Schritt gespeichert wird, verletzt den Ursprungsgedanken des Webs, welches als freier Informationsraum konzipiert wurde.
Der zweite Punkt, den Tim Berners-Lee anspricht, steht aus meiner Sicht dem dritten Punkt sehr nah.
Basierend auf immer besseren Algorithmen werden uns auf Social-Media-Seiten und Suchmaschinen Seiten angezeigt, die uns höchstwahrscheinlich gefallen werden. Pro Klick verdienen die Unternehmen Geld und generell können sich dadurch auch Fake News wie ein Lauffeuer verbreiten. Durch den Einsatz von Data Science oder Bots kann dieses System perfektioniert und mit schlechten Absichten ausgenutzt werden.5
Während ich Nachrichten im Social Media außen vor lasse, möchte ich auf die Schwierigkeit eingehen, welche sich aus meiner Sicht bei Suchmaschinen ergibt. Unabhängig davon welche Suchmaschine man nutzt – primär wird Google wohl die Maschine der Wahl sein –, steckt ein gewinnorientiertes Unternehmen dahinter. Dass die Alphabet Inc. mit ihren Angeboten Geld verdienen möchte, sehe ich generell als nicht allzu problematisch an und daher kann man die Schaltung von Anzeigen bei Google oder die Bevorzugung einzelner Webseiten nicht ankreiden. Nichtsdestotrotz sehe ich das Unternehmen nicht nur in Bezug auf die Speicherung von Daten als kritisch an. Auch die Ausbreitung ihrer Angebote in sämtliche Lebensbereiche finde ich bedenklich, da dadurch sehr viele verschiedene Daten an einer Stelle gespeichert werden und ein ganzheitliches Bild der Menschen abzeichnet. Doch das Hauptproblem liegt nicht darin, dass Alphabet Geld verdienen möchte und das mit einer stetigen Verbesserung ihrer Algorithmen und Angebote auch schafft. Das Problem liegt meiner Ansicht nach in der aktuellen Alternativlosigkeit. Keine Karte zeigt besser den Stau und Alternativrouten an, als Google Maps und wer bietet umsonst eine Suchmaschine an, die bestrebt ist immer bessere Ergebnisse zu liefern? Welche Alternative gäbe es, alle Webinhalte in einer Suchmaschine zu durchforsten, ohne dass irgendjemand am Ende der Leitung Profit daraus schlägt? Sei es finanzieller Natur oder ein staatliches Interesse. Ich spreche mich nicht dafür aus, dass das Alphabet-Universum weiter wachsen soll, indem man sich zurücklehnt und das Ganze akzeptiert. Sämtliche Versuche meinerseits andere Suchmaschinen, Karten oder Kalender zu nutzen scheiterten jedoch mangels guter Alternativen.
Der letzte kritische Trend, den Berners-Lee in seinem Brief aufgreift, setzt sich mit der politischen Werbung im World Wide Web auseinander. Allein bei den US-Wahlen 2016 sind 50.000 verschiedene Anzeigen auf Facebook aufgetaucht. Berners-Lee nennt den Fakt, dass die meisten Menschen Informationen von nur wenigen Plattformen nutzen und die politischen Kampagnen auf Grundlage der persönlichen Daten individualisiert werden können. Neben tatsächlicher Information können auch Fake News so einfach verbreitet werden, dass unterschiedliche Personen jeweils unterschiedliche Aussagen vorfinden.6
Die Verbreitung von Fake News war rundum die US-Wahl ein brisantes Thema und Trump selbst nennt bis dahin als seriös geltende Medienunternehmen Fake Media. Meinem Empfinden nach nutzen Amerikaner soziale Netzwerke noch exzessiver als wir es in Deutschland tun, was die Netzwerke für das Verbreiten von Fake News absolut beliebt macht. Und wenn man den ganzen Tag von Fake News liest, wer weiß schon, was am Schluss wirklich Fake News sind? Wenn ich von zehn unterschiedlichen – bis dahin unbekannten – Nachrichtenunternehmen jeweils dieselbe Nachricht angezeigt bekomme: Glaube ich es irgendwann oder bin ich tatsächlich resistent? Was erstmal wie ein schlechter Witz klingt, kann aus der Ferne aber leider nicht wirklich nachvollzogen oder bewertet werden.
Tim Berners-Lee sieht die Probleme als sehr komplex an und weiß, dass die Lösung nicht einfach sein wird. Erste Ansätze sieht er darin mit den Web-Unternehmen zusammenzuarbeiten, damit ein faires Maß an Datenkontrolle entstehen kann. Zudem sieht er den Kampf gegen die Überwachungsgesetze der Regierung als sehr wichtig. Weiter muss gegen Fehlinformationen vorgegangen werden, in dem »Pförtner« wie Google und Facebook ermutigt werden, sich weiter für die Bekämpfung des Problems einzusetzen, um die Bildung zentraler Organe, die darüber entscheiden was wahr und was falsch ist zu vermeiden. Die Transparenz der Algorithmen ist außerdem essenziell, um zu verstehen wie wichtige Entscheidungen, die unser Leben beeinflussen, gemacht werden.7
Alles in allem sehe ich die kritische Entwicklung ähnlich und das spiegelt auch die Themen wider, über die häufig in den Medien berichtet wird. Beruhigend ist, dass durch den Brief zumindest das Gefühl entsteht, dass dort Leute an einer wichtigen Stelle sitzen, die sich um die Lösung solcher Probleme bemühen. Als einzelner ist das ohne Boykott nur schwierig und nach sämtlichen Datenskandalen hält der Aufschrei ohnehin nur für kurze Zeit an. Bis zum nächsten.
Quellen
Vgl. Berners-Lee, Tim, World Wide Web Foundation: »Three challenges for the web, according to its inventor«, Stand: 12.3.2017, URL: https://webfoundation.org/2017/03/web-turns-28-letter/, Absatz 1, abgerufen am 28.4.2017.
In der Episode »Hypercard Maker« von Computer Chronicles aus dem Jahr 1987 stellen Bill Atkinson und Dan Winkler das Hypertext-System HyperCard vor. Das World Wide Web erinnert mich in einigen Eigenschaften stark an HyperCard, weshalb ich das System näher kennenlernen möchte.
In der Episode »Hypercard Maker« von Computer Chronicles aus dem Jahr 1987 stellen Bill Atkinson und Dan Winkler das Hypertext-System HyperCard vor. Zusammen haben sie den Software-Baukasten innerhalb von Apple entwickelt, welcher 1987 veröffentlicht wurde. HyperCard ist eins der ersten funktionierenden Hypermedia-Systeme.
Das World Wide Web erinnert mich in einigen Eigenschaften stark an HyperCard, weshalb ich das System näher kennenlernen möchte.
HyperCard ist ein Informationssystem und besteht aus einzelnen Karten, welche Texte, Grafiken oder Buttons darstellen können. Die Buttons können dabei unter anderem zu weiteren Informationen führen, Anrufe tätigen oder Töne abspielen.1 Das wichtige ist laut Bill Atkinson, dass die Karten sowohl Informationen als auch Interaktionen beinhalten können.2
Die einzelnen Karten werden als »Stacks« gruppiert, die man über Floppy-Disks mit anderen teilen kann.3 Es gibt jedoch auch die Möglichkeit, eigene zu kreieren.4 Die mitgelieferten Templates, »Art Ideas« oder z. B. Button-Librariers unterstützen den Nutzer dabei, eigene Karten und Stacks anzulegen.5
Die Informationen können thematisch organisiert und die Verbindungen zwischen den Karten völlig frei definiert werden.6 So kann man beispielsweise auch Grafiken miteinander verbinden, indem man Buttons auf bestimmte Teile der Grafik legt und zur nächsten Karte mit dem gleichen Inhalt verlinkt. Als Beispiel zeigt Bill Atkinson eine Karte mit einer Pferdekutsche, die bei einem Klick auf das Rad wiederum auf die nächste Karte, die ein Rad enthält, wechselt.7 Durch diese freie Organisation, lassen sich Informationen laut Atkinson sehr eng miteinander verbinden. Auch To-Do-Listen mit Terminen und der Verlinkung zu der dazugehörigen Adresse werden als Beispiel genannt.8
Wichtig ist laut Dan Winkler, dass man für die Arbeit mit HyperCard keine Programmierkenntnisse benötigt, außer man möchte die Buttons selbst modifizieren. Möglichkeiten wären hier z. B. visuelle oder auditive Effekte.9 Sonst ist der unerfahrene Nutzer aber auch in der Lage, Buttons über die Benutzeroberfläche einzubauen.10 Für die Programmierung von Buttons wird die Sprache Apple HyperTalk benutzt. Über eine Box, die an das Terminal erinnert, können in dieser Sprache beispielsweise Kalkulationen oder Kommandos abgefeuert werden.11
HyperCard erinnert mich wie anfangs schon erwähnt sehr an die Struktur des World Wide Webs. Zwar ist es kein offenes System, doch die freie Organisation der Informationen fällt mir primär auf. Wie Tim Berners-Lee Ansatz, alles mit allem zu verlinken, kann man auch in HyperCard – innerhalb des Systems – alles mit allem verlinken. Zudem erklärt Atkinson, dass es eine besondere Home Card gibt, die aus allen Stacks heraus auf die Home-Seite führt. Von dort navigiert man wieder um in die Inhalte, wie z. B. das Adressbuch.12
Das wäre zumindest begrifflich sehr nah an Webseiten, da es auch dort Startseiten gibt. Weiter könnte man es mit den nativen Browser-Startseiten, die bei einigen Browsern die favorisierten Seiten anzeigen, vergleichen. Durch die lokale Speicherung und Anzeige der persönlichen Stacks, erinnert es mich auch sehr stark an den Schreibtisch auf dem Rechner.
Durch Atkinsons Präsentation einer Karte mit Keyboard und klickbaren Tasten, welche Töne erzeugen,13 wird auch deutlich, dass schon ein stückweit an Mini-Anwendungen innerhalb der Karten/Webseiten gedacht wurde, welche im World Wide Web erst später mit JavaScript verwirklicht wurden.
Abschließend kann ich mir vorstellen, dass HyperCard durchaus etwas ähnliches wie das World Wide Web hätte werden können, wenn das System komplett geöffnet worden und die Karten über das Netz verfügbar gewesen wären.
Quellen
Vgl. Public Broadcasting Service: »Computer Chronicles«, »Hypercard Maker«, URL: https://archive.org/details/CC501_hypercard, TC: 00:04:45–00:05:06, abgerufen am 13.4.2017.
Zu Beginn meines Master-Studiums habe ich mich unter anderem mit der Frage auseinandergesetzt, inwiefern sich das Web auf gestalterischer und kultureller Ebene verändert hat. Nachdem ich nun lange Zeit breit recherchiert und mich auch mit völlig anderen Bereichen auseinandergesetzt habe, möchte ich mich nun wieder fokussieren und mein Thema eingrenzen.
Zu Beginn meines Master-Studiums habe ich mich unter anderem mit der Frage auseinandergesetzt, inwiefern sich das Web auf gestalterischer und kultureller Ebene verändert hat. Nachdem ich nun lange Zeit breit recherchiert und mich auch mit völlig anderen Bereichen auseinandergesetzt habe, möchte ich mich nun wieder fokussieren und mein Thema eingrenzen.
Vor kurzem habe ich begonnen mich inhaltlich und grafisch näher mit der Entwicklung des Webs von Beginn an auseinanderzusetzen (Evolution der Webästhetik »). Diesen Weg möchte ich weitergehen und einen visuellen Weg finden, meine Ergebnisse zu präsentieren. Dabei kann ich mir zum einen eine Ausstellung, zum anderen eine interaktive Ausstellung oder Weberzählung vorstellen.
Ein erster praktischer Ansatz ist die Sammlung diverser UI-Elemente, welche ich katalogisiert darstellen möchte. Ich stelle mir vor, dass so die Entwicklung visuell greifbarer wird. Zudem habe ich bereits erste Gestaltungsmuster erkannt, welche den kulturellen Weg sowie das veränderte, allgemeine Verständnis des Webs deutlich zeigen. Weitere Gedanken und Ideen – sowohl in Bezug auf Theorie als auch Praxis – möchte ich noch reifen lassen und für mich selbst prüfen.
Auf Basis der »Unabhängigkeitserklärung des Cyberspace« möchte ich einen weiteren Einblick über John Perry Barlow erhalten. Dabei bin ich auf den Podcast TWiT.tv von Leo Laporte aus dem Jahr 2010 gestoßen. Gemeinsam mit Tom Merritt spricht er in »TWiT Live Specials 43: Live With John Perry Barlow« mit dem Bürgerrechtler und Songtexter John Perry Barlow über die »Electronic Frontier Foundation«, die Freiheit im Internet sowie die Unabhängigkeitserklärung selbst. Leider wird letzteres eher angeschnitten als wirklich besprochen, so dass ich aus dem Podcast keinen wirklichen Benefit für meine Arbeit ziehen kann. Nichtsdestotrotz äußert Barlow interessante Gedanken, welche ich kurz dokumentieren möchte.
Nach der Behandlung der »Unabhängigkeitserklärung des Cyberspace« möchte ich einen weiteren Einblick über John Perry Barlow erhalten. Dabei bin ich auf den Podcast TWiT.tv von Leo Laporte aus dem Jahr 2010 gestoßen. Gemeinsam mit Tom Merritt spricht er in »TWiT Live Specials 43: Live With John Perry Barlow« mit dem Bürgerrechtler und Songtexter John Perry Barlow über die Electronic Frontier Foundation, die Freiheit im Internet sowie die Unabhängigkeitserklärung selbst. Leider wird letzteres eher angeschnitten als wirklich besprochen, so dass ich aus dem Podcast keinen wirklichen Benefit für meine Arbeit ziehen kann. Nichtsdestotrotz äußert Barlow interessante Gedanken, welche ich kurz dokumentieren möchte.
In Bezug auf die Unabhängigkeitserklärung und Regierung verfestigt er seine Meinung, dass man zu einem großen Schöpfer der Umgebung wird, in der man selbst geformt wird. Seinem Empfinden nach, sind die meisten innerhalb der Regierung unter anderen Umständen geformt worden als die Leute, die die meiste Zeit virtuell verbringen.1
Weiter merkt er an, dass es durch z. B. Wikipedia möglich geworden ist, dass man für die meisten Dinge, für die es eine Wahrheit gibt, auch eine Wahrheit kennen kann. Nach ihm ist die Voraussetzung, wie wir Wahrheit und Realität verstehen, Dinge einer maximalen Wahrnehmung auszusetzen und dann einen gemeinsamen Konsens zu finden. Speziell bei Wikipedia muss er daher keinen Zweifel daran haben, dass eine Antwort nicht stimmt. Was er nicht berücksichtigt hatte ist, dass viele Leute die Wahrheit nicht kennen wollen oder sogar glücklich sind vorsätzlich falsche Informationen zu streuen, weil es ihnen hilft.2
Zudem ist er überzeugt davon, dass wir besser darin werden, schlechte und gute Informationen unterscheiden zu können. Momentan (2010) sieht er uns noch als kulturelles Äquivalent eines 13 1/2-jährigen.3
Twitter hält er nicht für ein nützliches, revolutionäres Tool, da eine Revolution eine Ausdauer von Absichten, Verbindungen und konzeptioneller Integrität benötigt. Das setzt voraus, dass man eine große Aufmerksamkeitsspanne hat, welche es in Twitter so nicht gibt.4 Das Internet spielte laut ihm dennoch eine fundamentale Rolle dabei, dass Obama gewählt wurde. Seine Administration hätte es aber nicht auf eine nützliche Art und Weise genutzt, weil noch keiner weiß, wie das geht. Wir wären noch am Beginn und müssen das alles noch herausfinden.5 Aus heutiger Sicht kann man sich spätestens seit der Wahl Trumps sicher sein, dass hier schon einiges hinzugelernt wurde.
Dennoch glaubt er an eine Umgebung, in der jeder etwas sagen möchte, auch etwas sagen kann. Und jeder, der zuhören möchte, auch zuhören kann. Darin hat sich seine Vision vom Internet in den letzten 25 Jahren nicht geändert und die Leute können selbst aussortieren, was sie hören wollen und was nicht.6
Gegen Ende des Gesprächs erzählt Barlow von seiner Mutter, welche damit startete, dass die schnellste Möglichkeit an Informationen zu kommen die war, ein Pferd im Galopp zu reiten. Es endete damit, dass sie die ganze Zeit E-Mails schrieb. Daran kann man die tiefgreifende Transformation in der Informationstechnologie erkennen und wenn sie nun Geschichten erzählte, war die Technologie unsichtbar. Da es um das Gespräch ging und nicht um das Telefon.7
Abschließend ist es schade, dass kaum weitere Gedanken im Bezug auf die Unabhängigkeitserklärung zu hören waren. Nichtsdestoweniger war es ein spannender Podcast, da ich Barlow zum ersten Mal sprechen sehen habe und es großartig ist, was für weise Aussagen er mit seiner jahrelangen Erfahrung und dem vielen Wissen über das Web trifft.
Quellen
Vgl. Barlow, John Perry, TWiT Netcast Network: »TWiT Live Specials 43: Live With John Perry Barlow«, Stand: 21.10.2010, URL: https://www.youtube.com/watch?v=c2U-6tHE3Wg, TC: 00:05:40–00:06:06, abgerufen am 17.4.2017.
Am 8.2.1996 veröffentlicht John Perry Barlow die »Unabhängigkeitserklärung des Cyberspace« (A Declaration of the Independence of Cyberspace) als Reaktion auf den »Telecomunications Act of 1996« in den USA. Seine ideelle Vorstellung stellt noch heute eine utopische Welt dar, welche nichtsdestotrotz wünschenswert wäre.
Unabhängig davon, dass dieses Gesetz in seinen Inhalten massiv kritisiert wurde, geht es Barlow meinem Verständnis nach generell um die Nichteinmischung des Staats in den »Cyberspace«. Diese Nichteinmischung bzw. unrechtmäßige Kontrolle spielte in meinem Beitrag »Die Verformung der Gesellschaft« eine Rolle, weshalb die Unabhängigkeitserklärung interessant für meine inhaltliche Recherche ist.
Cyberspace als neue Heimat des Geistes
In seiner Erklärung richtet er sich gezielt an die Regierungen der industriellen Welt und grenzt sich gleichzeitig von ihnen ab. Er kommt aus dem Cyberspace, der neuen Heimat des Geistes.1 Er betont, dass es dort keine gewählte Regierung gibt und fordert, dass der globale soziale Raum frei bleiben muss. Die Regierung habe nicht das moralische Recht, die Menschen in diesem Raum zu beherrschen.2
Regierung unerwünscht
Weiter klärt er, dass die Regierung weder »uns« noch »unsere« Welt im Cyberspace kennt und dieser nicht innerhalb ihrer Grenzen liegt.3 Diesen Punkt halte ich für sehr wichtig, da ich es für sehr fragwürdig halte, einen Bereich kontrollieren und beherrschen zu wollen, den man nicht kennt und dessen Beschaffenheit sich grundsätzlich von der bekannten Welt unterscheidet.4 Doch, auch wenn das Web im Jahr 1996 vielen fremd war und auch noch heute in seiner kompletten Daseinsform undurchsichtig und unüberschaubar ist, verstehe ich das grundsätzliche Interesse der Regierung keinen rechtsfreien Raum entstehen zu lassen. Vor allem heutzutage, wenn sich die Welt im Web mit der außerhalb verbindet und zu einer Welt verschmilzt.
Hier spricht mich der Ansatz Barlows an, dass es sich grundsätzlich nicht um einen rechtsfreien Bereich handeln soll. Doch die Frage wie sich das World Wide Web in seinen Regeln und Gesetzen selbst und durch die Menschen in ihm regulieren soll, halte ich für sehr schwierig. Immerhin ist das Problem bis heute nicht gänzlich gelöst.
Barlow stellt klar, dass es sich beim Web nicht um ein öffentliches Bauprojekt handelt, sondern dass es durch kollektives Handeln wächst.5
Diese »autonom« entstandene Welt, ist nur durch Aktivitäten der Cyberspace-Bewohner gewachsen.
Die Regierung hat »weder an großartigen und sich häufenden Gesprächen teilgenommen, noch den Reichtum der Marktplätze im Web aufgebaut. Sie kennt weder die Kultur, Ethik oder ungeschriebene Codes, die diese Gesellschaft bereits ordnet«6.
Er wirft der Regierung vor, dass sie dem Cyberspace nicht vorhandene Probleme nachsagt, um legitimiert handeln zu können. Aus seiner Sicht gibt es viele Probleme jedoch nicht und er weist erneut darauf hin, dass sie selbst richten werden und ein eigener Gesellschaftsvertrag entstehen wird.7
Die Gedanken sind frei
Er beschreibt den Cyberspace als Raum, der aus »Transaktionen, Beziehungen und Gedanken besteht, die wie eine stehende Welle im Netz unserer Kommunikation angeordnet sind«8. Er solle von jedem betreten werden können, »ohne Privilegien oder Vorurteile durch Rasse, wirtschaftliche Macht, militärische Stärke oder Geburtsort«9. Es soll ein Raum entstehen, in dem jeder seine »Überzeugungen ausdrücken kann, ohne Angst davor zu haben, in Schweigen oder Konformität gezwungen zu werden«10.
Diese beiden Absätze finde ich in zweierlei Hinsicht fragwürdig und schwierig. Der Geburtsort ist sehr wohl ausschlaggebend, da das World Wide Web bis heute noch nicht flächendeckend verbreitet ist. Die nötige Infrastruktur fehlt vielerorts, so dass die dort lebenden Menschen nicht an dieser offenen Welt teilnehmen können.
Zum anderen wird der Teil der Gesellschaft, der offenen Zugang besitzt, sehr wohl in eine Konformität gedrängt. Soziale Netzwerke waren zu Zeiten Barlows noch nicht in der heutigen Form vorhanden, doch im Grundgedanken sicher schon als Vorstellung präsent. Auch damals gab es schon Newsgruppen, in denen ein Austausch möglich war.
Zwar kann die eigene Meinung aus technischer Sicht veröffentlicht werden. Aus sozialer Sicht besteht jedoch der Druck gesellschaftstaugliches zu äußern und seine persönliche Selbstvermarktung voranzutreiben. Auf der Suche nach Likes wird eventuell nur das gepostet, was die meisten Daumen verspricht und alles fragwürdige besser nicht geschrieben. Extreme Meinungen werden in kleinen und großen Shitstorms abgestraft. Das kann natürlich nicht pauschal behauptet werden, mein Eindruck ist aber, dass weitestgehend sehr gut überlegt wird, was geschrieben und welches Bild gepostet wird. Auch ohne World Wide Web wird man nicht überall und jedem seine Meinung aufdrücken, doch durch den vergrößerten Rezipientenradius im Web, können eigene Aussagen sehr weitreichende Auswirkungen haben. Luciano Floridi (Erkenntnisse und Eindrücke: Luciano Floridis Buch »Die 4. Revolution« ») geht noch einen Schritt weiter und spricht davon, dass unser soziales Selbst durch Soziale Medien geformt wird und unsere Identität beeinflusst.
Bit – Bit – Bit
John Perry Barlow hebt in seiner Erklärung weiter hervor, dass die rechtlichen Begriffe für Eigentum, Ausdruck, Identität, Bewegung und Kontext nicht für den Cyberspace gelten, da sie auf Materie basieren.11 Auch die Identität hat keinen Körper, weshalb keine physische Ordnung möglich ist. Die Ordnung, die bestenfalls im World Wide Web entsteht, basiert auf der Goldenen Regel.12
Er wirft der Regierung vor mit dem »Telecommunications Reform Act« die eigene Verfassung zurückzuweisen und die Träume von Jefferson, Washington und Co. zu beleidigen.13 Die Regierung hätte Angst vor den eigenen Kindern, die als Ureinwohner in dieser Welt leben, in denen sie selbst immer Einwanderer bleiben werden. In dieser Welt ist alles gleichgeschaltet: Empfindungen, Ausdrucksformen, alles ist ein nahtloses Ganzes, das aus der globalen Konversation von Bits besteht. Metaphorisch drückt er so aus, dass sie die Luft, die sie erstickt nicht von der Luft trennen können, auf der dessen Flügel schlagen.14 Er hält einigen Ländern, darunter Deutschland, Frankreich und die USA, vor, den Virus der Freiheit bekämpfen zu wollen, ist sich aber sicher, dass das in einer Welt voller Bits nicht funktionieren wird.15
Unerschöpflicher Rohstoff
Für einen sehr wichtigen Punkt halte ich, dass er sich dagegen erhebt, dass Ideen gleichermaßen wie andere Industrieprodukte wie z. B. Roheisen gehandelt werden. Aus seiner Sicht könne im Cyberspace all das, was der menschliche Geist erschaffen hat, kostenlos und unbegrenzt reproduziert und ohne Kosten verteilt werden. Dafür würde es keine Fabriken mehr benötigen.16
Das halte ich dahingehend für sehr wichtig, dass heutzutage auf Basis einer guten Idee ganze Leben verändert werden können. Zwar waren auch schon vor dem World Wide Web Erfindertum und Ideenreichtum ungemein wichtig. Doch heute hat jeder mit Zugang zum Web die Möglichkeit, seine Ideen weit zu verbreiten. Im Gegensatz zu herkömmlichen Rohstoffen ist der Geist zudem unerschöpflich.
Diese Unerschöpflichkeit und Grenzenlosigkeit sieht Barlow im Cyberspace. Unabhängig davon, dass die materiellen Körper regiert werden, möchte er die Souveränität des Geistes aufrechterhalten. Der Geist, der sich frei macht von der physischen Welt und sich über den ganzen Planeten verbreitet, so dass die Gedanken nicht eingefangen werden können.17 Er wünscht sich einen Raum, welcher humaner und fairer ist, als die Welt, welche die Regierungen vorher geschaffen haben.18
Grenzenlose Utopie
Die »Unabhängigkeitserklärung des Cyberspace« halte ich für einen sehr wichtigen Abschnitt innerhalb meiner Recherche. Sie zeigt sehr deutlich, welche Euphorie über das World Wide Web im Jahr 1996 vorherrschte und wie groß der Wunsch danach war, eine geistige Plattform zu haben, welche alle physischen Grenzen durchbricht. Ein Raum, der sich unaufhaltsam verbreitet und jedem die Möglichkeit geben soll, sich frei zu entfalten. Ein neues Medium, in dem bestenfalls alle Menschen gleichgeschaltet und verbunden sind. Frei von staatlicher Kontrolle als ideelles Paralleluniversum.
Aus heutiger Sicht treffen die Vorstellungen nur zum Teil zu und schränken sich wiederum durch technische Möglichkeiten ein. Zwar ist es technisch möglich Ideen zu verbreiten, gleichzeitig gibt es Mittel, Inhalte zu zensieren. Das fängt bei großen Staaten an, die komplette Plattformen wie Facebook sperren und geht im kleinen weiter, wenn einzelne Inhalte blockiert werden. Noch immer findet man bei Staaten, die die Kontrolle nach wie vor übernehmen wollen, unzählige Fragezeichen in Bezug auf diverse Themen. Selbst in Deutschland, wo man grundsätzlich sehr liberal lebt, stellt sich nach Hass-Tiraden im Netz die Frage nach Meinungsfreiheit und Zensur.
Noch immer hängt das World Wide Web zu sehr an nationalen Grenzen, welche den tatsächlichen geistigen Fluss aufhalten. Meiner Empfindung nach entsteht genau hier das Hauptproblem: Während das World Wide Web sämtliche Schranken durchbricht, sind die nationalen Grenzen nach wie vor in Stein gemeißelt. Unabhängig davon, ob es nun um Steuern oder geltende AGBs geht – die Zuständigkeiten sind unklar, die Grauzonen werden genutzt und Angebote werden in den Markt gespült, um anschließend zäh und langwierig bekämpft zu werden. Daher ist meine Theorie, dass solche Probleme erst bekämpft werden können, wenn das World Wide Web sein Pendant in der realen Welt findet: Ein grenzenloser Planet mit Gesetzen, die überall gleichermaßen gelten – mit Menschen, deren Meinung überall gleichermaßen akzeptiert wird. Eine Welt außerhalb des Cyperspace, die der ideellen Vorstellung von John Perry Barlow gleichkommen mag. Eine grenzenlose Utopie über dessen Kontrolle dann noch immer gestritten werden würde.
Quellen
Vgl. Barlow, John Perry: »A Declaration of the Independence of Cyberspace«, Stand: 8.2.1996, URL: https://www.eff.org/cyberspace-independence, Absatz 1, abgerufen am 13.4.2017.
Vgl. Ebd., Absatz 2.
Vgl. Ebd., Absatz 3.
Vgl. Ebd.
Vgl. Ebd.
Ebd., Absatz 4.
Vgl. Ebd., Absatz 5.
Ebd., Absatz 6.
Ebd., Absatz 7.
Ebd., Absatz 8.
Vgl. Ebd., Absatz 9.
Vgl. Ebd., Absatz 10.
Vgl. Ebd., Absatz 11.
Vgl. Ebd., Absatz 12.
Vgl. Ebd., Absatz 13.
Vgl. Ebd., Absatz 14.
Vgl. Ebd., Absatz 15.
Vgl. Ebd., Absatz 16.
Abbildungen
Titelbild: ESO/IDA/Danish 1.5 m/Gendler, R.; Ovaldsen, J-E.; Thöne, C.; Feron, C.: »Carina Nebula«, Stand: 3.12.2009, via Wikimedia Commons, abgerufen am 13.4.2017, Lizenz: CC BY-SA 4.0.
Anlässlich des 800. Geburtstags der Magna Carta, haben 3.000 Jugendliche aus der ganzen Welt Klauseln erarbeitet, welche aus ihrer Sicht für eine Verfassung des digitalen Zeitalters wichtig sind. The British Library stellt die zehn wichtigsten Bedingungen vor, welche bei einer Abstimmung durch über 30.000 Stimmen aus letztendlich 500 Klauseln gewählt wurde.
Anlässlich des 800. Geburtstags der Magna Carta, haben 3.000 Jugendliche aus der ganzen Welt Klauseln erarbeitet, welche aus ihrer Sicht für eine Verfassung des digitalen Zeitalters wichtig sind. Wie ich in meinem vorherigen Beitrag »Digitale Magna Carta« angekündigt habe, wollte ich mich auf die Suche nach den Ergebnisse machen und sie für meine Arbeit dokumentieren.
The British Library stellt die zehn wichtigsten Bedingungen vor, welche bei einer Abstimmung durch über 30.000 Stimmen aus letztendlich 500 Klauseln gewählt wurde.1
Web We Want
Web We Want ist ein globaler Zusammenschluss aus Einzelpersonen und Gruppen, die sich für die Erhaltung des offenen Webs einsetzen dessen Feinde unter anderem Zensur und Überwachung sind. Mit dem Hintergrund des Zusammenschlusses wird die digitale Verfassung – gefolgt von den Klauseln – mit »The Web We Want Will …« eingeleitet.
Die zehn wichtigsten Klauseln
Unternehmen dürfen das Web nicht kontrollieren und Regierungen nicht unser Recht auf Informationen beschränken.
Es muss Redefreiheit vorherrschen.
Das Web muss in allen Ländern frei von staatlichen Zensoren sein.
Es darf keine Form von staatlicher Zensur zugelassen werden.
Jeder, der sich Zugriff auf das Web wünscht, soll es auch nutzen können.
Es muss frei von Zensur und Massenüberwachung sein.
Der gleichberechtigte Zugang zu Wissen, Informationen und aktuellen News aus der Welt muss gesichert sein.
Die Freiheit zu Sprechen muss gewährleistet sein.
Es darf nicht durch die Regierung zensiert werden.
Persönliche Informationen und Vorlieben, sollten nicht für Geld verkauft werden dürfen. Falls das doch geschieht, muss es das Unternehmen/die Website transparent kommunizieren.
Resümee
Leider tauchen Bedingungen mehrfach auf, was sicher daran liegt, dass aus 500 Einsendungen gewählt wurde. Da 3.000 Jugendliche Vorschläge eingesendet haben, müsste bereits eine Vorauswahl getroffen worden sein. Ich hätte es vorgezogen, dass hier noch präziser ausgewählt worden wäre. Somit hätte vermieden werden können, dass ganze vier Regeln von Zensur handeln, während dadurch sicher andere wichtige Inhalte verloren gingen. Vorausgesetzt, dass die doppelten Inhalte durch andere ersetzt werden, hört sich die digitale Verfassung für mich aber zunächst vernünftig an.
Durch meine bisherige Recherche bin ich auf den Artikel »An online Magna Carta: Berners-Lee calls for bill of rights for web« im The Guardian aufmerksam geworden.
Eine Online Magna Carta hält Tim Berners-Lees für notwendig, um die Unabhängigkeit des Mediums sowie der Nutzer weltweit zu schützen und zu verfestigen. Die digitale Verfassung könnte dabei von den Menschen selbst erarbeitet werden.
Durch meine bisherige Recherche bin ich auf den Artikel »An online Magna Carta: Berners-Lee calls for bill of rights for web« im The Guardian aufmerksam geworden.
Eine digitale Verfassung hält Tim Berners-Lees für notwendig, um die Unabhängigkeit des Mediums sowie der Nutzer weltweit zu schützen und zu verfestigen.1 Die digitale Verfassung könnte dabei von den Menschen selbst erarbeitet werden.2
Im begleitenden Video, weist er nachdrücklich darauf hin, dass wir nun nach 25 Jahren World Wide Web über das nächste viertel Jahrhundert nachdenken müssen. Dafür müssen wir unter anderem dafür Sorgen, dass sich die Grundsätze auf dem das Web basiert, etablieren. Darunter fallen Themen wie das Web als offenes Medium oder die Privatsphäre. Für die Demokratie ist außerdem die Frage wichtig, wie man seine Stimme erheben und seine Werte vor der Regierung vertreten kann, wenn man keinen Internetzugang hat.3
Berners-Lee ist weiter der Auffassung, dass wir keine offene Regierung, keine gute Demokratie, kein gutes Gesundheitssystem, keine vernetzten Gemeinschaften und keine kulturelle Vielfalt haben können, bevor wir kein offenes Web besitzen, bei dem wir uns keine Sorgen mehr darüber machen müssen, was an der Hintertür passiert.4 Anwälte und Politiker müssten das Programmieren verstehen, um tatsächlich zu verstehen, was mit Computern alles gemacht werden kann.5
Zudem ist er überzeugt davon, dass der Vorschlag für die Web-Verfassung auch die Auswirkungen von Urheberrechtsgesetzen und kulturell-gesellschaftlichen Themen rund um die Ethik der Technologie untersuchen sollte.6
In meinem Beitrag »Die Verformung der Gesellschaft« habe ich mich schon ansatzweise mit der Problematik auseinandergesetzt, dass das grenzenlose Web den nationalen Grenzen und Gesetzen gegenübersteht. Eine globale Verfassung könnte das Problem lösen. Bisher konnte ich mir jedoch nicht vorstellen, wie diese utopische Vorstellung aussehen könnte.
Laut Berners-Lee sei das wichtigste, dass die Leute für das Web kämpfen und begreifen, was für einen Schaden es hätte, wenn das Web zerstückelt werden würde. Nationale Gesetze bräuchten wir zwar nach wie vor, jedoch dürfen wir das Netz nicht in nationale Silos zerteilen.7
Dieser Ansatz hilft mir dabei, eine Vorstellung davon zu bekommen, wie das Problem lösbar wäre. Ich kann mir eine digitale Verfassung vorstellen, die ähnlich wie das Web selbst, als breites Netz über den nach wie vor vorherrschenden nationalen Gesetzen liegt.
Über eine weitere Suche, hab ich bereits erste Ergebnisse gefunden. Anlässlich zum 800. Geburtstag der Magna Carta, haben junge Menschen im Jahr 2015 bereits gemeinsam eine digitale Magna Carta erarbeitet. Die Öffentlichkeit konnte über die Regeln abstimmen, welche ich in einem weiteren Beitrag bearbeiten werde.
Als Unterstützung für meine weitere Recherche, möchte ich mich nun auf die technische Entwicklung des Webs konzentrieren. Als Grundlage dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee. In »Vision eines Visionärs« gehe ich näher auf Tim Berners-Lees Vorstellung des Webs ein, weshalb ich sie hier außen vor lassen möchte. An dieser Stelle möchte ich mich nur auf die technischen Fakten konzentrieren, welche ich im Buch finde und sie lediglich auflisten.
Als Unterstützung für meine weitere Recherche, möchte ich mich nun auf die technische Entwicklung des Webs konzentrieren. Als Grundlage dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee. In »Vision eines Visionärs« gehe ich näher auf Tim Berners-Lees Vorstellung des Webs ein, weshalb ich sie hier außen vor lassen möchte. An dieser Stelle möchte ich mich nur auf die technischen Fakten konzentrieren, welche ich im Buch finde und sie lediglich auflisten.
Eine weitere Recherchequelle ist »A Little History of the World Wide Web« vom W3C, welche zum Teil zusätzliche Punkte enthält.
1980
ENQUIRE
Software-Projekt von Tim Berners-Lee aus dem Jahr 1980, welches schon erste Ansätze des World Wide Webs beinhaltet. ENQUIRE steht für »Enquire Within upon Everything«.1 Einzelne Informationen waren als »node« – als Knoten – abgelegt; neue konnte man durch eine Verlinkung des alten Knotens erstellen. Eine Information konnte man nur dann finden, wenn man die Suche von der Startseite aus beginnt. Links waren jeweils am Ende eines Knotens. Das System enthielt bereits interne und externe Links – externe jedoch nur in eine Richtung.2 Die Programmiersprache war Pascal, welche auf dem Betriebssystem »SINTRAN-III« von Norsk Data lief.3
1984
Tangle
Nachdem Tim Berners-Lee im September 1984 ans CERN zurückkehrt, schreibt er in seiner Freizeit ein weiteres Programm namens »Tangle«, um seine Idee in Bezug auf »Verbindungen« weiterzuführen, welche in seiner Vorstellung immer besonders hohen Stellenwert hatten. In einer extremen Sicht könnte man seiner Ansicht nach die ganze Welt nur aus Verbindungen bestehend sehen. Der Computer speichert dabei Informationen nur als Sequenz von Buchstaben, so dass die Verbindung der Buchstaben das wichtige ist. Wenn sich eine bestimmte Buchstaben-Sequenz wiederholt,4 erschafft Tangle einen neuen Knoten, die für diese Sequenz steht. Sollte diese Sequenz erneut auftauchen, verlinkt Tangle nur auf den ursprünglichen Knoten, anstatt sie erneut abzuspeichern. Tim Berners-Lee hatte die Idee auf diese Art und Weise eine Enzyklopädie zu erstellen, welche Fragen auf einzelne Knoten herunterbricht und eine Antwort liefert. Während Tangle die Frage »How much wood would a woodchuck chuck« noch verarbeiten konnte, lieferte eine weitere komplexere Frage eine Endlosschleife aus »How much wood would a woodchuck chuck if a woodchuck chuck wood chuck chuck chuck wood wood chuck chuck chuck …«. Da das Debuggen unendlich kompliziert gewesen wäre, fasste Berners-Lee das Programm nie wieder an.5
ENQUIRE
Neue Version von ENQUIRE mit ausschließlich internen Links. Jedes Netz war damit limitiert. Diese Einschränkung war für ihn eine sehr wichtige Erkenntnis.6
RPC
Um die Kommunikation zwischen Computern und Netzwerken zu vereinfachen, schrieb Berners-Lee ein RPC-Programm (remote procedure call).7
Bis 1988
Hypertext-Ansatz
Ansatz, dass sein System so wenig Regeln wie möglich besitzen sollte, damit jegliche Informationen ins System fließen können, ohne dass die Entwickler ihre Arbeit grundsätzlich überarbeiten müssen. Letztendlich wählt Berners-Lee Hypertext dafür.8
1988
Proposal
Mike Sendall, Tim Berners-Lees Boss, bat ihn um eine Ausarbeitung der Idee.9
TCP/IP
Das Hauptproblem war letztendlich, eine Basis zu schaffen, auf der verschiedene Computer mit verschiedenen Betriebssystemen miteinander kommunizieren können.10
Viele Physiker nutzten das VAX/VMS-Betriebssystem und DECnet Kommunikations-Protokolle, Unix nutzte dagegen Internetprotokolle. Berners-Lee favorisiert die Protokolle TCP/IP. Die Unix-Welt nutzt sie bereits und VAX-Welt könnte sie übernehmen.11
Adaption des RPC-Adress-Schemas, um Dateien zu adressieren und abzurufen.
1989
12.3.1989: »Information Management: A Proposal«
Dokument, dass das World Wide Web als globales, non-lineares Hypertext-System innerhalb von CERN vorstellt.12 Die Vorstellung des Informationssystems zielt unter anderem darauf ab, den Verlust von Informationen innerhalb der Organisation zu verhindern. Er präsentiert das Systems als große Hypertext-Datenbank mit Links, welche automatisch analysiert werden könnten.13
1990
Keine Reaktion
Keine Reaktion auf seine Ausarbeitung bis er sie im Mai 1990 nochmal David Williams (Boss von Mike Sendall) gab und sie erneut auf Eis gelegt wurde.14
Ideen zur Namensgebung
Mesh oder Information Mesh, MOI für »Mine of Information« oder TIM für »The Information Mine«. Letztere könnten zu egozentrisch wirken und Tim Berners-Lee entschied sich für »World Wide Web«.15
HT
Auf der Suche nach einem charakteristischen Akronym entschied er sich für »HT«. Jedes Programm, das ins System involviert war, sollte mit diesen Buchstaben starten.16
European Conference on Hypertext Technology
Besucht zusammen mit Robert Cailliau, einem alten CERN-Veteran, die Konferenz, um die Idee vorzustellen. Ian Ritchie und Leute von Owl Ltd. stellten ein Produkt namens »Guide« vor. Das Original von Peter Brown, das an der Universität von Southampton entstanden ist, sah im Grunde wie Tim Berner-Lees Vision aus.17 Es brachte alle Eigenschaften mit sich, nur das Internet fehlte. Er versuchte die Zuständigen zu überreden, es an das Internet zu schließen, aber sie waren von der Idee nicht überzeugt. Auch die anderen Teilnehmer konnten nicht vom World Wide Web überzeugt werden.18
Code des World Wide Webs
Tim Berners-Lee beginnt im Oktober damit, den Code für das World Wide Web auf dem NeXT zu schreiben:
· Web Client
· Hypertext Transfer Protocol (HTTP)
· Universal Resource Identifier (URI)
· Hypertext Markup Language (HTML)
· Web Server (nxoc01.cern.ch – Next, Online Controls, 1) – Alias: info.cern.ch
· Erste Hypertext Webseite mit Spezifikationen zu HTTP, URI, HTML und alle projektbezogenen Informationen
Der Client war Mitte November fertig und hieß »WorldWideWeb«, welcher ab Dezember mit HTML funktionierte. Bis dahin jedoch nur auf dem NeXT.18 HTML wurde dabei an SGML (Standard Generalized Markup Language) angelehnt – eine Sprache, die bereits bei einigen Dokumentations-Communities bevorzugt wurde.19
Bestehende Internetprotokolle wie z. B. NNTP oder FTP waren Berners-Lee zu langsam, weshalb er HTTP entwickelte.20
Um andere Systeme mit einzuschließen wurde der kleinste gemeinsame Nenner gesucht: Alle hatten die Tastatur als Eingabegerät und konnten ASCII produzieren. Der auf das wesentliche heruntergebrochene Browser hieß »line-mode Browser« und wurde an das Terminal angelehnt, welches jeweils eine Zeile zeigt.21
Via FTP stellte Tim Berners-Lee eine Verbindung zu Nachrichtenartikel und Newsgruppen im Internet her. So waren Inhalte aus dem Internet umgehend verfügbar.22
Merry Christmas
Tim Berners-Lee und Robert Cailliau hatten jeweils den Browser/Editor WorldWideWeb auf ihrem NeXT installiert, welche am Weihnachtstag 1990 über das Internet via info.cern.ch kommunizieren konnten.23
1991
Telefonbuch von CERN
Das Web ist noch nicht weit genug, um es als ultimatives Dokumentations-System zu verbreiten. Erstes kleines Ziel: Telefonbuch von CERN.24
Dokumentation auf info.cern.ch
Fortführung der Dokumentation auf info.cern.ch. Jede technische Entscheidung basiert auf der Idee, dass es ein Informationsraum sein sollte, der alle umfasst und einschließt.25 Sprich auch von jedem Computer und Betriebssystem zugänglich sein sollte.
Veröffentlichung WorldWideWeb
Im März 1991 wurde das Program WorldWideWeb innerhalb von CERN veröffentlicht. Jedoch nur limitiert an die Nutzer von NeXT Computern.26
Hypertext at CERN
Ausarbeitung »Hypertext at CERN«.27
Veröffentlichung
Im August veröffentlich Tim Berners-Lee drei Dinge: das WorldWideWeb für NeXT, einen line-mode Browser sowie den grundlegenden Server.28
comp.infosystems.www
Start von comp.infosystems.www als Newsgruppe zum Informationsaustausch.29
Telnet-Protokoll
Öffentlicher Telnet-Server auf info.cern.ch. Telnet ist ein Protokoll, wodurch ein Nutzer eine interaktive Kommandozeilen-Session öffnen konnte. Dadurch gelangten Menschen ins Web, welche keinen Browser installieren konnten.30
WorldWideWeb-Browser in C
Der Browser WorldWideWeb wurde erneut in der Sprache C geschrieben, um den Transport zu vereinfachen.31
Libwww
Libwww als Bibliothek – Veröffentlichung des webspezifischen Codes.32
Zwei Gateways
Installation von zwei Gateways zum Support-System VAX/VMS und WAIS.33
Mailing-Liste für technische Diskussionen
Start der Online-Mailing-Liste www-talk@info.cern.ch für technische Diksussionen.34
Hypertext 91’
Hypertext 91’ im Dezember. Das Projekt wird vorgestellt, findet jedoch kaum Zuspruch.35
1992
Erwise
Im April wird der Browser »Erwise« der Helsinki University of Technology für Unix mit dem Betriebssystem X-Windows veröffentlicht.36
ViolaWWW
Im Mai wird der Browser »ViolaWWW« von Pei Wei für Unix veröffentlicht.37
Samba
Entwicklung eines Webbrowser Samba für Macintosh von Tim Berner-Lees Kollegen.38
URL
Aus URI (universal resource document) wurde URL (uniform resource locator).39
MidasWWW
Tony Johnson entwickelt den Browser »MidasWWW« für X.40
1993
Es gab etwa 50 bekannte Server und die Browser Erwise, ViolaWWW und MidasWWW waren für X-Windows verfügbar, Samba für Mac.41
Diverse Browser
Dave Raggett entwickelt den Browser »Arena«.42
Die University of Kansas schreibt einen text-basierten Hypertext-Browser namens »Lynx«, der es als screen mode Browser erlaubt, durch das Dokument zu scrollen. Lynx 2.0 wurde als Web-Browser im März veröffentlicht43 und ist der älteste Browser, der noch immer in Betrieb ist.44
Marc Andreessen veröffentlicht im Februar den Browser »Mosaic« für X.45
Tom Bruce schreibt den Browser »Cello« für Microsofts Windows, welcher im März veröffentlicht wird. Erstmals konnten Windows-Nutzer das Web in verschiedenen Farben und Schriften sehen.46
Das freie World Wide Web
Am 30.4.1993 gab CERN das Web-Protokoll und den Code zur Nutzung frei.47 Dieser Tag wird heute als Geburtstag des freien World Wide Webs angesehen.
Veröffentlichung von Mosaic für UNIX, Windows und Mac im September.48
1994
Internet in a Box
Tim O’Reilly kündigt das Produkt »Internet in a Box« an, welches das World Wide Web in Privathaushalte bringen soll. Das Produkt wird jedoch überflüssig, da nun viele Internet-Service-Provider ihre Arbeit aufnahmen.49
Navipress
Navisoft Inc. veröffentlicht einen Browser namens »Navipress« für den PC und Mac.50
Netscape Navigator 1.0
Gründung des Unternehmens Mosaic Communications Corp. –, später Netscape –51, welches im Oktober desselben Jahres den Browser »Mozilla« auf den Markt bringt.52 Die kommerzielle Version wird im Dezember über das Internet herausgegeben und zu »Netscape Navigator« umbenannt. Der Browser ist mit Windows, X Window und Macintosh kompatibel.53
Woodstock of the Web
Erste internationale WWW-Konferenz – auch »Woodstock of the Web« genannt – im Mai.54 Hier entstand das Konzept von VRML (Virtual Reality Modellen Language).
W3C
Gründung des W3C.55
1995
Hardware mit Browser
Im April kündigt Compaq an, seine PCs mit dem Navigator auszustatten. Damit wird erstmals ein Browser direkt mit der Hardware ausgeliefert.56
Java
Im Mai wird die Programmiersprache Java eingeführt. Die Sprache vereinfacht es in vielerlei Hinsicht Inhalte veröffentlichen. So wird von nun an beispielsweise weniger Arbeitsspeicher beim Endnutzer benötigt, um Inhalte anzusehen. Sie können nämlich direkt im Webbrowser angezeigt werden.57
AOLpress
AOL kauft das Unternehmen Navisoft, welches Navipress entwickelt hatte. Das Produkt heißt von nun an AOLpress.58
Internet Explorer
Der Internet Explorer wird im August zusammen mit Windows 95 veröffentlicht.59
1996
Browser kommen und gehen
Netscapes Navigator 2.0 kommt auf den Markt.60
AOLpress stirbt, während AOL nun den Internet Explorer nutzt.61
PICS
PICS (Platform for Internet Content Selection) wird im März als mögliches Filter-Werkzeug für Webinhalte veröffentlicht.62
Amaya
Das W3C entwickelt ab 1996 den experimentellen Browser »Amaya«.63
1997
RDF
Ab 1997 erste Konzeption von RDF (Resource Description Framework) mit dem letztendlichen Ziel maschinenlesbare Daten für das semantische Web zu erhalten.64
1998
Open Source Policy
Netscape veröffentlicht im Januar den kompletten Quellcode seines Browsers.65
XML
XML (Extensible Markup Language) wird im Februar vom W3C veröffentlicht, um SGML abzulösen. XML ist die Basis von Sprachen wie HTML.66
DOM
DOM (Document Object Model) wird als Standard des W3C eingeführt.67
Quellen
Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 1.
Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 69.
In einem weiteren Beitrag über das Buch »Weaving the Web: The Original Design and Ultimate Destiny of the World« von Tim Berners möchte ich mich mit der gesellschaftlichen Bedeutung des World Wide Webs befassen. Dabei geht es mir momentan nicht darum, einen Einblick in sämtliche Einzelheiten zu geben, sondern grobe Eckpfeiler für meine weitere Recherche zu definieren. Die Recherche bezieht sich dabei vor allem auf die Jahre zwischen den Anfängen und der geplatzten Dotcom-Blase im Jahr 2000.
In einem weiteren Beitrag über das Buch »Weaving the Web: The Original Design and Ultimate Destiny of the World« von Tim Berners-Lee möchte ich mich mit der gesellschaftlichen Bedeutung des World Wide Webs befassen. Dabei geht es mir momentan nicht darum, einen Einblick in sämtliche Einzelheiten zu geben, sondern grobe Eckpfeiler für meine weitere Recherche zu definieren. Die Recherche bezieht sich dabei vor allem auf die Jahre zwischen den Anfängen und der geplatzten Dotcom-Blase im Jahr 2000.
Die Veröffentlichung des WorldWideWeb
Das »WorldWideWeb«-Programm (Browser) wurde im März 1991 erstmals innerhalb CERNs veröffentlicht, wobei nur Personen mit NeXT Computern Zugang hatten.1 Ursprünglich war das Web nicht für den privaten Gebrauch oder für Einzelunternehmen entwickelt. Während es zunächst für ein besseres Informationsmanagement innerhalb CERNs nützlich sein sollte, machten später auch Universitäten, Forscher und große Unternehmen davon Gebrauch.2
Meinem Eindruck nach waren die Anfänge ein regelrechter Kampf darum, die Wichtigkeit des WWW zu vermitteln. Ob schriftliche Ausarbeitungen oder die Präsentation auf einer Konferenz namens Hypertext im Dezember 1991: Durchweg schien sich die Begeisterung in Grenzen zu halten. Zum einen vermute ich, dass das Verständnis für diese Art von Informationsraum noch nicht weit genug ausgeprägt war – auch heute würde es uns schwerfallen, uns auf dem Papier ein Medium vorzustellen, das die nächsten Jahrzehnte maßgeblich verändern und umkrempeln könnte. Vor allem, wenn noch weitere nicht ausgereifte Systeme miteinander konkurrieren. Zum anderen war die Nutzung noch immer sehr beschränkt. Erst im August 1991 veröffentlicht Berners-Lee das WorldWideWeb für NeXT, einen Line-Mode Browser sowie den elementaren Server außerhalb von CERN.3 Selbst die Nutzung dieser Angebote war längst nicht intuitiv und einfach.
Erschwerter Zugang
Das Web verbreitet sich begrenzt in der Hypertext Community, doch obwohl es durch einen Telnet-Zugang grundsätzlich für Millionen von Menschen zugänglich gewesen wäre, hapert es an – aus heutiger Sicht – kleinen Problemen: Es war einfacher sich ab Oktober 1991 über das Telnet-Protokoll in die Kommandozeile eines anderen Computers innerhalb CERNs einzuwählen, als selbst einen Browser zu installieren. Nur langsam verbreitet sich das Web weiter und wird von Menschen rund um den Globus wahrgenommen. Das wichtigste war laut Berners-Lee, dass die Menschen, die das Web sahen und die unbegrenzten Möglichkeiten verstanden, damit begannen Server aufzusetzen und Informationen zu publizieren. Netterweise bekam er zu Beginn noch Nachrichten, wenn ein neuer Server aufgesetzt wurde.4
Cleverness schlägt Vermögen
Eine dringende Notwendigkeit war die Entwicklung eines tauglichen, systemübergreifenden Browsers, der nicht nur das Lesen von Informationen, sondern auch das Editieren zulässt. Ansätze lieferten 1992 die Browser Erwise (April), ViolaWWW (Mai) oder später Samba (Dezember). Letztendlich war kein Browser wirklich vollkommen oder systemunabhängig. Das führte zum Problem, dass den Menschen das Werkzeug fehlte, um wirklich gut zusammenarbeiten zu können. Das Web wurde zunehmend zu einem Medium, welches das Publizieren eher zulässt als eine vernünftige Zusammenarbeit. Das ironische, was Berners-Lee darin sah, war die Tatsache, dass unzählige Intranets entstanden. Solche zusammenzuschließen war jedoch der ursprüngliche Antrieb, welches das Bedürfnis nach einem ganzheitlichen Netz überhaupt entstehen ließ.5 Erst mit der Erscheinung von Browsern, wurden in immer kürzeren Abständen neue Server aufgesetzt. Ein Server über Rom während der Renaissance beeindruckt den Begründer dabei besonders. In Form eines virtuellen Museums inspiriert es viele weitere Webseiten – auch solch’ beeindruckende Veröffentlichungen begünstigten den Aufstieg des Webs.6
Nachdem im Februar 1993 die erste Version des Browsers Mosaic verfügbar war, gründete der Mitentwickler Marc Andreessen zusammen mit Jim Clark Mosaic Communications Corp. (später Netscape).7 Zunächst wird im Oktober 1994 der Browser Mozilla veröffentlicht8 und am 15.12.1994 die kommerzielle Version, die zwischenzeitlich zu Navigator 1.0 umbenannt wurde.
Das Besondere an der Veröffentlichung: Netscape veröffentlicht den Browser frei verfügbar über das Internet anstatt ihn einzutüten und zu verschicken. Zudem sind zwei weitere Ansätze wichtig: Zum einen ist die Veröffentlichung einer Beta-Version – an der hunderte Nutzer unentgeltlich weiterarbeiten und Verbesserungsvorschläge senden können – bis dahin nicht alltäglich. Zum anderen ist das Vermarktungs-Modell neu, etwas frei im Web anzubieten und erst nachträglich, durch z. B. andere Produkte oder Werbung auf der Startseite, Geld zu verdienen. Innerhalb weniger Monate nutzten die meisten Menschen im Web diesen Browser.9 Damit schlägt er zunächst den Internet Explorer, der erst später im August 1995 zusammen mit Windows 95 veröffentlicht wurde.10
Das Web kommt im Privaten an
Immer mehr Menschen nutzen das World Wide Web und schon zu Beginn des Jahres 1994 zeichnete sich ab, dass es zunehmend wahrgenommen wird. Allein von März bis Dezember 1993 stiegen die Webverbindungen innerhalb des Internets von 0,1 auf 2,5 %.11 Auch die Zugriffe auf info.cern.ch verzehnfachten sich in den ersten Jahren. Waren es im Sommer 1991 noch 100 pro Tag, betrug die Zahl der Aufrufe schon 10.000 im Sommer 1993.12 Im Jahr 1994 übersteigt zudem die Zahl der kommerziellen Nutzer die der wissenschaftlichen Nutzer, bei einer gesamten Zahl von rund drei Millionen Internet-Rechnern.13
Umso wichtiger war es nun, das WWW so einfach wie möglich zugänglich zu machen. Tim O’Reilly entwickelte dabei das Produkt »Internet in a Box«, welches den privaten Nutzer dabei unterstützen sollte, zu Hause Zugang zu erhalten. Es wurde jedoch überflüssig, da nun viele Internet-Service-Provider mit auf den Zug sprangen und den Eintritt als Komplettpaket ermöglichten. Dass Software und Service nun kommerzialisiert angeboten wurden, war ein bedeutender Schritt, da viele Menschen kein Interesse an der Nutzung haben würden, wenn sie nicht sicher sein konnten, dass alles Nötige von einem Unternehmen inklusive Support angeboten wird.14
Scheitern nicht ausgeschlossen
Trotz der wachsenden Zahl der Nutzer gab es schon 1993 erste Anzeichen dafür, dass das Web sich in einzelne Fraktionen aufteilt: In kommerzielle und akademische, freie und kostenpflichtige. Das würde Tim Berners-Lee ursprünglichem Ansatz widersprechen, ein universell zugängliches Hypertext-Medium für den Informationsaustausch zu sein.15 Auch 1994 hätte das Web laut ihm noch immer verschwinden oder von einem anderen System ersetzt werden können, noch immer hätte es zersplittert oder sein Wesen so sehr verändern können, dass es nicht mehr als universelles Medium existiert.16 Ein wichtiger Schritt war hier, dass Tim Berners-Lee das Web nicht sich selbst überlassen und beispielsweise mit monetärem Vorteil jeden Job seiner Wahl angenommen hat. Sondern sich weiter für seine Vision eingesetzt hat. Das W3C zu gründen und aus ihm heraus – gänzlich konzentriert auf die Sache – zu agieren, war hier ein wichtiger Schritt.17 Das Web selbst füllte sich zunehmend mit den verschiedensten Menschen, Organisationen und Unternehmen und das Konsortium würde gleichermaßen gemischt aufgestellt sein. Es sollte das »Web des Lebens« aufrechterhalten.
Money, Money, Money!
Ein weiterer entscheidender Einschnitt war der Börsengang von Netscape im August 1995. Nach nur einem Tag an der Börse war das Unternehmen 4,4 Milliarden Dollar wert und Ende 1996 verzeichnete das Unternehmen Einnahmen von 346 Millionen Dollar. Auf einen Schlag war die Botschaft klar: Das Web ist ein bedeutender Markt geworden, auf dem sich viel Geld verdienen lässt.18
Häufig wurde Tim Berners-Lee mit der Frage konfrontiert, ob ihn das sauer machen würde, dass man nun für einige Web-Angebote Geld zahlen müsste. Für ihn war die Community, die für freie Software sorge zwar fundamental und er sieht sie als Basis der Kreativität. Doch gleichermaßen sah er die partielle Kommerzialisierung als wichtigen Meilenstein für den Erfolg des Webs, ohne die das ganze Konzept nicht aufgegangen wäre. Um ein universelles Medium zu werden, musste es jede Informationen und Verlinkung zulassen. Das bedeutet, dass man kommerzielle Angebote nicht einfach ausschließen durfte.19 Zudem sieht er die Universalität auf jeder Ebene, die auch in der realen Welt existiert. Es musste auf verschiedenen Wegen mit verschiedenen Gruppen verschiedener Größen an verschiedenen Orten des täglichen Lebens funktionieren. Ob zu Hause, im Büro, Schulen, Kirchen, Ländern, Kulturen, etc. Informationen müssten jede soziale Grenze durchbrechen können.20 Dementsprechend war auch die Sorge, dass der bislang von Akademikern als offen und frei verstandene Informationsraum, von Spam-Mails und Werbung überflutet wird zwar verständlich, aber unbegründet.21
Ein Brösel des Kuchens
Während im Jahr 1996 bereits die erste Botschaft des »großen Geldes« versandt wurde, wurden die meisten Dinge noch immer von purer Aufregung und Euphorie angetrieben. Erst 1998 wurde das Web zum Schauplatz des großen Geschäfts und rückte auch in das Interesse der Regierung. Es wuchs der Wunsch das Web zu kontrollieren und jeder mischte sich ein, wo er nur konnte. Gegen Microsoft lief ein Kartellverfahren, der Wert der Internetfirmen stieg und es gab den sogenannten »Kampf der Portale« von Mammut-Webseiten wie Yahoo!, Dienstleister wie AOL oder Anbietern von Inhalten wie Disney.22 Jeder wollte das größte Stück des Kuchens abhaben. Vor allem die steigenden Marktwerte, der starke Expansionsdrang von Unternehmen und überhöhte Gewinnerwartungen führten letztlich 2000 zum Zerplatzen der großen Internetblase. Erwartungen wurden nicht erfüllt, Unternehmen waren nicht profitabel genug oder gingen bereits in Insolvenz. Während viele Kleinanleger und überschaubare Unternehmen zu viel Verluste einstrichen, steckten Teile der »New Economy« diesen Absturz jedoch weg und erreichten ganz neue Aufmerksamkeit. Dazu gehören beispielsweise amazon, eBay oder Google.
Kampf der Moral
Während die Unternehmen, um ihren Platz im Web kämpften, stemmten sich verschiedenste Gruppen – sei es mit religiösen Hintergrund oder z. B. Elterninitiativen – gegen verwerfliche oder schädliche Inhalte im Web.23
Es gab zwar verschiedene Ansätze das Problem zu lösen, doch zum einen stellte sich die Frage nach der Legitimität von Zensur.24 Zum anderen hätte eine Filterung von beispielsweisen pornographischen Inhalten teilweise auch dazu geführt, dass ungewollt andere Inhalte wie z. B. Informationen über Sexualerziehung oder Brustkrebs verbannt worden wären. Ohnehin sind Betrug und Kinder-Pornographie auch im realen Leben strafbar25 – dementsprechend müssten Gesetze nach Handlungen beschrieben werden, nicht in Bezug auf eine einzelne Technologie.26
Verformte Gesellschaft
Natürlich musste sich das Konsortium durchaus über die Auswirkungen auf die Gesellschaft, welche durch das Web geformt wird, Gedanken machen.27 So schreibt Berners-Lee, dass wir alle sicherstellen müssen, dass die Gesellschaft, die wir mit dem Web aufbauen, die von uns beabsichtigte ist. Weiter, dass sie in vielen ethischen, rechtlichen und sozialen Fragen zurückbleiben kann, wenn sich die Technologie zu schnell entwickelt.28 Letztendlich war es aber Aufgabe der Technologie bzw. des Mediums, technische Mechanismen anzubieten und nicht sozialpolitisch zu agieren. Technologie muss losgelöst davon sein, die Welt beherrschen zu wollen.29 Das betrifft unter dem Strich viele weitere Bereiche wie z. B. die Meinungsfreiheit, Privatsphäre oder geistiges Eigentum.30
Um die Gesellschaft zu schützen, sollten wir zudem vorsichtig sein, Dinge zu tun, nur weil sie möglich sind. Die Tatsache, dass es sehr kostengünstig machbar wäre, über politische Fragen im Web abzustimmen, bedeutet nicht, dass wir zwingend von einer repräsentativen zur direkten Demokratie wechseln müssen.31
Ferner hält Berners-Lee es für wichtig, dass das Web Parallelität zulässt. Das menschliche Gehirn übertrifft den Computer in seiner Parallelverarbeitung und auch die Gesellschaft löst die Probleme parallel. Jeder sollte daher in der Lage sein, Arbeiten zu veröffentlichen und zu kontrollieren, wer Zugang zu dieser erhält. Es sollte dabei keine Struktur oder Beschränkungen geben, die irgendeine Form von Idee ausschließt.32
Weiter können viele soziale Prozesse besser maschinell durchgeführt werden: Die Computer sind stets verfügbar, ohne Vorurteile und ohnehin würde keiner diese Systeme verwalten wollen.33
Abschließend ist es aus heutiger Sicht keine Überraschung, dass die Gesellschaft massiv vom World Wide Web verformt wurde. Unternehmen und Nationen wurden zuvor durch geographische Grenzen gebildet und das Web hat uns aus dem zwei-dimensionalen Raum katapultiert.34 Entfernungen sind nichtig geworden und die gesellschaftlichen Probleme sind zum Teil sicher andere geworden.
Doch obwohl wir nun von fast drei Jahrzehnten World Wide Web sprechen, scheinen viele Probleme, die Tim Berners-Lee schon 1999 beschreibt, nach wie vor zu bestehen. Noch immer herrschen riesige Diskussion über Datenschutz und Privatsphäre, noch immer landen unzählige illegale Inhalte im World Wide Web und noch immer – oder durch die Masse gerade jetzt – ist es unmöglich Inhalte zu »kuratieren«. Die weiteren Fragen, die daraus entstehen sind die, wer überhaupt das Recht hätte Inhalte zu zensieren oder wie Rechte generell durchzusetzen sind. Nimmt man Facebook als bekanntes Beispiel, wird einem bewusst, wie schwierig die Lage zu sein scheint. Grundrechte wie das »Briefgeheimnis« werden völlig missachtet und in vielen weiteren Punkten handelt Facebook entgegen dem deutschen Gesetz. Zum einen ist es ein massives Problem, dass das Web international ist, während es nichtsdestotrotz geographische Grenzen mit Gesetzen für diesen begrenzten Raum gibt. Zum anderen ist fraglich, wie solche limitierten Gesetze durchsetzbar wären. Als extremste Form könnte Facebook in Deutschland nicht verfügbar sein bis sich die Plattform an die Gesetze hält und die Rechte der Bürger anerkennt. Doch der Aufschrei wäre groß und ein Argument wäre, dass man immerhin selbst entscheiden kann, ob man Rechte abtritt – was wir immerhin tagtäglich tun. Noch immer scheint es so, als könnte man die Probleme, die im World Wide Web auftauchen, nicht in den Griff kriegen. Zudem ist es aus meiner Sicht so gut wie ausgeschlossen sämtliche Straftaten zu verhindern und auszuschließen. Immerhin ist das Web nicht mehr nur ein Spiegel der Gesellschaft, sondern ein Werkzeug, das wir nicht nur nutzen, sondern durch dass sich unser komplettes Leben verändert hat. Ein Werkzeug, das längst nicht nur ein Medium ist, in das wir bewusst eintauchen, sondern ein täglicher Begleiter. Das uns ständig umgibt und dessen Grenzen zur »realen« Welt verschwinden. Ein großer Kosmos informationeller Entitäten, dessen gesamtes Dasein grundsätzlich überdacht werden müsste.
Auf dieser Basis entstand mein ursprünglicher Titel »Digitale Primaten«. Zwar gehören auch Menschen zu den Primaten, aber im allgemeinen Sprachgebrauch klingt Primaten etwas rückständig. Aus meiner Sicht hinken wir noch immer der Technologie hinterher und sollte sie sich weiter so schnell entwickeln – was ich vermute – wird der Abstand größer und größer. Daher gilt es, so schnell wie möglich Lösungen zu finden, um das Zusammenleben zwischen Mensch und Maschine anzunähern und mit so wenig Hürden wie möglich zu gestalten.
Quellen
Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 4.
Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 80 f.
Vgl. Ebd., S. 76.
Vgl. Ebd., S. 83.
Vgl. Ebd., S. 84 f.
Vgl. Ebd., S. 106.
Vgl. Ebd., S. 107.
Vgl. Ebd., S. 164.
Vgl. Ebd., S. 107.
Vgl. Ebd., S. 124.
Vgl. Ebd., S. 124.
Vgl. Ebd., S. 113.
Vgl. Ebd., S. 135 f.
Vgl. Ebd., S. 131.
Vgl. Ebd., S. 110.
Vgl. Ebd., S. 123.
Vgl. Ebd., S. 137.
Vgl. Ebd., S. 124.
Vgl. Ebd., S. 174.
Vgl. Ebd., S. 203.
Vgl. Ebd., S. 172.
Vgl. Ebd., S. 200.
Abbildungen
Titelbild: Foto von Geni: »Photo of the NeXTcube used as the first web server. The label reads ›This machine is a server. DO NOT POWER IT DOWN!!‹. On display at the science museum london.«, Stand: 13.1.2015, via Wikimedia Commons, abgerufen am 13.3.2017, Lizenz: CC BY-SA 4.0 oder GFDL.
Nach meiner ersten Auseinandersetzung mit Tim Berners-Lees Buch, möchte ich im folgenden weiteren Gedanken nachgehen. Dabei geht es unter anderem um den Aufbau des Webs, welchen ich vor allem strukturell näher betrachten möchte. Zudem finde ich den Ansatz eines universellen Informationsraums, in dem Mensch und Maschine harmonisch koexistieren sehr faszinierend.
Nach meiner ersten Auseinandersetzung mit Tim Berners-Lees Buch (Die Vision eines Visionärs »), möchte ich im folgenden weiteren Gedanken nachgehen. Dabei geht es unter anderem um den Aufbau des Webs, welchen ich vor allem strukturell näher betrachten möchte. Zudem finde ich den Ansatz eines universellen Informationsraums, in dem Mensch und Maschine harmonisch koexistieren sehr faszinierend.
Hypertext als non-lineare Grundlage
Während das Internet grundsätzlich nur das infrastrukturelle Fundament für das World Wide Web bildet, basiert die Kernidee des World Wide Webs auf Hypertext. Laut Berners-Lee war seine Aufgabe lediglich beides zu »verheiraten«.1 Nachdem es zuvor schon ähnliche Konzepte gab, wurde der Begriff Hypertext im Jahr 1965 von Ted Nelson geprägt. Zum einen schrieb Ted Nelson von »Literarischen Maschinen«: Von Computern, die dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren.2 Zum anderen ist an dieser Stelle wichtig zu wissen, dass es sich bei Hypertext um einen dynamischen Text handelt, dessen einzelne Bestandteile durch Querverweise vernetzt sind. Dieser enzyklopädische Ansatz ist fundamental für die Entwicklung des World Wide Webs und sein non-lineares Format.
Auf Grundlage dieser Struktur, entwickelt Tim Berners-Lee den Vorläufer des World Wide Webs »Enquire«, das auf Knoten (Nodes) basiert, die – der Reihe nach – miteinander verlinkt sind. Er vergleicht das Software-Projekt mit dem menschlichen Gehirn, welches gleichermaßen netzartig funktioniert und zufällige Assoziationen zulässt.3 Dabei sind die Verbindungsmöglichkeiten unbegrenzt und zuvor nicht berücksichtigte Verbindungen können sichtbar werden.4 Diese Unbeschränktheit ist eine Voraussetzung dafür, dass das Web als universelle Resource dienen kann.5
Hyperspace
Laut Tim Berners-Lee ist das Web kein physisches »Ding«, sondern ein Raum in dem Informationen existieren können.6 An späterer Stelle nennt er diese Hypertext-Umgebung »Hyperspace«.7 Es war essenziell, dass Berners-Lee etwas schafft, das keine komplette Umstrukturierung der vorherigen Arbeit sowie Umformatierung sämtlicher Daten verlangt. Ihm war wichtig ein System zu kreieren, welches für jeden akzeptabel ist und mit so wenig wie möglich Regeln bzw. Beschränkungen auskommt.8 Denn nur dann, wenn Menschen selbst in der Lage sind Informationen einzuspeisen und Informationen zu verbinden,9 kann dieser universelle Informationsraum entstehen. Und nur was in diesem Informationsraum besteht, ist von informationellem Wert. Das »World Wide Web Consortium« selbst handelt dabei nach der Maxime, dass alles, was nicht in diesem Hyperspace – im Web – vorhanden ist, nicht exitierst.10
Das erinnert mich zum einen an Luciano Floridis Blick auf die Infosphäre (Zwischen Realität und Fiktion »), welche jedoch auch Menschen als informationelle Wesen mit in diese Sphäre aufnimmt. Zum anderen an Felix Stalders Betrachtung des raumzeitlichen Horizonts (Neuer Raum – neue Zeit: Neu denken »). Stalder beschreibt dabei, dass alles, was nicht »hier« ist, unerreichbar und alles, was nicht »jetzt« ist, verschwunden ist.
Zudem sehe ich in Bezug auf die netzartige Struktur einen Zusammenhang zu Marshall McLuhan, welcher von der Auflösung von Raum und Zeit spricht, sowie die Veränderung unserer westlich geprägten, sequentiellen Denkweise voraussagt (Das globale Dorf – Raum, Zeit und Dynamik »). Hier sehe ich vor allem das World Wide Web als einschneidendes Medium, welches als non-lineares Format unsere Gewohnheiten grundsätzlich verändert. Hier fände ich spannend, inwiefern nachfolgende Generationen non-linear geprägt werden. Meine Generation (Jahrgang 1986) ist noch sehr sequentiell aufgewachsen und in das Medium Web reingewachsen. Zudem halte ich unsere aktuelle Lebenswelt noch immer für sehr linear ausgelegt.
Human-Computer-Interaction und die Verschmelzung zu einem großen Informatiosnraum
Um das World Wide Web nicht nur als Medium zu sehen, in das man »einsteigen« kann, ist die Zugänglichkeit enorm wichtig. Für Berners-Lee war der Zugang noch sehr umständlich und so hatte er schon damals Ideen, welche für uns heute eine Selbstverständlichkeit sind. Mehrere Minuten warten bis der Computer hochgefahren ist, um sich dann über die Telefonleitung ins Netz einzuwählen, nahm einfach viel zu viel Zeit in Anspruch. Er träumte davon, dass Computerbildschirme immer erreichbar sind, wenn man sie benötigt und hatte die Idee von sofortiger und ständiger Verfügbarkeit.11 Er hat bereits damals die Vorstellung, dass der Computer ein ständiger Begleiter und gutes Werkzeug darstellt, um aufkommende Ideen sofort festzuhalten und sie nicht zu verlieren.12 Zwar gibt es noch immer Leute, die weder Smartphone noch Daten-Flat besitzen, doch im Großen und Ganzen ist genau dieser Fall eingetreten. Das Smartphone ist als kleiner Pocket-Computer ständiger Begleiter vieler, die an den meisten Orten auch durchgehend online sind. Das ist auch die Onlife-Erfahrung von der Floridi spricht (Von Loops und der Hyper-Realität »): Die Unterscheidung von on- und offline wird es zukünftig kaum noch geben.
Eine weitere Selbstverständlichkeit ist, dass Technologie heute zunehmend transparenter wird. Das sieht Berners-Lee als Voraussetzung für den intuitiven Umgang mit ihr. Er denkt diese Transparenz jedoch noch weiter: Computer und Netzwerke sollten seiner Ansicht nach völlig aus dem Weg gehen, da es letztendlich unwichtig ist, wo Information gespeichert wird. Die Daten und die Werkzeuge, um auf sie zuzugreifen sollten unabhängig voneinander sein – er nennt das das Konzept der Ortsunabhängigkeit. Ob Hypertext oder lokaler Ordner – beides sind für ihn gleichermaßen Informationen. Er ist auch der Meinung, dass Dateinamen verschwinden müssen und jede Datei eine andere Art von URL erhalten sollte.
Weiter kann er sich vorstellen, dass URLs komplett verschwinden und man nur noch Hyperlinks sieht.13
Diesen Ansatz halte ich für spannend sowie in seiner Argumentation richtig. Eine Vorstellung davon wie das aussehen könnte, habe ich jedoch nicht. Hierfür müsste sich die komplette Ordnerstruktur auflösen, an der wir in unserer analogen Denkweise festhalten. Grundsätzlich wäre dieser Ansatz genau der richtige, um Daten nicht selbst vorzusortieren, sondern diese Arbeit den »Verbindungen« und einer anderen Art der Kategorisierung zu überlassen. Jedoch stelle ich mir die Sortierung insofern schwierig vor, dass beispielsweise bei der grafischen Arbeit auf lokale Daten zugegriffen werden muss. Zum einen werden dabei nicht alle möglichen Suchergebnisse über dieses Thema oder den Kunden benötigt, zum anderen ist hier eine zeitliche Abfolge in der Dateistruktur sehr wichtig. Zudem kann ich mir vorstellen, dass sich die grafische Nutzeroberfläche, die sehr intuitiv angelegt ist, dadurch grundlegend ändert.
Der Begründer des World Wide Webs sah das Web selbst noch nicht als universellen Informationsraum an. Daten sind auf verschiedenste Art und Weise getrennt voneinander gespeichert und oft nicht in Beziehung gesetzt. Hier kommt das semantische Web ins Spiel, welches auch als Web 3.0 bezeichnet wird. Dabei geht es darum, maschinenlesbare Formate zu nutzen, um den Algorithmen zu ermöglichen, nicht nur stichwortartige, sondern auch kontextuale Zusammenhänge erschließen zu können. Als grundlegenden Baustein nennt er RDF, das Resource Description Framework, das auf XML basiert und logische Aussagen über Dinge trifft. Er nennt das Beispiel, dass durch logische Schlussfolgerungen maschinell erkannt werden kann, dass »Mittlere Tagestemperatur« dasselbe wie »Tagesdurchschnittstemperatur« bedeutet. Das Marktforschungsunternehmen Gartner vermutet in einer Präsentation aus dem Jahr 2007, dass 2017 die meisten Webseiten mit einer Form von semantischem Hypertext ausgestattet sind.14 Inwieweit das semantische Web tatsächlich da ist, kann ich momentan aber weder beurteilen noch sicher herausfinden.
Das semantische Web wird uns dabei helfen, die unzähligen Informationen aus dem World Wide Web zu filtern – ohne maschinelle Hilfe wäre das für uns Menschen zwischenzeitlich unmöglich. Tim Berners-Lee ist davon überzeugt, dass der Computer uns bei der Lösung großer analytischer Probleme helfen wird und hält es für wichtig, dass das Web den Menschen dabei unterstützt, sowohl intuitiv als auch analytisch zu sein. Unsere Gesellschaft benötigt beide Funktionen.15
Zudem ist er sich sicher, dass die Menschheit durch die Zusammenarbeit mit Maschinen nur profitieren kann. Er nennt das World Wide Web als Ort, wo Mensch und Maschine in einer idealen, kraftvollen Mischung koexistieren werden.16
Diese Ansicht teil auch Michael Dertouzos in seinem Vorwort. Er glaubt entgegen vieler Menschen, die davon überzeugt sind, dass Technologie uns entmenschlicht, dass sie ein untrennbares Kind der Menschheit ist. Mensch und Maschine müssen für echten Fortschritt Hand in Hand gehen, ohne dass einer als Diener des anderen handelt.17
Mit dieser Thematik habe ich mich bereits in »Die 4. Revolution« befasst und auch ich bin überzeugt davon, dass wir mit der richtigen Nutzung der jeweils stärkeren Potenztiale eine völlig neue Entwicklungsstufe erreichen und eine wunderbare Koexistenz von Mensch und Maschine führen können.
Quellen
Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 6.
Vgl. Ebd., S. 5.
Vgl. Ebd., S. 10.
Vgl. Ebd., S. 3.
Vgl. Ebd., S. 99.
Vgl. Ebd., S. 36.
Vgl. Ebd., S. 206.
Vgl. Ebd., S. 15.
Vgl. Ebd., S. 201.
Vgl. Ebd., S. 163.
Vgl. Ebd., S. 158 f.
Vgl. Ebd., S. 159 f.
Vgl. Ebd.
Vgl. Gartner Report: »Finding and Exploiting Value in Semantic Web Technologies on the Web« 2007, in: Herman, Ivan: »What is being done today?«, Stand: 14.12.2009, URL: https://www.w3.org/2009/Talks/1214-Darmstadt-IH/Applications.pdf, S. 3, abgerufen am 18.2.2017.
Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 201.
Zur Recherche über die Entwicklung des World Wide Webs dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee, dem Begründer höchstpersönlich. Der Name Tim Berners-Lee ist fest mit dem World Wide Web verwoben, doch wie viel Anteil er tatsächlich an der Entwicklung dieses Mediums besitzt, wird mir erst jetzt bewusst. Er ist nicht der gewürdigte Mann, der am Ende einer langen Kette von Prozessen steht. Er ist der Mann, der mit einer großartigen und weltveränderten Vision am Anfang, in der Mitte und am Ende dieser Kette Platz nimmt.
Zur Recherche über die Entwicklung des World Wide Webs dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee – dem Begründer höchstpersönlich. Der Name Tim Berners-Lee ist fest mit dem World Wide Web verwoben, doch wie viel Anteil er tatsächlich an der Entwicklung dieses Mediums besitzt, wird mir erst jetzt bewusst. Er ist nicht der gewürdigte Mann, der am Ende einer langen Kette von Prozessen steht. Er ist der Mann, der mit einer großartigen und weltveränderten Vision am Anfang, in der Mitte und am Ende dieser Kette Platz nimmt.
In seinem Idealbild eines universellen, »einzigen, globalen Informationsraums«1 ist alles potenziell mit allem verbunden.2 Er liebte die Vorstellung davon, dass »ein Stück Information wirklich nur dadurch definiert wird, womit und wie es verbunden ist«3. Aus seiner Sicht können dadurch völlig neue Relationen entstehen und Dinge zusammenkommen, die zuvor keine sichtbare Gemeinsamkeit hatten.4 Laut des Vorworts von Michael Dertouzos, dachte Tim Berners-Lee das Web als Medium, das in diesem gigantischen Informationsnetz menschliches Wissen und menschlichen Verstand kodifizieren würde.5
Generell begeistert ihn daran nicht nur die Idee, dass unzählige Informationen für jeden zugänglich sind, sondern auch, dass jeder daran teilhaben und sich selbst einbringen kann. Diese Begeisterung teilt er mit Ted Nelson, der schon zuvor von einer utopischen Gesellschaft geträumt hatte, in der alle Informationen von Leuten geteilt werden können, die sich auf Augenhöhe begegnen.6 Das Internet, das es längst vor dem World Wide Web gab, lässt zwar den Austausch von Daten zu. Für einen Laien sind die Hürden jedoch zu groß, um sich wirklich daran beteiligen zu können.7 Daher ist es für Berners-Lee eine Grundvorraussetzung, dass das Erstellen von Inhalten und Verlinkungen nicht nur machbar, sondern so einfach wie möglich ist. Zusätzlich setzt er voraus, dass das System komplett dezentralisiert aufgebaut sein muss, so dass ein Nutzer mit dem nötigen Equipment sofort und ohne Zugangserlaubnis »mitmachen« kann.8 Diese Dezentralisierung des Systems bedeutet für ihn zeitgleich, dass keine hierarchischen Strukturen vorherrschen dürfen und es niemanden gibt – weder eine Person noch eine Gruppe –, der das World Wide Web unter seine Kontrolle bringt.9
Ursprünglich dachte Berners-Lee an ein Web, dass das »reale«, nicht-virtuelle Leben widerspiegelt. Eine ungeahnte Folge ist die, dass Menschen durch das Web völlig neue Aktivitäten gefunden hatten. Sie fingen an zu schreiben oder zu malen, obwohl sie das zuvor nicht getan haben. Dadurch, dass sich das Web zum primären Raum für viele Aktivitäten etabliert hat, rät er dazu vorsichtig zu sein, um weiter eine gerechte und faire Gesellschaft zu ermöglichen.10
In seinem Buch zitiert der Begründer des Webs zudem eine Rede des südafrikanischen Vizepräsidenten, da er selbst seine Mission nicht besser in Worte fassen hätte können. Thabo Mbeki ruft dazu auf, die neue Technologie dafür zu nutzen sich selbst zu ermächtigen, sich über die Wahrheit der eigenen ökonomischen, politischen und kulturellen Situation zu informieren und sich selbst eine Stimme zu geben, die die ganze Welt hören kann.11
Diese Worte beschreiben wunderbar, wie dieses neue Medium als Werkzeug eines jeden genutzt werden kann. Zudem bin ich Tim Berners-Lee nicht einfach nur dankbar für ein Medium, das unser aller Leben bestimmt. Ich bin begeistert, wie er Schritt für Schritt das World Wide Web nach seiner Vorstellung gebaut hat. Ein Visionär, dessen damaliges finales »Werk« nicht nur das Endergebnis einer langen Evolution ist, sondern von Beginn an als Vision in seinem Kopf umherschwirrte.
Quellen
Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 4.
Das World Wide Web ist noch jung und viele Technologien sind noch immer nicht ausgereift. Neue stehen dagegen schon in den Startlöchern und ich bin gespannt, wie sich einige Fragen zukünftig nochmal völlig neu stellen werden.
Innerhalb des Video-Tutorials »Learning HTML5 Video« auf lynda.com erläutert Tom Green in »A short history of web video« die Entwicklung von Videos im Web seit Mitte der 90er Jahre. Während schon nach 1995 die ersten Medienschnipsel in Form von Soundtracks oder Audio-Broadcasts ins Netz gelangten, kam das Video-Format erst zwischen 1996 und 2000 an.1 Sämtliche Unternehmen versuchten anschließend einen geeigneten Video-Player anzubieten und die für mich persönlich bekannteste Lösung war letztendlich ein Plug-In für den Adobe Flash Player.
Laut einer Statistik innerhalb des Artikels »Bye Bye Flash« von Mathias Brandt, nutzten 2011 immerhin noch 50 % aller Webseiten Flash.2
Fakten dieser Art finde ich insofern wichtig, dass ich es immer wieder erstaunlich finde, wie kurz die Geschichte des Webs ist und was tatsächlich erst in den letzten Jahren möglich wurde. Sich das immer wieder ins Gedächtnis zu rufen und seine eigene Denkweise dahingehend zu schärfen, finde ich essenziell, um ein Bewusstsein dafür zu entwickeln, wie sich das Web grafisch, inhaltlich und kulturell verändert hat und verändern könnte. Sämtliche Inhalte nehmen wir als selbstverständlich wahr, obwohl es die Technologie nach wie vor nicht zulässt, alle Inhalte völlig plattformunabhängig zu entwickeln. Je größer die technischen Möglichkeiten sind, umso befreiter kann man auch gestalten, selbst wenn dadurch kreative Umwege in den Hintergrund geraten könnten. Auf der anderen Seite werden die technischen Möglichkeiten auch auf das Bedürfnis der Schaffenden angepasst und evolviert. Daher gehe ich davon aus, dass sich das World Wide Web in den nächsten Jahren noch einmal massiv verändern wird. Zum einen kann man mit immer weniger Einschränkungen das Medium an sich noch besser nutzen, zum anderen stehen schon neue Technologien in den Startlöchern. Vor allem die Verbreitung von Voice Interfaces oder WebVR sehe ich als sehr spannend an, da sich hier die Frage nach grafischen Benutzeroberflächen nochmal völlig neu stellen könnte.
In meiner Präsentation stelle ich nicht nur das 2. Semester vor, sondern gebe auch einen oberflächlichen Überblick des 1. Semesters. In diesem Beitrag verweise ich auf die einzelnen Themen und Projekte.
In meiner Präsentation stelle ich nicht nur das 2. Semester vor, sondern gebe auch einen oberflächlichen Überblick des 1. Semesters. In diesem Beitrag verweise ich auf die einzelnen Themen und Projekte. Bei Bezugnahme auf Autoren mache ich hier keine Quellenangaben. Die Quellen sind im jeweiligen Beitrag angegeben.
Analyse grafischer Veränderungen
Im 1. Semester hatte ich im Großen und Ganzen zwei Schwerpunkte. Zum einen die Analyse der grafischen Veränderungen von Webseiten seit den 90er Jahren. Basierend auf Screenshots habe ich dabei die verändernden Text-Bild-Verhältnisse, sowie Interaktionen untersucht.
Das ist dahingehend sehr spannend, dass sich das Web und die Gestaltung durch neue technologische Möglichkeiten verändert haben, aber auch durch die Gesellschaft bzw. durch deren Nutzung und Ansprüchen stark beeinflusst wurden. Web-Analyse: google.de seit 2001 »
Die Studien sind wiederum wichtig für meinen 2. Schwerpunkt, in dem es um Erzählformen geht bzw. um die Fragestellungen, welche neuen Erzählformen durch neue Medien entstehen können.
Netzkunst
Eine Erzählform, die oft nicht als solche wahrgenommen wird, ich aber sehr spannend finde, ist die Netzkunst. Aus meiner Sicht besitzt sie eine spezielle Ästhetik und arbeitet sehr mit dem Medium selbst. Es wird nicht einfach als zu füllender Platz missbraucht, sondern das Medium und die Technik selbst werden zum Teil der Erzählung gemacht. So z. B. die Frames bei Olia Lialinas »My boyfriend came back from war!« Olia Lialinas »My boyfriend came back from the war!« »
Zusätzlich finde ich Künstler spannend, die im Netz mit dem Netz arbeiten wie z. B. Addie Wagenknecht. Sie hat generell kritische Arbeiten und eine Arbeit ist beispielsweise ein Diskurs zwischen webbasierten Erfahrungen (lolcatz, memes, gifs) und historisch geschlossenen Systemen, welche die physische Welt regieren. Das Internet ist nach ihr demokratischer Natur, aber kein demokratisches Medium. Sie stellt zudem fest, dass wir mehr auf die Bildschirme als aus unseren Fenstern schauen. Von Dildodrohnen und lolzcat »
Mit »Fort McMoney« habe ich mich im Bereich Dokumentarspiel auseinandergesetzt. Es enthält viele Cut scenes, spielerisch erlangt man hier neues Wissen. Generell ist Gamification ein wichtiges Thema, denn das Spiel wird als neues Leitmedium angesehen.
Als Erzählform finde ich es an sich spannend, jedoch hat nicht jeder Interesse sich mühevoll durch einen Film oder das Spiel zu spielen. Das Doku-Game »Fort MyMoney« von David Dufrense »
In Bezug auf die Kombination Film-Game habe ich eine Ausstellung im Filmmuseum Frankfurt besucht: »Film und Games. Ein Wechselspiel«, die genau diesen Aspekt beleuchtet. Schon Ende der 80er beeinflussen sich Game und Film gegenseitig, heutzutage verschmelzen die Medien noch mehr. »Film und Games. Ein Wechselspiel.« im Filmmuseum Frankfurt
Neben dieser temporären Ausstellung im Filmmuseum, halte ich die allgemeine für sehr interessant. Vor allem mit Blick auf Geräte zur Wiedergabe von Bildern oder für die Erzeugung von Bewegtbildern. Teilweise erinnern sie an heutige Geräte. Generell hatte ich mich bereits mit Augmented und Virtual Reality beschäftigt. Hier hatte ich die Überlegung, ob nicht sogar eine Transformation aus dem Digitalen ins Analoge zu schaffen ist. Mechanische GIF: Das Giphoscope »
Natürliche Art der Erzählung
Am Ende des 1. Semesters war meine Erkenntnis, dass sich alles Richtung »natürliche Art der Erzählung« entwickelt. Ähnlich wie vor der Schrift als alles noch dynamischer war. Dazu habe ich Parameter aufgestellt, welche solche Erzählungen erfüllen müssten: Rückbesinnung auf eine natürliche Art der Erzählung »
Projekte: Eye-Tracking-Demo und Giphy-Experiment
In Bezug auf transparente Schnittstellen, entwickelte ich mit zwei Medientechnikern in einer sehr kurzen Zeit eine Eye-Tracking-Demo. Der einzige Anspruch war zu zeigen, was möglich ist. Das Thema »Mystery« war dabei nicht unbedingt meins, jedoch fand ich es spannend, an so einem Projekt mitzuarbeiten. Die großen Fragen waren, was geht und was nicht, was ist grafisch umsetzbar und wo sind die Grenzen. Das verlassene Haus »
Eine weitere Projektidee ist eine Erzählung zu entwickeln, die automatisch bebildert wird. Das widerspricht Byung Chul Hans These, dass Wissen narrativ und Informationen additiv sind. Von daher ist es aus meiner Sicht grundsätzlich nicht möglich, Narrationen automatisiert aus Daten zu generieren. Jedoch ist meine Überlegung die, eine Narration mit genauem Rahmen und exakten Parametern für Daten zu schaffen, um sich einer automatisch bebilderten Erzählung anzunähern.
Eine weitere Idee, die aus dem Giphy-Experiment entstanden ist, ist eine personalisierte Bildsprache zu entwickeln. Dabei müsste der große Datenpool auf dem eigenen Rechner genau getaggt und beschrieben oder zukünftig per Bilderkennung analysiert werden. Die eigene Sprache wird bei dieser Idee in Bilder übersetzt.
Loop-Erzählungen
Eine Loop-Erzählung mithilfe von giphy z. B. als Rauminstallation zu erarbeiten wäre ein weiterer Ansatz.
Dieser Ansatz ist meiner These aus dem 1. Semester, nämlich dass wir durch die Schrift sequentiell denken, sehr nahe. Wir sind als Europäer im Gegensatz zu orientalischen Ländern sehr linkshemisphärisch geprägt. Insgesamt denken wir sehr in Kausalitäten und alles hat einen zeitlichen Aufbau. McLuhan spricht davon, dass wir zunehmend in einer Welt der Gleichzeitigkeit leben und die Zeit aufgehört hat und der Raum verschwunden ist. Durch Loop-Erzählung wäre die Positionierung aufgelöst – es gäbe keinen klaren Zeitpunkt. Die Geschichte würde sich nach und nach – non-linear – erschließen. Das globale Dorf – Raum, Zeit und Dynamik Von Loops und der Hyper-Realität »
Interface und Interaction Design
Momentan sind all diese Ansätze auf Eis gelegt, um mich neu zu orientieren. Insgesamt finde ich nämlich sowohl das Web an sich als auch Medieninstallationen sehr spannend. Es wäre auch eine Kombination beider Medien denkbar.
Des Weiteren habe ich mich mit Interaction Design beschäftigt. So z. B. mit Conversational User Interfaces, welche teilweise die graphischen Benutzeroberflächen ersetzen sollen. Zudem find ich den Ansatz der emphatischen Interaktion interessant, welcher sich darauf konzentriert, inwiefern Rückmeldungen für den Menschen wichtig und sinnvoll sind. Ein schönes Beispiel fand ich hier das eines Baggerfahrers, der jahrelang Bagger fährt und plötzlich eine Fernbedienung bekommt. Hier muss durch Rückmeldung wieder eine Verbindung zum Material aufgebaut werden. CUI – Conversational User Interface » Natural User Interface – Die unsichtbaren Schnittstellen » Empathische Interaktion »
Medieninstallation
Abschließend stelle ich zwei Installationen von Markus Kison vor. Eine davon ist »Pulse« dessen Zentrum ein Gummiobjekt ist, das auf dessen acht Seiten die Grundemotionen des Menschen darstellt. Die Daten kommen dabei via APIs n Echtzeit aus WordPress-Blogs. »Pulse« von Markus Kison » »Touched Echo« von Markus Kison »
Der momentane Stand ist der, dass ich große Motivation habe eine Medieninstallation zu bauen, die in irgendeiner Form auf Echtzeitdaten zurückgreift. Dafür werde ich weiter recherchieren, um genaueres über Technologie und Medienechnik zu erfahren.
Am 16.12.2015 habe ich meine zweite Zwischenpräsentation gehalten.In der Präsentation stelle ich einen variablen Fragenkatalog für mein Interview mit dem Primatologen Dr. Christoph Schwitzer vor. Des Weiteren präsentiere ich einen verbesserten Vorschlag für meine grafische Analyse, die sich nun vom Videoformat gelöst hat.
Dabei beschäftigen mich zwei Hauptfragen: · Wie werden neue Medien genutzt? · Welche neuen Erzähl-Formate können entstehen?
Ein weiterer Fokus liegt auf dem Nutzungsverhalten der Zuschauer mit den Fragen, wo und wie Inhalte mit welchen Endgeräten konsumiert werden. Des Weiteren suche ich Gründe für diese Veränderung, wie z. B. weniger Zeit oder verkürzte Aufmerksamkeitsspannen. Spannend finde ich auch, ob dadurch zwischenzeitlich modulare Erzählweisen den Vorzug erhalten und ob dabei der reine Konsum oder Interaktion im Fokus steht. Bei diesen Fragen helfen mir u. a. die Onlinestudien von ARD und dem ZDF (Nutzung von Bewegtbild » und Die Nutzung des Internets unterwegs »).
Mögliche Ansätze
Als weitere Ansätze halte ich die Verwendung von Augmented oder Virtual Reality sowie 2nd Screen-Anwendungen für sehr spannend. Bereits in meiner Bachelor-Arbeit habe ich AR als Technologie genutzt, um Inhalte beispielsweise auf Postkarten oder Aufklebern in der Bahn darzustellen. Zusätzlich habe ich nun die Google Cardboard (Erste Gehversuche mit der Google Cardboard ») getestet, um Möglichkeiten von VR-Brillen auszuloten. Hier könnte sich auch das plattformunabhängige WebVR als interessante und nutzbare Technologie herausstellen.
Mein Fokus verschiebt sich zunehmend auf transmediale Erzählungen, da ich hier viel Potential für kommende Erzählungen sehe.
Bei meinen ersten zwei Ansätzen ging es zum einen darum, wie sich das Web in seinen Text-/Bild-Verhältnissen und in seiner Interaktivität über die Jahre hin verändert hat. Dazu habe ich Screenshots der letzten 10-20 Jahre grafisch dargestellt und die Webseiten mittels eines Farbsystems in die einzelnen Elemente aufgeteilt. Ein nächster Schritt sollte das Animieren der interaktiven Flächen sein, um im Vergleich zu sehen, welche quantitativen Änderungen es über die Jahre gab.
Zum anderen ging es in meinem zweiten Ansatz darum, mich genauer mit Netzkunst auseinandersetzen, sowie generell das Web als ein Abbild der Gesellschaft zu betrachten. Hier ist besonders die Arbeit mit dem Archiv »One Terabyte of Kilobyte Age« interessant. Olia Lialina und Dragan Espenschied analysieren Webseiten, die auf den geocities-Servern, der 2009 geschlossen wurde, waren. Gerade hier ist besonders der gesellschaftliche Aspekt spannend, da der Umgang mit dem Web zu Beginn natürlich ein anderer war. Das Web war ein offenes und freies Medium, in das man – aus kultureller Sicht – große Hoffnungen steckte.
Bisherige Erkenntnisse als Basis
In diesem Bereich blieb es bisher nur bei der Recherche zu einzelnen Projekten. Insgesamt hat sich nun mein Fokus auf digitale Erzählungen verschoben. Die Netzkunst und die gesellschaftlichen Aspekte des Webs werden dabei nicht verworfen. Hier sehe ich noch immer einen wichtigen Ansatz für meine Arbeit. Meinen ersten Ansatz, nämlich der der Web-Analyse, lege ich jedoch erstmal auf Eis. Dieser rein analytische Ansatz in Bezug auf die Architektur einer Webseite, stand nie im Fokus meiner Arbeit und war als eine Art »Vorarbeit« gedacht, um grundsätzliche Mechanismen des Webs zu verstehen und aufzuzeigen.
Wie erwähnt, hat sich mein Fokus auf digitale Erzählungen verschoben, genauer auf transmediale Erzählungen. Hier sehe ich besonders viel Potential für kommende Erzählungen, da das Erzählen über mehrere Medien hinweg, sowie die Einbeziehung des Publikums als »Autoren« anstelle von reinen »Konsumenten«, aus meiner Sicht einen immer größeren Stellenwert genießen wird. Ich glaube daran, dass Rezipienten Erzählungen nicht nur von außen betrachten, sondern Teil davon sein wollen. Dass sie Geschichten selbst entdecken und erleben wollen.
Eine Analyse der Webseite www.google.de und ihre Veränderung seit 2001 bezüglich der Bild-Text-Verhältnisse und Interaktivität.
Ich möchte an Hand veralteter Screenshots analysieren wie sich das Web in den letzten 10-20 Jahren sowohl in den Text-Bild-Verhältnissen als auch in seiner Interaktivität verändert hat. Die Vermutung liegt nahe, dass sich der Bild- gegenüber dem Textanteil stark vergrößert und die Interaktivität zugenommen hat. Die Vermutung ist begründet in verbesserter Technologie sowie dem breiten Zugang zum Web. Im Folgenden sind grafisch dargestellte Screenshots der Seite google.de seit 2001.
Mittels eines Farbsystems teile ich die Screenshots in die einzelnen Elemente auf. In einem nächsten Schritt soll das Animieren der interaktiven Flächen erfolgen. Im Gesamtbild soll ein Vergleich zu sehen sein, der diese Änderungen über die Jahre hinweg darstellt.
Die Screenshots stammen von der »Waybackmachine« (Internet Archive: Waybackmachine »). Soweit möglich habe ich versucht die Screenshots im jährlichen Rhythmus auszuwählen. Da die Anzahl der Screenshots aus den frühen Jahren des Webs aus ersichtlichen Gründen sehr dürftig ist, konnte ich diesen Rhythmus nicht durchgehend einhalten. Die folgende Darstellung ist im Bildschirmformat 1920 x 1080 px, da zu Beginn die Idee bestand, die Veränderung in einem Video darzustellen. Richtigerweise müssten die Seiten komplett in ihrer Länge dargestellt werden.
Das Farbsystem:
Das Farbsystem wurde in einem zweiten Schritt verbessert. Das folgende System berücksichtigt beispielsweise Interaktivität als einzelne Farbe. Im neuen System werden Art und Funktion deutlich unterschieden. Text Bild Icons Links Interaktive Felder Werbefläche
Quellen
Die Waybackmachine ist ein Internetarchiv von archive.org, das Screenshots sämtlicher Webseiten der letzten Jahrzehnte enthält. URL: https://archive.org/web/, abgerufen am 24.10.2015.
Es wird deutlich, dass das World Wide Web neue Möglichkeiten bietet, die dem einzelnen mit wenig Aufwand erlauben, eine gute Idee als Royal Flush auszuspielen. Der Kern der Sache ist für mich nicht die Frage, welches Unternehmen es durch das World Wide Web »geschafft« hat, sondern was diese durchaus noch junge Welt für nachkommende Kommunikationsdesigner bereit hält. Mit Köpfen voller Ideen, einem ästhetischem Grundverständnis Informationen zu vermitteln sowie dem nötigen Handwerkszeug scheint es die perfekte Ausgangslage zu sein.
Wie die Autoren von »Staatsfeind WikiLeaks« (Der unvollkommene Kreis ») stellt auch Andrew Keen in »Das digitale Debakel« fest, dass zwischenzeitlich kleine Gruppen die Macht über viele Menschen erlangen können.1 Während es bei WikiLeaks um Aufklärung und einer daraus resultierenden politischen Machtstellung geht, spricht Keen primär von finanzieller Macht oder unverhältnismäßiger Verteilung, die – aus meiner Sicht – durch z. B. Lobbyismus wieder in politische Macht mündet.
So beschäftigte beispielsweise WhatsApp vor dem 19-Milliarden-Dollar-Verkauf an Facebook lediglich um die 50 Mitarbeiter2 und dass Google mehr oder minder aus dem nichts in einer Garage entstanden ist, ist auch bekannt. Kleine gute Ideen werden riesig. Nur zum Vergleich: Die Daimler-AG erzielte 2014 einen Umsatz von ca. 130 Mrd. € – mit rund 280.000 Mitarbeitern.3 Wer in den gesellschaftlichen Köpfen eine größere Rolle spielt, soll jeder für sich entscheiden.
Für mich gibt es kaum etwas Langweiligeres als Zahlen oder generell Finanzen und als Laie vermische ich sicher Zahlen, die so nicht zueinander gehören. Ein Superpro wird sicher Gegenbeispiele finden und weder beruhigend noch beunruhigend ist, dass die mächtigsten Konzerne der Welt nicht Google, Facebook oder Apple heißen4. Dennoch gehört Google zu den ersten Unternehmen dieser »neuen Kategorie«, die laut Keen ihren »wirtschaftlichen Wert im Netz selbst« beherbergen.5
Nichts als Applaus für neue Ideen
Es wird in jedem Fall deutlich, dass das World Wide Web neue Möglichkeiten bietet, die dem einzelnen mit wenig Aufwand erlauben, eine gute Idee als Royal Flush auszuspielen. Der Kern der Sache ist für mich deshalb nicht die Frage, welches Unternehmen es durch das World Wide Web »geschafft« hat, sondern was diese durchaus noch junge Welt für die kommende Generation der Kommunikationsdesigner bereit hält. Mit Köpfen voller Ideen, einem ästhetischem Grundverständnis, Informationen zu vermitteln sowie dem nötigen Handwerkszeug scheint es die perfekte Ausgangslage zu sein.
Doch während unter vorgehaltener Hand versprochen wird, dass man mit einem guten Einfall so ziemlich jeden und alles erreichen kann, weiß man, dass aus den 15 Minuten Ruhm längst nur noch Millisekunden auf Pinterest-artigen Design-Blogs übrig geblieben sind – auf denen eine Idee nur noch der nächsten ähnelt.
In der Zukunft wird die Arbeit vielleicht mit Bitcoins belohnt, als Gegenwert regnet es heute selten Geld. Im Moment kann man die Web-Bühne häufig mit einem Applaus aus Likes, Retweets oder Pins verlassen. Wir verkaufen uns für billige Referenzen, verwechseln Likes mit ernst gemeinter Kritik und ich frage mich, wie ehrlich und vor allem wie wirklich das ganze Rumgeeier sein kann und zukünftig sein soll. Die alltägliche Arbeit mit realem Feedback und Kundenkontakt wirkt für mich substantieller als die Zur-Schau-Stellung im WWW. Sicher gibt es Plattformen, auf denen man sich schon jetzt ernsthaft bewegen kann und denen man sich aus meiner Sicht nicht grundsätzlich verschließen sollte. Doch eine Frage, die mich momentan beschäftigt ist, wie man zukünftig mehr Substanz und Vertrauen auf die große Web-Bühne bringen kann.
PS: Wenn wir schon mal bei vielen Zahlen waren, die nicht so ganz zusammen passen, dann noch was: Berechne wieviel deine Daten im Internet wert sind: Financial Times-Rechner.
Quellen
Vgl. Keen, Andrew: »Das digitale Debakel: Warum das Internet gescheitert ist – und wie wir es retten können«, München 2015, S. 20.
Eine Analyse der Webseite www.spiegel.de und ihre Veränderung seit 1996 bezüglich der Bild-Text-Verhältnisse und Interaktivität.
Ich möchte an Hand veralteter Screenshots analysieren wie sich das Web in den letzten 10-20 Jahren sowohl in den Text-Bild-Verhältnissen als auch in seiner Interaktivität verändert hat. Die Vermutung liegt nahe, dass sich der Bild- gegenüber dem Textanteil stark vergrößert und die Interaktivität zugenommen hat. Die Vermutung ist begründet in verbesserter Technologie sowie dem breiten Zugang zum Web. Im Folgenden sind grafisch dargestellte Screenshots der Seite spiegel.de seit 1996.
Mittels eines Farbsystems teile ich die Screenshots in die einzelnen Elemente auf. In einem nächsten Schritt soll das Animieren der interaktiven Flächen erfolgen. Im Gesamtbild soll ein Vergleich zu sehen sein, der diese Änderungen über die Jahre hinweg darstellt.
Die Screenshots stammen von der »Waybackmachine«1 (Internet Archive: Waybackmachine »). Soweit möglich habe ich versucht die Screenshots im jährlichen Rhythmus auszuwählen. Da die Anzahl der Screenshots aus den frühen Jahren des Webs aus ersichtlichen Gründen sehr dürftig ist, konnte ich diesen Rhythmus nicht durchgehend einhalten. Die folgende Darstellung ist im Bildschirmformat 1920 x 1080 px, da zu Beginn die Idee bestand, die Veränderung in einem Video darzustellen. Richtigerweise müssten die Seiten als Wireframes dargestellt werden.
Das Farbsystem:
Das Farbsystem wurde in einem zweiten Schritt verbessert. Das folgende System berücksichtigt beispielsweise Interaktivität als einzelne Farbe. Im neuen System werden Art und Funktion deutlich unterschieden. Text Bild Icons Links Interaktive Felder Werbefläche
Quellen
Die Waybackmachine ist ein Internetarchiv von archive.org, das Screenshots sämtlicher Webseiten der letzten Jahrzehnte enthält. URL: https://archive.org/web/, abgerufen am 24.10.2015.