Dynamische Anpassung des Designs auf Basis von Daten

Um mir über das Ziel meiner Master-Arbeit klar zu werden, habe ich mich im letzten Schritt noch einmal von den bisherigen Überlegungen frei gemacht. Zum einen habe ich meine bisherigen Ansätze und Themen während der kompletten Recherche-Zeit Revue passieren lassen. Zum anderen kategorisierte ich die Themen systematisch, welche mir gleichermaßen als gesellschaftlich relevant als auch für mich persönlich wichtig erschienen. Dadurch konnte ich sowohl Inhalte ausschließen, als auch neu verknüpfen.

Um mir über das Ziel meiner Master-Arbeit klar zu werden, habe ich mich im letzten Schritt noch einmal von den bisherigen Überlegungen frei gemacht. Zum einen habe ich meine bisherigen Ansätze und Themen während der kompletten Recherche-Zeit Revue passieren lassen. Zum anderen kategorisierte ich die Themen systematisch, welche mir gleichermaßen als gesellschaftlich relevant als auch für mich persönlich wichtig erschienen. Dadurch konnte ich sowohl Inhalte ausschließen, als auch neu verknüpfen. Abschließend hat mir das bei der Themenfindung massiv geholfen.

Zu meinem finalen Master-Thema führen dabei verschiedene Überlegungen und Erkenntnisse, welche ich innerhalb meines Researches erhielt und nun kategorisiert, verknüpft und mit weiteren Gedanken ergänzt habe. Zum besseren Verständnis möchte ich an dieser Stelle einen kurzen Überblick geben, den detaillierten Verlauf werde ich jedoch in meiner Master-Thesis skizzieren.

Wichtiger Ausgangspunkt ist die Tatsache, dass wir in unserer westlichen Gesellschaft von Informationen abhängig sind. Das World Wide Web – als leicht zugänglicher Teil des Internets und als universeller Informationsraum – hilft uns massiv dabei, Informationen, Daten und menschliches Wissen zu sammeln, zu indexieren und miteinander zu verknüpfen. Immer feinere Algorithmen des maschinellen Lernens helfen uns dabei, innerhalb von Daten Zusammenhänge und Muster zu erkennen.
Die Zugänglichkeit des Informationsraums ist dabei mindestens gleichermaßen essenziell; der Zugriff findet üblicherweise über eine grafische Benutzeroberfläche innerhalb des Browsers statt. Meine bisherige Recherche sowie mein erster Ansatz, nämlich die Untersuchung dieser Oberflächen und deren visuelle Evolution unter Berücksichtigung kultureller und technologischer Aspekte, liefern mir dabei entscheidende Erkenntnisse, welche mich nun unterstützen. Die analytische Auseinandersetzung mit der bisherigen visuellen Evolution, meine theoretische Recherche, sowie das Bewusstsein, dass unsere Denkweise dynamischer wird und sich unsere Interfaces verändern, geben mir weitere Impulse.

Tim Berners-Lee beschreibt das »World Wide Web als Ort, wo Mensch und Maschine in einer idealen, kraftvollen Mischung koexistieren können.«I Nichtsdestotrotz steht letztendlich der Mensch im Mittelpunkt. Daher sollte es grundsätzlich immer um das Ziel gehen, Systeme und Methoden so zu verbessern, dass ein tatsächlicher Mehrwert und Fortschritt für uns geschaffen wird. Es geht also um die Frage: Wie können wir Technologie zum Vorteil der Menschheit nutzen?

Die vorangestellten Erkenntnisse, Gedanken und Fragen führen mich zu meinem letztendlichen Master-Thema, mit dem ich das Ziel verfolge, den Zugang zum und den Umgang mit dem World Wide Web auf gestalterischer Ebene mithilfe von maschinellem Lernen weiter zu vereinfachen. Meine These ist, dieses Ziel durch eine dynamische Anpassung des Designs, basierend auf den Daten eines einzelnen Menschen, zu erreichen.

Ich stelle mir darunter eine automatisierte Adaption des Interface Designs vor, welche an bestimmte Bedingungen und Parameter geknüpft ist. Erste und naheliegende Gedanken sind dabei beispielsweise die Veränderungen von Schriftgrößen oder Farbkontrasten bei Beeinträchtigung des Sehvermögens oder das Entfallen bestimmter Schritte innerhalb eines Prozesses, wenn die Daten schon vorhanden sind.

Überlegungen, ob und wie so ein Datenpool technologisch und gesellschaftlich umgesetzt werden kann oder welche ethischen Herausforderungen sich dabei in Bezug auf z. B. Datenschutz und Privatsphäre ergeben, möchte ich dabei nicht im Detail bearbeiten, jedoch theoretisch bedenken. Mein Master-Projekt soll zudem kein flexibles Designsystem in Form eines fertigen Lösungsvorschlags darstellen oder schwerpunktmäßig Themen wie Accessibility oder Usability abdecken.

Vielmehr möchte ich mein Master-Projekt als Experiment ansehen, um gestalterische Ansätze zu finden und Anreize zu geben, dieses Ziel umzusetzen. Ich sehe meine Arbeit dabei als Startpunkt und Ideenpool für weitere Nachforschungen.

Quellen
  1. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 158.

Weitere Überlegungen zur Ausstellungsform

Nach meiner Präsentation im Masterstudio überlege ich weiter, wie meine Ausstellung aussehen könnte und welche Inhalte ich zeigen möchte. Nach wie vor ist das Ziel nicht gänzlich klar, was es sehr schwierig macht.

Nach meiner Präsentation im Masterstudio überlege ich weiter, wie meine Ausstellung aussehen könnte und welche Inhalte ich zeigen möchte. Nach wie vor ist das Ziel nicht gänzlich klar, was es sehr schwierig macht. Der enzyklopädische Ansatz, welcher die Evolution anhand von 3–4 Handlungssträngen zeigt, könnte in einem Raum gezeigt werden, der in 3–4 zeitliche Abschnitte geteilt wird und den Verlauf zeigt. Eine weitere Überlegung ist eine völlig reduzierte Form, die sich auf das Wesentliche konzentriert.

Ausstellungsraum
Möglicher Raum, der in 3–4 zeitliche Abschnitte geteilt wird und die Evolution zeigt.
Ausstellungsraum
Reduzierte Form, welche kein Sammelsurium darstellt, sondern sich auf die wesentlichen Punkte konzentriert

Untersuchung der visuellen Evolution

Am Mittwoch habe ich meinen bisherigen Ansatz im Masterstudio präsentiert. Dabei war zum einen wichtig, worum es im Kern meiner Untersuchung geht, zum anderen welche Aspekte ich dabei berücksichtigen möchte.

Am Mittwoch habe ich meinen bisherigen Ansatz im Masterstudio präsentiert. Dabei war zum einen wichtig, worum es im Kern meiner Untersuchung geht, zum anderen welche Aspekte ich dabei berücksichtigen möchte.

Der Fokus soll, wie schon beschrieben, klar auf der visuellen Untersuchung liegen, jedoch bin ich überzeugt davon, dass man die visuelle Ebene nicht isoliert betrachten kann. Zudem finde ich es spannend und wichtig, welche kulturellen und technologischen Aspekte daran angeknüpft werden können.

Weiter stelle ich mögliche theoretische Inhalte vor, wie die Historie des World Wide Webs, die Auseinandersetzung mit Informationssystemen sowie die Entwicklung grafischer Benutzeroberflächen. Zudem schwebt mir vor, mein Thema medientheoretisch zu untermauern; hier muss ich jedoch überdenken, welche Theoretiker tatsächlich passend für mein Thema sind. Bisher hatte ich an Marshall McLuhan, Vilém Flusser, Byung-Chul Han, Luciano Floridi und Felix Stalder gedacht. An dieser Stelle muss ich die Unterscheidung treffen, wer seine Theorien schon mit der Kenntnis der digitalen Welt geschrieben hat und ob beispielsweise Han, welcher sich im Allgemeinen kulturkritisch äußert, überhaupt relevant ist.
Es könnten weitere Vertreter wie Ada Lovelace, Charles Babbage oder Alan Turing berücksichtigt werden, welche aber aufgrund ihrer Irrelevanz für mein Thema nur am Rande auftauchen können.

Die wichtigste und gleichzeitig offenste Frage ist, welches Ziel ich mit meiner Arbeit verfolge. Hier konnten wir aufgrund der kleinen Runde fast drei Stunden diskutieren und Möglichkeiten abwägen. Auf mögliche Ansätze und weitere Research-Möglichkeiten werde ich im Anschluss meiner Präsentation eingehen.

Die dargestellte Präsentation ist nicht vollständig, da ich zu viel redundante Informationen, wie beispielsweise die Namen der Medientheoretiker, für überflüssig halte.

Präsentation | Kern der Untersuchung

Präsentation | Kulturelle und technische Aspekte

Präsentation | Entwicklung zum eigenen Medium mit eigener Formsprache

Präsentation | Beispielhaft für theoretische Inhalte: Ted Nelson

Präsentation | Beispielhaft für theoretische Inhalte: Vannevar Bush

Präsentation | Beispielhaft für theoretische Inhalte: Doug Engelbart

Präsentation | Grafische Analyse

Präsentation | Grafische Analyse

Präsentation | No-Layout-Ära – Statisch – Fluid

Präsentation | Mögliche Stilrichtungen

Präsentation | Veränderung des Designs

Präsentation | Neue Ansprüche

Präsentation | Auflösung von Interfaces

Grenzen der Evolution

Einen Ansatz, den ich zunächst ausgeschlossen habe, ist die Überlegung, wie grafische Benutzeroberflächen der Zukunft aussehen könnten. Dabei geht es nicht zwingend darum, ein mögliches Interface bis zum Ende zu gestalten. Viel wichtiger ist es, die Ergebnisse meiner visuellen Recherche zu analysieren, beschreiben, hinterfragen und zu verbinden. Auf Basis analysierter Muster, und mit dem Verständnis wie vergangenes und gegenwärtiges funktioniert, können Schlüsse für das Kommende gezogen werden.

Zudem ist wichtig zu wissen, dass eine Evolution nicht unendlich weiter geht, sondern sich als abflachende Kurve oder sogar in Wellen verhält. Das bedeutet, dass sich Entwicklungen nicht nur verlangsamen, sondern sogar umkehren können.

Kulturelle Bedeutung des Interfaces

Auf Grundlage des Status Quo kann nicht nur interessant sein, wie zukünftige Interfaces aussehen, sondern auch wie User Interfaces die Zukunft verändern können. Weiter ist die Perspektive, wie die gesellschaftliche Wirkung von Interfaces ist, interessant. Für diese Impulse, die ich besonders spannend finde, benötige ich aber noch Zeit, um sie weiter reifen zu lassen. Generell scheint es vielversprechend, eine Brücke zu gesellschaftlichen Themen zu schlagen.

Eine wichtige Essenz des Gesprächs ist zudem die, dass sich die visuelle Analyse letztendlich auf ein völlig anderes Thema beziehen könnte. Auf technischer Seite haben wir weitere Punkte verdeutlicht.

Die Erhaltung des menschlichen Körpers

Vannevar Bush und Doug Engelbart zielen mit ihren Visionen und Entwicklungen nicht darauf ab, die Technik selbst zu verbessern. Vielmehr geht es im Kern darum, das menschliche Leben zu verbessern. Diese Feststellung ist insofern aufschlussreich, dass auch heutzutage die unausweichliche Frage im Raum steht, was wir mit der Gestaltung von Interfaces bewirken. Geht es darum, die Technik selbst zu verbessern oder spielt es tatsächlich eine Rolle, welche Erleichterung der Mensch durch das Ergebnis erfährt? In welchen Bereichen benötigt der Mensch zweifelsfrei Unterstützung? Ein Fazit aus dem Gespräch ist, dass es ein Anliegen sein sollte, den menschlichen Körper nicht verkümmern zu lassen, sondern dessen Können zu akzeptieren, miteinzubeziehen und mit technischen Möglichkeiten lediglich zu verbessern.

Weiter ist eine erkennbare Entwicklung, dass sich Mensch und Maschine immer näher kommen und zunehmend verschmelzen. Schnittstellen verschwinden zunehmend und es ist eine generelle Entwicklung zurück zum Körper zu sehen. An dieser Stelle frage ich mich jedoch, wie weit wir gehen wollen. Möchte ich beispielsweise bei meiner täglichen Arbeit wirklich wild gestikulierend vor einem Riesen-Interface stehen, um Inhalte durch die virtuelle Welt zu swipen?

Eine zusätzliche Erkenntnis ist, dass sich Technik dessen Evolution vollstreckt ist, nicht mehr rückgängig machen lässt. Hier ist nur die völlige Verbannung oder die sinnvolle Integration hilfreich. Halbverbannte Technologien, wie beispielsweise die Google Glass, leben sonst in versteckten Grauzonen weiter.

Darstellerische Möglichkeiten

Eine der Ideen, welche ich hatte, konnten weiter ausgeführt werden. Ursprünglich dachte ich an den Bau eines Raums oder Tunnels, in dem die Evolution dargestellt wird. Im Gespräch hatten wir innerhalb der Studenten unter anderem die Idee, dass man eine Zeitreise durchgehen kann. Jeder hat seine eigenen Erfahrungen mit dem Web und durch eine gute Inszenierung könnte sich der Besucher selbst gedanklich zurückerinnern und somit emotional angesprochen werden. Das kann durch die Verwendung von passenden Requisiten und Soundelementen unterstützt werden. In Bezug auf die Soundkomponente, kann man festhalten, dass das Web sowohl auditiv als auch visuell ruhiger und klarer geworden ist. Das beginnt bei der vorhandenen Technologie wie beispielsweise Modems, die sich geräuschvoll einwählen, oder laut kleckernden Tastaturen und zieht sich durch die visuelle Ebene weiter durch. Auch hier ist zu erkennen, dass sich das sehr überladene und blinkende Design in eine minimalistische, geordnete und ruhige Umgebung verwandelt.
Der enzyklopädische Ansatz könnte durch mehrere Handlungssträngen unterstützt werden, welche sich durch die Evolution ziehen und das Storytelling unterstützen.
Wünschenswert, aber sehr schwierig umzusetzen, wäre eine poetische Ebene miteinzubringen. Prof. Dr. Phi. Stefan Asmus spricht auch von einer Metaebene, über die man von oben oder unten auf alles blicken kann. Auch denkbar wäre, dass ich eigene Thesen oder die eigene Sicht einarbeite – das würde meine Arbeit von der rein faktischen Ansicht unterscheiden. Das ist vor allen Dingen deshalb wichtig, da die Arbeit als Designer sehr von Intuition geprägt ist. Im Gespräch fällt der Vergleich mit einem Gitarrenspieler, der sich intuitiv voll und ganz auf die Musik einlässt und möglicherweise nicht wissenschaftlich exakt erklären kann, was nun genau passiert ist.
Die poetische Ebene könnte auch dazu dienen, dass das was kodifiziert gezeigt wird, gleichzeitig das zeigt, was nicht dargestellt wird. Hier verwenden wir die berühmte Eisberg-Metapher, bei der nur die Spitze des Eisbergs sichtbar über dem Wasser liegt.

Die Erweiterung des Menschen

Im weiteren Verlauf sprechen wir über künstliche Intelligenz und wie schon erwähnt über Technologien, die den Menschen unterstützen sollen. Letztendlich geht es immer darum, das Leben des Menschen zu verbessern und die künstliche Intelligenz trägt unterstützend dazu bei. In Kooperation können Probleme gelöst werden und die häufige Darstellung, dass wir mit Chips leben und von KIs getrieben und bedroht werden, ist vorerst weit hergeholt. Ein Kernpunkt ist der, dass Algorithmen im Unterschied zum Menschen nichts Unbekanntes benennen können. Das heißt nicht, dass sie keine Fähigkeit haben selbst zu lernen und sich selbst zu verbessern, jedoch kann etwas, das in keiner Form im System war, nicht selbst erstellt werden. Die Gedanken im Bezug auf künstliche Intelligenzen finde ich auch in Bezug auf Interface Design sehr spannend. Letztendlich geht es immer darum, dem Menschen bestmöglichen Zugang zu einem System zu geben und hier ist die Überlegung spannend, was der Mensch überhaupt braucht, um sinnvoll auf ein System zugreifen kann. Das meine ich sowohl im allgemeinen Bezug auf Interfaces als auch speziell mit Blick auf das Design grafischer Benutzeroberflächen.

Weitere Empfehlungen

Je nachdem in welche Richtung ich mich entscheide, können mir eine weitere theoretische Auseinandersetzung helfen. Dabei geht es zum einen um den Technikbegriff von Heidegger. Zum anderen könnte Bruno Latours Akteur-Netzwerk-Theorie interessant sein, falls ich mich tiefer mit der Koexistenz von Mensch und Maschine beschäftigen möchte. Barads buch über den agentiellen Realismus, Dirk Bäckers Text über Designvertrauen sowie Luhmanns Theorien über Weltkunst könnten weitere Quellen sein.

Momentan bin ich mir unschlüssig, welche Richtung ich einschlagen möchte. Die theoretischen Hintergründe, welche wir im Studio diskutiert haben, habe ich prinzipiell verstanden. Letztendlich fällt es mir aber schwer so schnell eine Verknüpfung zu meinem Thema zu finden. Hier möchte ich mir noch einige Tage Zeit geben und in den nächsten Tagen intensiv über mein Abschlussprojekt nachdenken. Dabei kommen Pro-Contra-Listen zum Einsatz und die wichtige Frage, die ich mir selbst beantworten muss, ist was ich selbst möchte. Was möchte ich mit meinem Abschlussprojekt später machen und welches Thema holt mich so leidenschaftlich ab, dass ich darin nicht nur wochenlang eintauchen möchte, sondern bestenfalls einen Forschungsschwerpunkt oder Interesse für danach finde.

Inspiration für die Ausstellungsform

Als Ausstellungform kann ich mir den Bau eines Raumes vorstellen, welcher die Evolution des Webs zeigt. Ähnlich der Wunderkammer könnten die gesammelten Materialien und Essenzen scheinbar unstrukturiert, aber geordnet, gezeigt werden.

Als Ausstellungform kann ich mir den Bau eines Raumes vorstellen, welcher die Evolution des Webs zeigt. Ähnlich der Wunderkammer könnten die gesammelten Materialien und Essenzen scheinbar unstrukturiert, aber geordnet, gezeigt werden. Als weitere oder auch zusätzliche Möglichkeit halte ich den Aufbau im zeitlichen Verlauf für denkbar. Der Raum oder lange Gang wäre dabei in 3–4 Zeitabschnitte aufgeteilt und der Besucher durchgeht die Evolution.

Für den Raum selbst finde ich eine Zusammenstellung diverser Materialien ansprechend. So könnten weiße oder mit UI-Elementen tapezierte Wände aus Holz als Hintergrund dienen und ein schwarzes Gitter als Netzwerk im Vordergrund stehen. An ihm könnten die Objekte angebracht werden. Als Objekte sehe ich momentan beispielsweise Plakate, Fotos oder LED-Rahmen, die die Information transportieren. Im Raum selbst stelle ich mir einen angedeuteten »Nachbau« der Zeit selbst vor. Möbelstücke und Gegenstände geben dabei erste Hinweise und durch 3D-Druck gefertigte UI-Elemente oder z. B. einem Hinweisschild mit »Under Construction« könnten digitale Elemente in den analogen Raum geholt werden.
Zurzeit ist es jedoch schwierig mich noch intensiver mit der Ausstellung selbst zu beschäftigen, da ich das Ziel der Arbeit noch nicht ausgearbeitet habe. Ich hoffe, dass es in den nächsten Tagen auf den Punkt bringen kann, um die übrige Zeit intensiv nutzen zu können.

Inspiration für die Ausstellung im realen Raum

Besucherzentrum in Montignac, France
Räumlich-Mediale Installation im »Internationale Zentrum der Höhlenmalerei in Montignac Lascaux«. Vor allen die netzwerkartige Struktur in Kombination mit den leuchtenden Elementen halte ich für sehr wirkungsvoll.I
Smart Design Expo – Europshop 2017
Stand von »Smart Design Expo« auf der Euroshop 2017. Hier finde ich wiederum die netzartige Struktur spannend, sowie die Kombination der Materialitäten.II
Wunderkammer von Cornelis van der Geest
Wunderkammer von Cornelis van der Geest. Ich kann mir eine Ausstellung ähnlich der Wunderkammer vorstellen: Als Collage vieler unterschiedlicher Objekte.
Abbildungen
  1. Architektur: Snøhetta + Duncan Lewis, Szenografie: Casson Mann, Conseil Général de la Dordogne: »Besucherzentrum in Montignac, France«, URL: http://www.janglednerves.com/lascaux-4/, abgerufen am: 12.5.2018.
  2. Syndicate: »Smart Design Expo – Euroshop 2017«, URL: https://www.pinterest.de/pin/350717889726773256/, abgerufen am 12.5.2018.

Design im Prozess

Bezüglich meiner Recherche über die visuelle Evolution im Web, möchte ich einige Punkte festhalten, welche sich für mich als wichtige Eckpfeiler herauskristallisieren.

Bezüglich meiner Recherche über die visuelle Evolution im Web, möchte ich einige Punkte festhalten, welche sich für mich als wichtige Eckpfeiler herauskristallisieren.

Das Heranwachsen zum eigenen Medium

Im Gesamtüberblick ist eine Erkenntnis für mich besonders essenziell. Nämlich die, dass sich das Layout im Web aus einer zunächst technisch bedingten Fluidität ins Statische wandelt, um anschließend wieder dynamischer zu werden. Zunächst spricht man von der No-Layout-Ära, welche sich etwas bis 1996 hält. Zuvor gab es einfach keine Möglichkeiten und Ansätze, Layouts zu erstellen. Mit der anfänglichen Aufteilung durch Tabellen und Frames, konnten endlich mehrere Spalten angelegt werden, was letztendlich jedoch zur völligen Starrheit des Designs geführt hat. Diese Gestaltung, welche sich stark am Printdesign anlehnt und ein gescheiterter Versuch ist, die komplette Kontrolle über das Medium zu erhalten, wird durch die Einführung des iPhones im Jahr 2007 überflüssig. Nach und nach kommen mehr Endgeräte mit noch mehr Bildschirmgrößen auf den Markt, was bedeutet, dass ein neuer Weg gefunden werden muss, für ein flexibles Medium wie es das Web ist, zu gestalten. Ethan Marcotte führt 2010 den Begriff Responsive Design ein, welches in eine neue Fluidität des Webs mündet. Letztendlich ist es wichtig, das World Wide Web nicht als festen Rahmen zu verstehen, sondern als ein wandelbares Medium, welches sich an die Endgeräte unterschiedlichster Art anpassen sollte und dessen Kontrolle nicht ausschließlich in der Hand des Designers liegt.

Entwicklung einer eigenen Formsprache

Ein entscheidender Punkt ist für mich zudem die Entwicklung der Materialität im Web. In Bezug auf das GUI bei Computern, habe ich bereits von Metaphern gesprochen, die dafür verwendet werden, Technik verständlicher zu machen. Auch in Bezug auf UI-Elemente sehe ich diese Vorgehensweise zu Beginn des World Wide Webs. Zwar war die Gestaltung häufig in den technischen Möglichkeiten begründet, aber an vielen Stellen sieht man die Übertragung analoger Gegebenheiten ins Digitale. Ein Button war in einem Beispiel tatsächlich so entworfen, dass es einem roten Button aus dem Realen ähnelt. Weiter wurde beispielsweise bei der Einführung des iPhones der Stil des Skeuomorphismus verwendet. Auch hier finden sich Metahpern wieder, welche z. B. e-Books in einem Regal angeordnet zeigen. Funktional wäre diese Darstellung zwar nicht wichtig, dem Nutzer hilft das aber ungemein, um einen Bezug zum Realen herstellen zu können und das Neue zu begreifen. Skeuomorphismus unterscheidet sich dabei vom Realisums, bei dem aus ausschließlich visuellen Gründen, reale Materialitäten verwendet werden.

Später verwandelt sich dieser Stil ins Flat-Design, welcher wiederum durch das Material Design von Google abgelöst wird. Flat-Design stellt prinzipiell den Gegenentwurf vom Skeuomorphismus dar. Während zuvor versucht wurde, alles so realistisch wie möglich darzustellen, fällt beim Flat-Design jeder Bezug zum Realen weg. Jegliche Höhen und Tiefen gehen verloren, Schatten oder optische Schimmereffekte fallen gänzlich weg. Material Design hebt dagegen die Wichtigkeit hervor, auch reale Gegebenheiten mit in die Gestaltung einzubeziehen. Hier ist ein Button tatsächlich erhaben, Input-Felder dreidimensional eingelassen und Schatten sollen bei der Darstellung des Objekts helfen. Gleichermaßen geben Schattierungen einen Hinweis auf die Dimensionen.

Diese Entwicklung zeigt mir, dass das Medium allmählich eine eigene Formsprache für sich beansprucht. Nach vorheriger Imitation des Realen, welche durch das Flat-Design ins extreme Gegenteil umspringt, könnte durch das Material Design eine harmonische Mischung beider Welten entstehen.

Veränderte/Verschwundene GUI/Elemente

Eine dritte und letzte Feststellung, welche mir innerhalb des visuellen Parts wichtig ist, ist die Veränderung von grafischen Benutzeroberflächen sowie das gänzliche Verschwinden von Elemenenten durch neue Formen von Interfaces und kulturelle Lernprozesse.
Endgeräte wie das Smartphone oder Tablet brachten bereits neue gestalterische Herausforderungen mit sich. In Zukunft wird sich das Erscheinungsbild durch weitere Interfaces, welche es bereits gibt, wandeln. Hier denke ich an Voice Interfaces, Conversational Interfaces oder neue Technologien wie Augmented oder Virtual Reality. Des Weiteren steht der Mensch längst nicht mehr vor einem gänzlich neuen Medium, was bedeutet, dass UI-Elemente gänzlich verschwinden können. An vielen Stellen ist es dem Nutzer zwischenzeitlich bewusst, dass man eine Galerie anklicken oder die einzelnen Fotos am Handy durch Wischen durchblättern kann. Dazu braucht es keinen separaten Hinweis in z. B. Text- oder Icon-Form.

Beide Fälle werfen bei mir die Frage auf, inwiefern sich grafische Benutzeroberflächen verändern und auflösen können. Welche Information ist tatsächlich wichtig und was kennt der Mensch bereits? Welche Technologien können zum Einsatz kommen, um die Bedienung zu erleichtern und wie sähe eine Nutzeroberfläche im Extremfall bei fortgeschrittener Technologie aus? Wie weit muss die Kontrolle des Designers über die Gestaltung tatsächlich reichen?

Randlose Gestaltung

Frank Chimero teilt mit seinem Beitrag »The Web’s Grain« Überlegungen, wie man aus einer anderen Perspektive für das Web gestalten kann. Für besonders interessant und zugleich naheliegend halte ich seine Idee, randlos zu gestalten.

Frank Chimero teilt mit seinem Beitrag »The Web’s Grain« Überlegungen, wie man aus einer anderen Perspektive für das Web gestalten kann. Für besonders interessant und zugleich naheliegend halte ich seine Idee, randlos zu gestalten. Er vertritt dabei die Idee, zunächst Elemente ohne bekannte Größe der »Leinwand« zu arrangieren und sie erst dann in eine Box zu packen.1 Das steht dem häufigen Ansatz gegenüber, in festen Bildschirmgrößen zu denken – sei es nur klein, mittel, groß –, um diesen Raum auszufüllen.
Er ist zudem der Meinung, dass wir unsere Designs mit dem Hintergedanken entwickeln, wie sie am besten in der responsiven Ansicht zusammenbrechen. Vielmehr sollten wir uns darauf konzentrieren, wie sich die Elemente aufbauen.2

Seine Ansichten machen meiner Meinung nach durchaus Sinn, da das Web kein begrenzter Raum ist, wie wir es beispielsweise auf dem Printbereich kennen. Meinem Verständnis nach, geht es ihm jedoch nicht darum, den angezeigten Bereich ins unendliche auszuweiten, so dass man in alle Richtungen scrollen kann, sondern eher darum, dass man vorgefertigte Größen nicht als Grundlage der Gestaltung nehmen soll. Hier denke ich auch an Raster, welche viel zu häufig viel zu schnell zum Einsatz kommen. So hat sich eine Aufteilung in 12 oder 16 Spalten zwar bewährt, was jedoch nicht bedeuten muss, ein solches Raster sofort zu wählen. Vielmehr sollte sich die Aufspaltung aus dem Design heraus ergeben. Weiter finde ich seine Kritik berechtigt, dass zu viel darüber nachgedacht wird, wie Elemente im responsiven aussehen. Auch hier weiß man zwar aus der Erfahrung, welche Muster sich bewährt haben, was aber auch hier nicht automatisch zu einer Aufteilung ohne vorherige Gestaltung führen sollte. Die Verbreitung hat meiner Ansicht nach auch damit zu tun, dass weit verbreitete Frameworks wie beispielsweise Bootstrap die Anzahl der Spalten fest definieren. So können Webseiten schnell und funktional umgesetzt werden, was aus wirtschaftlicher Sicht natürlich sinnvoll ist.

Vor allen Dingen in Hinblick darauf, dass sich das Web aus seiner statischen Begrenztheit befreit und den Weg zurück zur fluiden Gestaltung findet, halte ich den Ansatz für spannend und für einen gelungenen Anreiz, um weiter über das Thema nachzudenken.

Quellen
  1. Vgl. Chimero, Frank: »The Web‘s Grain«, Stand: 2015, URL: https://frankchimero.com/writing/the-webs-grain/, Absatz 75, abgerufen am 6.4.2018.
  2. Vgl. Ebd., Absatz 78.

Mögliche Wege meiner Master-Arbeit

In meiner Zwischenbesprechung mit Alain Yimbou am 28.3.2018 geht es um den aktuellen Stand meines Master-Projekts sowie um die mögliche praktische Umsetzung. Mein Thema, das den Arbeitstitel »evolution of a medium« trägt, zielt auf die kulturellen, technologischen und visuellen Veränderungen des World Wide Webs von Beginn an.

In meiner Zwischenbesprechung mit Alain Yimbou am 28.3.2018 geht es um den aktuellen Stand meines Master-Projekts sowie um die mögliche praktische Umsetzung. Mein Thema, das den Arbeitstitel »evolution of a medium« trägt, zielt auf die kulturellen, technologischen und visuellen Veränderungen des World Wide Webs von Beginn an.

Mögliche Inhalte

Kulturell sind für mich die Verformung der Gesellschaft, die Auflösung geographischer Grenzen, die Infosphäre, die Neuordnung von Raum und Zeit sowie das Web als Abbild der Kultur interessant. Technologisch könnte man das Web als jeweiligen Prototype der nächsten Entwicklung sehen. Zudem ist die Technologie als Motor und Lösung spannend für mich. Entwicklungen im Frontend, wie beispielsweise die Erstellung von Web-Layouts mit Tabellen, Floats, Flexbox oder CSS Grid gehören dabei fast schon in den visuellen Bereich.

Während kulturelle und technologische Aspekte vielmehr eine Nebenrolle spielen werden, steht vor allen Dingen der visuelle Part im Vordergrund. Nachdem das Web anfänglich mit seinen sehr gegenständlichen UI-Elementen eher eine Übersetzung der materiellen Welt war, evolviert es zunehmend zu einem eigenen Medium. Weiter halte ich den Verlauf von einer »No-Layout-Ära« hin zu sehr statischen Layouts und zurück zu fluiden Umsetzungen für sehr wichtig. Auch hier ist zu sehen, dass sich das Web zunächst sehr am Printbereich orientiert hat, um sich dann als eigenes Medium zu etablieren. Die Veränderung der grafischen Benutzeroberflächen, basierend auf kulturellen Lernprozessen und technologischem Fortschritt, ist ein weiterer essenzieller Bestandteil.

Theoretischer Teil

In meinem theoretischen Part möchte ich mich neben der historischen Entwicklung des World Wide Webs und grafischer Benutzeroberflächen mit Informationssystemen, medientheoretischen Inhalten sowie allgemeinen Konzepten des World Wide Webs auseinandersetzen. Dieser Bereich bietet zwar nur oberflächliche Einblicke, hilft mir jedoch zur Orientierung und zur Erfassung des Gesamtkontexts.
Im Bereich der Informationssysteme werde ich mich unter anderem mit Paul Outlet, Vannevar Bushs Memex, J.C.R. Licklider, Ted Nelson, Doug Engelbart und Bill Atkinsons HyperCard beschäftigten. Im medientheoretischen Teil möchte ich Einblicke in die Theorien von Marshall McLuhan, Vilem Flusser, Luciano Floridi, Byung-Chul Han oder Felix Stalder geben. Hier muss eine weitere Auswahl oder Erweiterung zeigen, welche Inhalte tatsächlich relevant für meine Arbeit sein werden. Im allgemeinen könnten Konzepte wie z. B. das von Linked Open Data bereichernd sein.

Praktische Ansätze

In welche exakte Richtung mein praktisches Projekt gehen könnte, ist momentan noch unklar. Für ein spannendes Detail halte ich die zeitliche Einordnung. In diesem Jahr wird das freie World Wide Web 25 Jahre alt und das erste Proposal jährt sich im kommenden Jahr zum 30. Mal. Ich kann mir sowohl eine Ausstellung im World Wide Web als auch im realen Raum vorstellen, wobei wir die ausschließliche Präsentation im Web während des Gesprächs ausgeschlossen haben. Um die digitalen Ergebnisse physisch greifbarer zu machen, macht es durchaus Sinn eine Exposition im realen Raum zu entwickeln. Wie die finale Umsetzung aussehen könnte, muss sich allerdings während meiner weiteren Arbeit herauskristallisieren.

Wie in meinem Beitrag »evolution of a medium« schon ausgeführt, kann ich mir vorstellen, eigene Räume zu bauen und Elemente des Webs, wie beispielsweise den berühmten Sternenhimmel oder MIDI-Sound, ins Analoge zu transportieren. Weiter wäre die Übersetzung von UI-Elementen mithilfe von 3D-Druck denkbar. Im vergangenen Beitrag beschreibe ich mögliche weitere Komponenten, welche ich an dieser Stelle nicht weiter ausführen möchte.

Ausblick

Meine Arbeit könnte Fragen nach zukünftigen Veränderungen beinhalten. Sowie der Einsatz von Natural User Interfaces vieles in der Gestaltung verändert hat, gehe ich davon aus, dass Conversational User Interfaces, Voice Interfaces oder dergleichen massive Auswirkungen auf grafische Benutzeroberflächen haben werden. Auch das Konzept von Linked Open Data beziehungsweise die generelle – auch automatisierte – Darstellung von Informationen wird sicher noch viele, neue Herausforderungen für Gestalter mit sich bringen.
Vor allem die neueren Formen von Interfaces als auch die Verwendung von Technologien wie Eye-Tracking und Augmented oder Virtual Reality, könnten aus meiner Sicht die Auflösung aktueller Formen von grafischen Benutzeroberflächen mit sich bringen.

Inspirierende Projekte

Abschließend habe ich inspirierende Projekte zusammengefasst, welche ich innerhalb meiner Master-Dokumentation behandelt habe. Dazu gehört »Once Upon« von Olia Lialina und Dragan Espenschied, welche im Jahr 2011 soziale Netzwerke mit den technologischen Möglichkeiten von 1997 nachbauten. Weiter inspiriert mich von den beiden Netzkünstlern »One Terabyte of Kilobyte Age«, welches ein Archiv von geocities-Seiten darstellt, die kurz vor Schließung des Dienstes gesichert wurden. Bei beiden gefällt mir vor allen Dingen die visuelle Komponente, welche die visuelle Ästhetik der 90er Jahre widerspiegelt. »Grosse Fatigue« stellt für mich eine großartige, poetische Form dar, ein Thema zu behandeln. Eine beeindruckende Verbindung zwischen theoretischen Inhalten und visueller Darbietung sehe ich zudem in den Projekten »In Pieces« von Bryan James, »Pulse« von Markus Kison und »Laws of UX« von Jon Yablonski.

Für meine Abschlussarbeit möchte ich eine visuelle Form finden, welche die Inhalte direkt und ohne Umschweife kommuniziert und die Ästhetik des Webs gleichermaßen mit aufnimmt.

Räumliche Bedienumgebungen

John Underkoffler, welcher unter anderem ein Interface für den Minority Report entwickelt hat, hält einen TED-Talk über die Zukunft der Interfaces.

John Underkoffler, welcher unter anderem ein Interface für den Minority Report entwickelt hat, hält einen TED-Talk über die Zukunft der Interfaces.

Ein wichtiger Standpunkt, den er vertritt, ist der, dass wir uns grundlegende Gedanken über neue Benutzeroberflächen machen müssen.1 Seit der Entwicklung des Macintoshs und dessen Benutzeroberfläche Anfang der 80er Jahre, hat sich auf technologischer Ebene unglaublich viel verändert. Nichtsdestotrotz arbeiten wir nach wie vor mit ähnlichen Systemen.2

Er führt den Raum als wichtige Komponente an, der Computer und deren Programmiersprachen verstehen die Geometrie der realen Welt jedoch nicht.3 In einem ersten Beispiel zeigt er, wie projizierte Objekte in realen Objekten verschwinden können.4 Er zeigt damit, wie virtuelle und nicht-virtuellen verschmelzen und erklärt, dass Eingabe und Ausgabe im selben Raum stattfinden. Er führt ein weiteres Beispiel an, welches ich besonders beeindruckend finde. Das System Urp für »urban planners« ist ein Werkzeug für Architekten, welche nun mit ihren eigenen Händen im realen Raum mit digitaler Unterstützung arbeiten können. Underkoffler spricht davon, dass den Architekten und Stadtplanern damit Modelle zurückgegeben werden, welche einst durch CAD-Systeme konfisziert wurden. Auf einer projizierten Oberfläche können beispielsweise Häusermodelle verschoben werden, welche Schatten werfen. Die Tageszeit wird dabei auf einer Uhr dargestellt, welche auch als reales Modell vorhanden ist, und die manuelle Veränderung der Zeit verändert gleichermaßen den Schattenwurf. Informationen, ob es beispielsweise Probleme mit der Baubehörde geben könnte, werden umgehend mit einbezogen.5
Diesen Anwendungsfall halte ich für ein gelungenes Beispiel, wie die Verbindung zwischen virtueller und nicht-virtueller Welt sinnvoll eingesetzt werden kann. Erstaunlich ist, dass diese »räumlichen Bedienumgebungen« bereits vor 15 Jahren im MIT und Media Lab entstanden sind.6

Räumliche Bedienumgebung Urp
Urp – Urban plannersI

Ein weiteres Beispiel von Underkoffler halte ich dagegen für nicht allzu anwendbar. Ihm werden auf der Leinwand (in der realen Arbeitsumgebung vermutlich kleiner) Bilder angezeigt, welche er mithilfe eines Bedienhandschuhs frei anordnen kann. Er navigiert durch die Galerie, zoomt rein und raus und zeigt Beispiele, wie die Bilder auf verschiedene Arten, z.B. nach Farbe, sortiert werden können.7 Er zeigt, wie Bilder einfach per Handbewegung auf andere Bildschirme geschoben werden können, was vor allem bei der Kollaboration verschiedener Teammitglieder spannend ist.8

Das System an sich halte ich grundsätzlich zwar nicht für schlecht, bei der Bedienung frage ich mich jedoch, ob sie alltagstauglich ist. Mit Blick auf die Zukunft und möglicher Interfaces, sehe ich mich nicht den ganzen Tag wild gestikulierend vor einer projizierten Fläche. Ich bin überzeugt davon, dass Interfaces zunehmend den Körper mit einbinden und halte die direkte Arbeit mit Händen auch grundsätzlich für sinnvoll. Aber diese Art von Bedienung sehe ich eher in zeitlich begrenzenden Umgebungen, wie beispielsweise innerhalb einer Präsentation.

Quellen
  1. Vgl. Underkoffler, John: »Pointing to the future of UI«, URL: https://www.ted.com/talks/john_underkoffler_drive_3d_data_with_a_gesture, TC: 00:01:07–00:02:03, abgerufen am 26.2.2017.
  2. Vgl. Ebd., TC: 00:00:12–00:01:07.
  3. Vgl. Ebd., TC: 00:01:07–00:02:03.
  4. Vgl. Ebd., TC: 00:02:03–00:02:26.
  5. Vgl. Ebd., TC: 00:04:15–00:05:20.
  6. Vgl. Ebd., TC: 00:05:20–00:06:29.
  7. Vgl. Ebd., TC: 00:07:18–00:08:31.
  8. Vgl. Ebd., TC: 00:09:50–00:10:56.
Abbildungen
  1. Eigener Screenshot; Underkoffler, John: »Pointing to the future of UI«, URL: https://www.ted.com/talks/john_underkoffler_drive_3d_data_with_a_gesture, TC: 00:10:22, abgerufen am 26.2.2017.

Zurück auf Los

Frank Chimero spricht in einem Vortrag im Oktober 2017 bei der Mirror Conf in Braga über die steigende Komplexität in der Webentwicklung und wiederkehrende Verwirrtheit in Bezug auf technologische Neuerungen und Möglichkeiten. Seine Schilderung finde ich vor allen Dingen dahingehend spannend, dass es mir in vielerlei Hinsicht ähnlich geht.

Frank Chimero spricht in seinem Vortrag »Everything Easy is Hard Again« im Oktober 2017 bei der Mirror Conf in Braga über die steigende Komplexität in der Webentwicklung und wiederkehrende Verwirrtheit in Bezug auf technologische Neuerungen und Möglichkeiten. Seine Schilderung finde ich vor allen Dingen dahingehend spannend, dass es mir in vielerlei Hinsicht ähnlich geht.

Er erläutert die Veränderung bei der Entwicklung von Web-Layouts und von dem Gefühl, dass es sich alle fünf Jahre so anfühlt als würde man noch einmal von vorne beginnen,1 nachdem man sich gerade in die aktuelle Technologie eingearbeitet hat. Ab Mitte der 90er Jahre war die Gestaltung mithilfe von Tabellen üblich; später waren es Floats, Flexbox oder CSS Grid, welche auch in Kombination verwendet werden können.
Zudem spricht er von der Tatsache, dass Methoden, die Tabu waren plötzlich zu den Empfehlungen gehören. Hier nennt er das Beispiel, dass er einen Artikel gelesen hat, in dem es um die Vorteile geht, keine Stylesheets, sondern Inline-Styles zu verwenden.2 Ich selbst hing auch schon an diesem Punkt als ich das erste mal von »above the fold« hörte und eine Seite nach diesem Konzept verbessern sollte.

Ähnlich wie Chimero gab es bei mir immer wieder – wenn auch riesengroße – Lücken bei der Entwicklung von Webseiten. Nachdem ich meine ersten Webseiten im Jahr 2000 erstellte, habe ich mich jahrelang nicht mehr im Detail damit beschäftigt. Hier und da nur Versuche bis ich mich mit Beginn meiner Ausbildung 2007 wieder angenähert habe. Durch kleine statische Seiten oder die Betreuung von Seiten via Content Management Systeme wurde es wieder wärmer, doch den richtigen Sprung habe ich nicht mehr geschafft. Erst mit dem Beginn meines Studiums hatte ich immer wieder die Motivation, »das jetzt endlich richtig lernen zu wollen«. Es ging damit los, Floats richtig zu verstehen und plötzlich gab es dieses Responsive Webdesign, welches vieles durcheinander brachte: Pixel, em, rem oder Prozent? Fluid, Adaptiv, was? Und nach kurzer Pause gab es mit Flexbox plötzlich wieder etwas Neues. Ist das zusätzlich? Oder alternativ? Die meiste Zeit verbrachte ich wohl damit, zu verstehen, was wie und warum verwendet wird.

Mit meinen Kenntnissen war es bisher kein Problem, kleinere Webprojekte umsetzen, doch vor wenigen Wochen habe ich mich entschieden, tiefer eintauchen zu wollen. Ich habe damit begonnen bei #100daysofcode mitzumachen, um zu sehen, was passiert, wenn ich jetzt länger am Ball bleibe. Dabei geht es darum, sich eigene Ziele zu setzen und 100 Tage lang mindestens eine Stunde täglich zu üben und zu lernen. Es ist erstaunlich wie viel man in so kurzer Zeit lernen kann und ich hoffe trotz Master-Arbeit dran bleiben zu können. Vor allem wünsche ich mir, nicht wie bisher demotiviert zu sein, sobald es in JavaScript zu sehr ins Detail geht.

Der Vortrag von Frank Chimero inspiriert und motiviert mich dahingehend, dass es aus seiner Sicht egal sein könnte, ob man direkt aus der Schule kommt oder 20 Jahre Erfahrung mitbringt. Man könnte an der gleichen Stelle landen, nämlich im ersten Jahr, in dem man Webseiten erstellt.3 Und das ist immerhin ein hervorragender Anfang für viele weitere Jahre.

Quellen
  1. Vgl. Chimero, Frank: »Everything Easy is Hard Again«, Stand: 12.10.2017, URL: https://frankchimero.com/writing/everything-easy-is-hard-again/, Absatz 18, abgerufen am 15.2.2017.
  2. Vgl. Ebd., Absatz 26.
  3. Vgl. Ebd., Absatz 52.

Kein Vergleich grafischer Benutzerobflächen

Ursprünglich wollte ich die grafischen Benutzeroberflächen anfänglicher Systeme gegenüberstellen. So z.B. die Interfaces des Xerox Alto, Xerox Star, Apple Lisa oder Macintosh. Aus jetziger Sicht sehe ich jedoch leider keinen großen Mehrwert für meine Arbeit.

Ursprünglich wollte ich die grafischen Benutzeroberflächen anfänglicher Systeme gegenüberstellen. So z. B. die Interfaces des Xerox Alto, Xerox Star, Apple Lisa oder Macintosh. Aus jetziger Sicht sehe ich jedoch leider keinen großen Mehrwert für meine Arbeit. Ich finde die Entwicklung nach wie vor spannend und wichtig. Zudem kann ich mir vorstellen, dass ich die ein oder andere Erkenntnis daraus ziehen hätte können. Nichtsdestotrotz erhoffe ich mir mehr Erkenntnisse durch die spezielle Auseinandersetzung mit der Gestaltung im Web. Ab jetzt möchte ich mich daher verstärkt dem grafischen Research für mein praktisches Projekt widmen sowie weitere theoretische Grundlagen, speziell für diesen Bereich, schaffen.

(Un-)Menschlickeit im digitalen Mittelalter

Der Film »Lo and Behold – Wovon träumt das Internet?« des Regisseurs Werner Herzog geht in seinen zehn Kapiteln der Geschichte des Internets und dessen Auswirkungen auf unsere Gesellschaft nach. In Gesprächen werden beispielsweise »Die Herrlichkeit des Netzes«, »Die dunkle Seite«, »Internet auf dem Mars« oder die Zukunft des Netzes thematisiert. Gesprächspartner sind dabei Leonard Kleinrock, Elon Musk, Sebastian Thrun sowie viele weitere wichtige Protagonisten dessen tägliche Arbeit vom Internet bestimmt wird oder deren Leben durch das Netz massiv verändert wurde.

Der Film »Lo and Behold – Wovon träumt das Internet?« des Regisseurs Werner Herzog geht in seinen zehn Kapiteln der Geschichte des Internets und dessen Auswirkungen auf unsere Gesellschaft nach. In Gesprächen werden beispielsweise »Die Herrlichkeit des Netzes«, »Die dunkle Seite«, »Internet auf dem Mars« oder die Zukunft des Netzes thematisiert. Gesprächspartner sind dabei Leonard Kleinrock, Elon Musk, Sebastian Thrun sowie viele weitere wichtige Protagonisten dessen tägliche Arbeit vom Internet bestimmt wird oder deren Leben durch das Netz massiv verändert wurde. Wie in meiner Dokumentation üblich, möchte ich keine Filmrezension schreiben, sondern lediglich die wichtigen Punkte herauspicken. Vor allem die Kapitel »Künstliche Intelligenz« und »Das Internet des Ichs« sind dabei spannend für mich.

In ersterem prophezeit Sebastian Thrun, dass wir an einen Punkt kommen werden, an dem fast alles von Maschinen übernommen werden kann und dass sie das meiste besser als wir Menschen können. Das liegt unter anderem daran, dass Maschinen sehr viel schneller lernen.1 Zudem erklärt er schon zuvor, dass die Fehler, die selbstfahrende Autos machen, sofort mit anderen – auch »ungeborenen« – Autos geteilt werden. Dadurch wird dieser Fehler niemals wiederholt, was ein enormer Vorteil gegenüber menschlichen Fahrern ist.2

Theologische Revolution

Solche grundlegenden Veränderungen, die durch das Internet und die Maschinen, die für uns denken, einhergehen, benötigen laut Computerwissenschaftler Danny Hillis eine Veränderung unserer Moral. Wir müssten über die Definition, was menschlich sein wirklich bedeutet, nachdenken und er sagt eine theologische Revolution voraus. Wir ergründen und entwickeln eine neue Gesellschaft sowie neue Ideen darüber, was richtig und falsch ist. Er sieht die momentane Zeit zudem als eine unglaublich kreative Zeit in der Menschheitsgeschichte – nicht nur technologisch, sondern auch moralisch und kulturell.3 Dieser Gedanke ist dem Luciano Floridis, der von einer neuen Informationsphilosophie spricht, sehr nahe. Auch er ist der Meinung, dass die Entwicklung einer neuen Philosophie notwendig ist, um dem rasanten Wandel, dem unsere Zeit unterliegt, gerecht zu werden.

Das digitale Mittelalter

Der Computerwissenschaftler sieht eine weitere Entwicklung, die den Gedanken Floridis sehr ähnlich ist. Während der Informationsphilosoph es als »Digitalen Gedächtnisverlust« formuliert (Die Hypergeschichte »), spricht Hillis vom »Digitalen Mittelalter«. Seinen Beobachtungen nach passieren heutzutage viele Dinge deren Hintergründe später nicht mehr nachvollziehbar sind. Während es noch handschriftliche Briefe der Gründerväter der USA gibt, wird heute vieles per E-Mail geklärt. Diese Unterhaltungen vorweg werden höchstwahrscheinlich also nicht mehr rekonstruierbar sein und verloren gehen.4 Während die Ausführung beider ziemlich unterschiedlich sind, entsprechen sie sich im Kern doch sehr. Im Grunde geht es bei beiden um eine nicht vorhandene oder verlorene Historie, welche es den Generationen nach uns sehr schwierig machen wird, die Hintergründe zu verstehen.

Das unsichtbare Internet

Während meines Researchs beschäftigt mich immer wieder das Verschwinden von Schnittstellen. Technologie wird zunehmend unsichtbar und rückt in den Hintergrund. Der Internetpionier Leonard Kleinrock erläutert im Film, dass ein Raum wissen müsste, wenn man da ist. Er spricht von Voice User Interfaces, so dass man mit der Technologie kommunizieren kann, welche wiederum mit Sprache, einem Hologram oder einem Display auf natürliche Weise antworten kann. Auch Gesten, Berührungen oder sogar das Miteinbeziehen des Geruchssinns hält er für möglich. Er vergleicht sie dabei mit der Elektrizität, welche einfach unsichtbar in unseren Wänden eingelassen ist. Zu dieser Unsichtbarkeit müsste sich das Internet jedoch noch entwickeln.5 Ähnlich sieht das der Sicherheitsanalytiker Sam Curry, welcher von Räumen spricht, in denen das Licht nach eigenen Vorlieben gedimmt oder die Musik angeschaltet wird, wenn man den Raum betritt.6 Vor allem der letzte Ansatz eines Smart Homes, ist heutzutage teilweise schon möglich. So können beispielsweise HUE-Lampen eingeschaltet werden, sobald sich das Smartphone mit dem W-LAN verbindet oder Lampen von z. B. Trilux je nach Tageslicht gesteuert werden.

Abschließend liefert mir der Film »Lo and Behold – Wovon träumt das Internet?« leider kaum neue Erkenntnisse oder Ansätze, welche ich für meine Master-Arbeit verwenden kann. Die interessanten Gedanken habe ich hier für mich zusammengefasst, jedoch habe ich vor allem im Hinblick darauf, dass Elon Musk oder Ted Nelson Teil des Films sind, mehr erwartet.

Quellen
  1. Vgl. Herzog, Werner: »Lo and Behold – Wovon träumt das Internet?«, 98 Minuten, Vereinigte Staaten 2016 [Deutschland 2017], TC: 01:23:30–01:24:22, VIII. Künstliche Intelligenz.
  2. Vgl. Ebd., TC: 00:34:56–00:36:18, II. Die Herrlichkeit des Netzes.
  3. Vgl. Ebd., TC: 01:24:23–01:25:08, VIII. Künstliche Intelligenz.
  4. Vgl. Ebd., TC: 01:29:46–01:30:20, IX. Das Internet des Ichs.
  5. Vgl. Ebd., TC: 01:26:17–01:27:20, IX. Das Internet des Ich.
  6. Vgl. Ebd., TC: 01:27:20–01:28:28, IX. Das Internet des Ich.

Der schmale Grad zwischen Nutzerfreundlichkeit und Funktionalität

Die erste graphische Benutzeroberfläche für Personal Computer bzw. Workstations wird dem Xerox Alto zugeschrieben. Welches Unternehmen nun den allerersten kommerziellen Computer mit GUI entwickelte und vertrieb, ist für mich dagegen etwas unklar.

Die erste grafische Benutzeroberfläche für Personal Computer bzw. Workstations wird dem Xerox Alto zugeschrieben. Welches Unternehmen nun den allerersten kommerziellen Computer mit GUI entwickelte und vertrieb, ist für mich dagegen etwas unklar. Zum einen wird hier der PERQ genannt, welcher 1979 von dem Unternehmen Three Rivera Computer Corporation veröffentlicht wurde und sich sehr am Xerox Alto orientiert. Das Jahr der Veröffentlichung spricht eindeutig dafür. Zum anderen bin ich bisher häufig über den Xerox Star gestolpert, welcher als eine verbesserte Version des Xerox Alto gilt und erst im Jahr 1981 auf den Markt kam. Scheinbar gehörte er jedoch zu den damals eher unbekannten Workstations. Weiter zählt der 1983 veröffentlichte Apple Lisa zu den ersten kommerziellen Computern, der eine grafische Benutzeroberfläche beinhaltete, die zudem – wie beim Xerox Star – über eine Maus bedienbar war. Er gilt wohl als zunächst bekannteste und revolutionärste Erfindung in dieser Reihe.

Unabhängig davon, ob nun Windows, Mac oder Linux sieht Carrie Anne Philbin jedoch eins: dass fast immer eine evolvierte Version des WIMP Interfaces verwendet wird, welches mit dem Xerox Alto eingeführt wurde.1

Der Apple Lisa

Der Entwicklung des Apple Lisas ging 1979 ein entscheidender Besuch von Steve Jobs und seinem Team bei Xerox voraus.2 Während Adele Goldberg, Gründerin von ParcPlace Systems, zu diesem Zeitpunkt bereits klar war, dass Xerox mit einer Präsentation des Altos das Tafelsilber des Unternehmens verschenkte, bestanden die Manager auf diese Vorführung.3 Das Problem war, dass die Forscher in Palo Alto zwar dazu angehalten wurden, neue Ideen für die Zukunft zu entwickeln.4 Auf der anderen Seite verstand die Führung in New York, welche grundsätzlich auf die Entwicklung von Druckern aus war, jedoch nicht die Visionen, die dort entstanden.5 Umso begeisterter war Larry Tesler, früher Forscher bei Xerox PARC, dass Steve Jobs und sein Team innerhalb einer Stunde mehr verstanden als die Manager über Jahre nicht.6 Auch Jobs sah, dass das Unternehmen keine Ahnung hatte, was mit Computern alles möglich ist und glaubt daran, Xerox den Sieg vor den Füßen weggeschnappt zu haben. Aus seiner Sicht könnte das Unternehmen die Computerindustrie beherrschen und das IBM oder Microsoft der 90er Jahre sein.7

Dem Apple-Mitgründer wurden bei dieser Demo drei Dinge gezeigt, von denen eine Sache besonders hervorstach. Neben der objektorientierten Programmierung und dem Netzwerk-Computersystem war vor allem die grafische Benutzeroberfläche interessant für ihn. Laut ihm war es das bis dahin beste, was er in seinem Leben gesehen hatte und trotz der kleinen Fehler, die er erkannte, wusste er innerhalb von zehn Minuten, dass in Zukunft alle Computer so arbeiten würden.8 Die Besucher sahen einen Computer, der dafür gestaltet wurde, einfach bedient zu werden und den jeder verwenden konnte.9

Auf dieser Grundlage ging Jobs und sein Team zurück zu Apple und entwickelte Lisa.10 Dabei wurde das System nicht einfach nachgestellt, sondern um viele Funktionen erweitert. So gab es beim Xerox Alto beispielsweise keine Menüs, sondern Pop-up-Fenster. Zudem konnten Fenster mit einem Doppelklick geöffnet werden und sich erstmals überlappen. Weiter soll er über eine vollständige Schreibtisch-Metapher verfügt haben, so dass es nun Features wie den Papierkorb gab. Auch Befehle wie Apfel-S wurde mit dem von Apple eingeführten »Macintosh Human Interface Guide« eingeführt.11

Screenshot Apple Lisa
Screenshot des Apple Lisa Betriebssystems

In einer Demo wird diese neue Technologie vorgestellt. Dabei wird gezeigt, dass Lisa einen Desktop simuliert, auf dem frei platzierbare Icons zu finden sind.12 Neben der Vorstellung von gewöhnlichen Schreibtisch-Tools wie einer Uhr oder einem Kalkulator,13 werden Programme zur Textverarbeitung oder Gestaltung demonstriert. Wenn man bedenkt, dass der Einzug von Computer für den privaten Gebrauch erst Ende der 70er Jahre so wirklich begann, sind Werkzeuge zur Text- oder Grafikbearbeitung als revolutionär einzustufen.

Später wurde zwar häufig behauptet, dass Steve Jobs die Ideen von Xerox geklaut hätte, aber unter dem Strich gab es einen Deal: Xerox konnte vor dem Börsengang Apples günstige Aktien-Anteile kaufen, welche sich später vervielfachten.14

Insgesamt zählt Apple Lisa zwar als sehr fortschrittlich, war aber für den normalen Privatgebrauch zu teuer. Heute läge der Preis immerhin bei 25.000 Dollar, was in der heutigen Welt voller günstiger Bauteile unvorstellbar wäre. Somit war er ähnlich wie der Xerox Star ein Flop und Apple bastelte an einem Nachfolger, dem Macintosh. Er wurde 1984 präsentiert und war mit – nach heutigen Verhältnissen – 6.000 Dollar vergleichsweise günstig.15

Der Macintosh

Bei der Produktpräsentation definiert Steve Jobs zwei Meilenstein-Produkte in der damaligen Computerindustrie. Dazu gehörte der Apple II aus dem Jahr 1977, sowie der IBM Personal Computer von 1981. Den Macintosh sah er als dritten Meilenstein in dieser Reihe. In der auf dem Macintosh-Bildschirm gezeigten Präsentation, werden verschiedene Features wie die Veränderung von Schriftgrößen, -stilen und arten gezeigt. Die Schrift konnte deformiert werden, Bildbearbeitung wurde ermöglicht und auch die Tabellenkalkulation erhält einen Platz in dieser Demonstration.16 Manche Funktionen sind zwar bereits im Lisa zu finden, der Macintosh versprach jedoch der weit verbreitete Computer für den heimischen Gebrauch zu werden.

Innerhalb eines Textes, welcher von einer Computerstimme vorgelesen wurde, gibt es zudem eine Spitze gegen den IBM-Computer, welcher als Konkurrent des Lisas zählte. Dort heißt es »Ich würde gerne eine Maxime mit dir teilen, welche ich erkannte, als ich zum ersten Mal ein IBM-Großrechner sah: TRAU NIE EINEM COMPUTER, DEN DU NICHT HOCHHEBEN KANNST!«17.

Kampf um die Marktmacht

Obwohl Steve Jobs in seiner Erfindung einen revolutionären Fortschritt sah, stürzten die Verkäufe schnell ein. Selbst Werbekampagnen, in denen IBM als beherrschender Tyrann ganz nach George Orwell dargestellt wurde oder in denen gezeigt wurde, wie einfach der Macintosh im Gegensatz zum IBM-Rechner bedient werden kann, brachten nichts.18

Auch wenn die grafische Oberfläche und die generelle Bedienbarkeit tatsächlich fortschrittlich waren, konnte der Rechner nicht mit dem deutlich günstigeren IBM-Rechnern mithalten.19 Ein weiteres Problem war der Umgang mit dem eigenen System, den Apple bis heute beibehalten hat. Für die geschlossene Architektur gab es kaum Software. IBM hat sich dagegen deutlich offener positioniert, so dass fremde Produkte oder nicht-IBM-Computer mit dem Label »IBM-kompatibel« versehen werden konnten.20 Das hatte zur Folge, dass die Computer von Apples Konkurrenz zwar nicht so intuitiv zu bedienen waren, die Menschen aber auf einen viel größeren Markt an kompatibler Hard- und Software zugreifen konnten.

Im Bezug auf die grafische Oberfläche konnte man bei Microsoft Windows erst mit der Einführung von Windows 3.0., beziehungsweise noch eher mit der von Windows 95, wirklich von einem verbesserten und konsumerorientierten GUI sprechen. Mit Windows 95 wurden Elemente wie die Taskbar, der Datei-Manager Windows Explorer oder das Start-Menü eingeführt. Zudem wurde mit dem Projekt Microsoft Bob ein kompletter Raum mit Regalen, Tisch und Türen zu weiteren Räumen als Metapher geschaffen. Dieses Konzept war jedoch nicht erfolgreich.21

Um den Macintosh zu retten, benötigte es die »Killer-Anwendung«, welche bereits auf IBM-Rechnern zu finden waren. Ein großer Fortschritt war dabei die Einbindung von Adobe, dessen Gründer John Warnock und Charles Geschke zuvor bei Xerox arbeiteten. Deren Entwicklung der Druckersprache Interpress fand dort keinen Anklang, was in die Gründung von Adobe und der bis heute verbreiteten Druckersprache PostScript mündete. Damit war es möglich »WYSIWYG« ernsthaft zu verwirklichen: Mit Laserdruckern konnte genau das gedruckt werden, was auf dem Bildschirm zu sehen war.22 Dieser Fortschritt präziser Ausdrucke, gekoppelt an ein System mit nutzerfreundlicher Oberfläche, mündete in eine völlig neue Branche: dem Desktop-Publishing. Damit wurde der Macintosh der Computer der Wahl in der kreativen Branche.23

Der schmale Grad zwischen Nutzerfreundlichkeit und Funktionalität

An diesem Beispiel erkennt man, wie schmal der Grad zwischen Nutzerfreundlichkeit und nötiger Funktionalität ist. Zudem lässt sich einiges zu deren Wichtigkeit ablesen.

Bei einer Demonstration des Apple Lisas 1984 betont Alfred Di Blasi, dass Leute nicht wissen sollten wie ein Computer funktioniert. Sie müssen ihn einfach bedienen können, um ihre Arbeit machen zu können. Computer seien Produktivitätstools, weshalb Leute mehr Zeit dafür aufbringen sollten, das zu tun, was sie können anstatt erst zu lernen, wie man das Werkzeug nutzt.24 Nichtsdestotrotz sollten solche Produktivitätstools erst einmal vorhanden sein.

Diesen Punkt kann man aus meiner Sicht auch auf die Gestaltung im Web übertragen. Zum einen halte ich es für wichtig, dass eine Webseite, angefangen bei der grundsätzlichen Struktur bis hin zum letztendlichen grafischen Interface, durchweg so aufgebaut sein muss, dass der Nutzer so wenig Hürden wie nötig bewältigen muss. Jedes Unverständnis und jede Unsicherheit auf dem Weg zum Ziel, birgt die potenzielle Gefahr, dass der Besucher abspringt. Zum anderen darf jedoch die Wichtigkeit der grundsätzlichen Funktionalität nicht übersehen werden.

Bestenfalls leben natürlich die primären Funktionen im harmonischen Einklang mit Nutzerfreundlichkeit und unterstützendem Interface-Design. Nichtsdestotrotz macht bei der Entwicklung von Webseiten der Einsatz von minimum viable products (mvp) durchaus Sinn. Dadurch wird sichergestellt, dass ein Produkt die Mindestanforderungen erfüllt, welche meiner Ansicht nach darin liegen, dass ein Produkt funktioniert. Das bedeutet, dass der Nutzer beim Besuch einer Webseite sein Ziel (und natürlich das des Unternehmens) erreichen soll. Hier sehe ich die Funktionalität als primären Faktor. Zwar können unterstützendes Design und hervorragende Nutzerfreundlichkeit die Chance auf Erreichen des Ziels massiv steigern, alleine kann jedoch nur die Funktionalität überleben.

Quellen
  1. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:11:32–00:11:47, abgerufen am 12.1.2018.
  2. Vgl. Ebd., TC: 00:08:13–00:09:12.
  3. Vgl. Cringely, Robert X: »Triumph of the Nerds«, Dokumentation, 150 Minuten, Vereinigte Staaten 1996, TC: 01:52:54–01:53:33.
  4. Vgl. Ebd., TC: 01:46:50–01:47:00.
  5. Vgl. Ebd., TC: 01:48:55–01:49:42.
  6. Vgl. Ebd., TC: 01:54:21–01:54:32.
  7. Vgl. Ebd., TC: 01:54:32–01:54:55.
  8. Vgl. Ebd., TC: 01:50:41–01:51:48.
  9. Vgl. Ebd., TC: 01:53:34–01:54:09.
  10. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:08:13–00:09:12, abgerufen am 12.1.2018.
  11. Vgl. Dernbach, Christoph: »Apple und Xerox PARC«, Stand: 10.8.2013, URL: http://www.mac-history.de/apple-geschichte-2/2012-01-29/apple-und-xerox-parc, Absatz 19 & 20, abgerufen am 20.1.2018.
  12. Vgl. DiBlasi, Alfred, adiblasi: »Tech: Apple Lisa Demo (1984)«, Stand: 19.11.2006, URL: https://www.youtube.com/watch?v=a4BlmsN4q2I, TC: 00:08:00–00:08:35, abgerufen am 12.1.2018.
  13. Vgl. Ebd., TC: 00:08:35–00:09:15.
  14. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:08:13–00:09:12, abgerufen am 12.1.2018.
  15. Vgl. Ebd., TC: 00:09:12–00:09:43.
  16. Vgl. Cringely, Robert X: »Triumph of the Nerds«, Dokumentation, 150 Minuten, Vereinigte Staaten 1996, TC: 02:04:07–02:05:43.
  17. Ebd.
  18. Vgl. Ebd., TC: 02:06:41–02:07:37.
  19. Vgl. Ebd.
  20. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:08:73–00:08:53, abgerufen am 12.1.2018.
  21. Vgl. Ebd., TC: 00:10:45–00:11:32.
  22. Vgl. Cringely, Robert X: »Triumph of the Nerds«, Dokumentation, 150 Minuten, Vereinigte Staaten 1996, TC: 02:09:09–02:09:42.
  23. Vgl. Ebd., TC: 02:09:48–02:09:42.
  24. Vgl. DiBlasi, Alfred, adiblasi: »Tech: Apple Lisa Demo (1984)«, Stand: 19.11.2006, URL: https://www.youtube.com/watch?v=a4BlmsN4q2I, TC: 00:06:18–00:06:32, abgerufen am 12.1.2018.
Abbildungen
  1. Titelbild: Light, Alan: »Apple Convention, Boston, Spring 1983. An original Apple Lisa at work.«, Stand: Frühling 1983, via Wikimedia Commons, abgerufen am 28.1.2018, Lizenz: CC BY 2.0.

»Laws of UX« von Jon Yablonski

Gestern ging die Webseite Laws of UX (lawsofux.com) von Jon Yablonski online. Er präsentiert damit ein Regelwerk mit den wichtigsten Punkten, die ein Designer beim Erstellen von Benutzeroberflächen berücksichtigen sollte. Eine großartige Arbeit, die theoretische Inhalte hervorragend mit guter Gestaltung verbindet.

Gestern ging die Webseite Laws of UX (lawsofux.com) von Jon Yablonski online. Er präsentiert damit ein Regelwerk mit den wichtigsten Punkten, die ein Designer beim Erstellen von Benutzeroberflächen berücksichtigen sollte.

Meiner Ansicht nach punktet er dabei nicht nur mit den Inhalten bzw. den Regeln selbst, sondern setzt sie zusätzlich großartig in Szene.

Gelangt man auf die Seite sieht man bildschirmfüllend lediglich eine grafische Karte mit dem Titel der jeweiligen Regel, einen kurzen erklärenden Text sowie einen Button mit »Learn more«. Dezent im Hintergrund – Ton in Ton – erscheint die Ordnungsnummer der Regel sowie ein grafisches Element. In dieser Ansicht kann man sich durch die einzelnen Regel-Teaser scrollen. Eine seitliche Navigation verweist auf soziale Netzwerke, über das Burger-Menu erreicht man die Navigation, die alle Inhalte im Überblick zeigt.

Laws of UX Jon Yablonski Fitt‘s Law
Laws of UX – Fitt‘s LawII
Laws of UX Jon Yablonski Law of Proximity
Laws of UX – Law of ProximityIII
Laws of UX Jon Yablonski Miller‘s Law
Laws of UX – Miller‘s LawIV
Laws of UX Jon Yablonski Serial Position Effect
Laws of UX – Serial Position EffectV
Laws of UX Jon Yablonski Navigation
Laws of UX – NavigationVI

Klickt man sich in eine Regel, sind – wieder bildschirmfüllend – eine Farbfläche im Hintergrund, der Titel, die Ordnungsnummer sowie dezente grafische Elemente zu sehen. Der Aufbau vollzieht sich dabei in zurückhaltenden, wirkungsvollen und meiner Ansicht nach visuell sehr ansprechenden Animationen.
Scrollt man nun weiter, erhält man einen bei allen Regeln den strukturell gleichen Überblick über sie. Die »Übersicht«, den »Ursprung« sowie weitere Leseempfehlungen.

Laws of UX Jon Yablonski Fitt‘s Law Detail
Laws of UX – Fitt‘s LawVII
Laws of UX Jon Yablonski Miller‘s Law Detail
Laws of UX – Miller‘s LawVIII
Laws of UX Jon Yablonski Miller‘s Law Detail
Laws of UX – Miller‘s LawIX

Insgesamt halte ich das Projekt für eine großartige Arbeit, die zeigt wie man theoretische Inhalte visuell ansprechend inszenieren kann. Generell fällt mir auf, dass mir vor allem die Arbeiten im Gedächtnis bleiben, die sowohl mit theoretischen Inhalten als auch mit hervorragender Gestaltung bzw. Umsetzung hervorstechen. Dazu gehören beispielsweise auch »In Pieces« von Bryan James oder »Pulse« von Markus Kison. Mit »theoretischen Inhalten« meine ich dabei nicht allein Daten, die so auch auf Unternehmenswebseiten oder ähnlichen auftauchen können. Ich verstehe darunter ein gut recherchiertes Thema dessen Hauptinhalte durch gute Gestaltung fokussiert und in Szene gesetzt werden. So basiert »In Pieces« beispielsweise auf dem Wissen über bedrohte Tierarten, »Pulse« dagegen auf einer Emotionstheorie von Robert Plutchik aus dem Jahr 1980.
Diese Arbeiten sowie das aktuelle Projekt von Jon Yablonski verdeutlichen mir im Bezug auf meine Masterarbeit zunehmend, welche Schwerpunkte für mich immer bedeutender werden.

Abbildungen
  1. Titelbild: Eigener Screenshot; Yablonski, Jon: »Laws of UX«, URL: http://lawsofux.com, abgerufen am 16.1.2018.
  2. Eigener Screenshot; Yablonski Jon: »Laws of UX«, URL: http://lawsofux.com, abgerufen am 16.1.2018.
  3. Ebd.
  4. Ebd.
  5. Ebd.
  6. Ebd.
  7. Eigener Screenshot; Yablonski, Jon: »Laws of UX«, URL: http://lawsofux.com/fitts-law.html, abgerufen am 16.1.2018.
  8. Eigener Screenshot; Yablonski, Jon: »Laws of UX«, URL: http://lawsofux.com/millers-law.html, abgerufen am 16.1.2018.
  9. Ebd.

Die Anfänge der grafischen Benutzeroberfläche

Während meinen Nachforschungen bezüglich der grafischen Veränderungen im Web, gelange ich unweigerlich an den Ursprung der meisten heutigen GUIs. Obwohl das GUI grundsätzlich vom Webdesign zu unterscheiden ist, ist es für mich zum einen wichtig, die Ursprünge dessen zu erkunden, was uns heutzutage die Gestaltung im Web überhaupt ermöglicht. Zum anderen ist für mich der damalige Umgang mit gestalterischen Elementen spannend, welcher noch mehr von der Technologie bestimmt wurde als heute.

Während meinen Nachforschungen bezüglich der grafischen Veränderungen im Web, gelange ich unweigerlich an den Ursprung der meisten heutigen GUIs. Obwohl das GUI grundsätzlich vom Webdesign zu unterscheiden ist, ist es für mich zum einen wichtig, die Ursprünge dessen zu erkunden, was uns heutzutage die Gestaltung im Web überhaupt ermöglicht. Zum anderen ist für mich der damalige Umgang mit gestalterischen Elementen spannend, welcher noch mehr von der Technologie bestimmt wurde als heute.

Die Entwicklung des Konzepts der GUIs wird üblicherweise dem Forschungszentrum Xerox Palo Alto Research Center (Xerox PARC) zugeschrieben. Das ist zwar grundsätzlich richtig, jedoch kann diese Entwicklung nicht gänzlich isoliert betrachtet werden – ihr gingen jahrzehntelange Forschung voraus.

Sketchpad und Spacewar! als Inspiration für Doug Engelbart

Frühe interaktive, grafische Anwendungen wie Ivan Sutherlands »Sketchpad« (1962) oder das von Steve Russell am MIT entwickelte Spiel »Spacewar!« (1962) waren Teil dieser Evolution. Vor allem Sketchpad soll Doug Engelbart in seiner Arbeit inspiriert haben,1 welcher erst 1968 das oN-Line System (NLS) demonstrierte. Das NLS unterstütze dabei schon viele Eigenschaften moderner Computer wie beispielsweise Bitmap-Grafiken, Videokonferenzen, Textverarbeitung oder die kollaborative Bearbeitung von Dokumenten in Echtzeit. Des weiteren erinnert die Benutzung der von ihm erfundenen Maus sowie die Verwendung von Fenstern an heutige Verhältnisse.2

Sketchpad Ivan Sutherland
Der Erfinder Ivan Edward Sutherland bedient sein Programm Sketchpad, welches 1962 innerhalb seiner Dissertation entstanden ist. Sketchpad gilt als erstes Programm mit grafischer Benutzeroberfläche. Mithilfe eines Lichtgriffels, einem Vorläufer der Maus als Eingabegerät, konnte direkt auf dem Bildschirm gezeichnet werden.II
In der Zusammenfassung in einer seiner Schriften heißt es: »Es wurde verwendet, um elektrische, mechanische, wissenschaftliche, mathematische und animierte Zeichnungen zu zeichnen«3.
Spacewar! von Steve Russell
Steve Russells Erfindung »Spacewar!« auf dem PDP-1, welches als eines der ersten grafischen Computerspiele gilt und 1962 fertiggestellt wurde. Auch hier wird der Lichtgriffel als Eingabegerät genutzt.III

Xerox Alto mit dem WIMP Interface

Ein interessanter Verlauf ist der, dass – durch die Reduzierung staatlicher Finanzierungen – viele von Engelbarts Team zum neu gegründeten Xerox PARC wechselten. Dort wurde 1973 mit dem Xerox Alto der erste wirkliche Computer mit einer grafischen Benutzeroberfläche fertiggestellt. Das grafische Konzept orientierte sich dabei an bekannten Mustern, weshalb der 2D-Bildschirm als Oberfläche eines Schreibtisches dargestellt wurde. Innerhalb von einzelnen Rahmen wurden die Programme angezeigt, welche wir heute als Fenster bzw. auch im deutschen als windows kennen. Aus der realen Welt wurden weitere Hilfsmittel wie ein Kalkulator oder die Uhr übernommen, welche frei platzierbar waren. Diese Metapher wird auch »Schreibtisch-Metapher« genannt.4 Bis heute werden Metaphern dieser Art genutzt – noch immer verwenden wir einen sehr abstrahierten Schreibtisch mit Ordnern oder einem Papierkorb. Beides war in dieser Version jedoch noch nicht vorhanden.

Das Alto Team verwendete für seine Gestaltung Windows, Icons, Menüs sowie Zeiger (Pointer). Diese Art wird als WIMP Interface bezeichnet und ist bis heute weitestgehend in Verwendung. Zudem bot Alto wiederverwendbare, grafische Bausteine wie Buttons, Chechboxen oder Tabs an, aus denen GUI-Anwendungen entwickelt werden konnten. Auch sie waren an Objekte der realen Welt angelehnt.5

Grafische Benutzeroberfläche des Xerox Alto
Das Dynabook, entwickelt von Alan Kay, gilt als konzeptioneller Vorläufer des Xerox Alto. Die Grafik zeigt die grafische Benutzeroberfläche des Xerox Alto, welche – dem Bildschirm entsprechend – vertikal statt horizontal ist. Die Grafik zeigt, dass das GUI bereits aus einzelnen, sich überlappenden Fenstern sowie Symbolen bestand. Alan Kay und sein Team entwickelten als Softwareumgebung die objekt-orientierte Programmiersprache SmallTalk. Um mit Dokumenten, Anwendungen und Co. interagieren zu können, konnten Symbole, Dialogfelder und Dropdown-Menüs angeklickt werden.IV

Xerox Star – Cut, Copy, Paste

Vom Xerox Alto gab es nur 2000 Exemplare, mit denen intern oder an Universitäts-Laboren gearbeitet wurde. Sie wurden nie kommerziell verkauft und 1981 kam die Folgeversion Xerox Star mit verbesserter Hard- und Software auf den Markt. Bei dieser Version wurde die Schreibtisch-Metapher weiter ausgereizt, so dass Dateien wie Papier aussahen und in Ordnern oder virtuellen Aktenschränken verstaut werden konnten.6 Auch weitere Funktionen, die wir heute verwenden, wurden mit dem Xerox Star eingeführt. Es sollte die Möglichkeit bestehen, Veränderungen unsichtbar zu machen, was mit Cut, Copy und Paste gelang. Die Idee dahinter war zudem, dass ausgedruckte Dokumente ein perfektes Abbild realer Versionen sein sollten. Das wurde »What-You-See-Is-What-You-Get« (WYSIWYG) genannt7 und ist bis heute ein weit verbreiteter Terminus.

Grafische Benutzeroberfläche des Xerox Star
Grafische Benutzeroberfläche des Xerox StarV

Im folgenden Verlauf möchte ich mich zwar weiterhin mit der Entwicklung grafischer Benutzeroberflächen beschäftigen und etwas detaillierter auf die Interfaces selbst eingehen. Insgesamt wird die Beobachtung aber eher oberflächlich bleiben, da mein Fokus sehr klar auf der Evolution im Web selbst liegt.

Quellen
  1. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:01:58–00:02:36, abgerufen am 12.1.2018.
  2. Vgl. Ebd., TC: 00:02:36–00:02:53.
  3. Sutherland, Ivan Edward: »Sketchpad: A man-machine graphical communication system«, Stand: September 2003, URL: http://www.cl.cam.ac.uk/techreports/UCAM-CL-TR-574.html, abgerufen am 12.1.2018.
  4. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:03:03–00:04:36, abgerufen am 12.1.2018.
  5. Vgl. Ebd.
  6. Vgl. Ebd., TC: 00:06:30–00:07:00.
  7. Vgl. Ebd., TC: 00:07:05–00:07:48.
Abbildungen
  1. Titelbild: Hicks, Michael: »Xerox PARC Alto with mouse and chorded keyset.«, Stand: 3.11.2013, via Wikimedia Commons, abgerufen am 13.1.2018, Lizenz: CC BY 2.0.
  2. Von Kerry Rodden gescanntes Originalfoto von Ivan Sutherland: »Sketchpad Dissertation: Ivan Sutherland operating the Sketchpad system.«, Stand: 1.1.1963, via Wikimedia Commons, abgerufen am 13.1.2018, Lizenz: CC BY-SA 3.0.
  3. Ito, Joi: »Spacewar! auf einer PDP-1 des Computer History Museums.«, Stand: 12.5.2007, via Wikimedia Commons, abgerufen am 13.1.2018, Lizenz: CC BY 2.0.
  4. parc – A Xerox Company: »Smalltalk GUI«, URL: https://www.parc.com/newsroom/media-library.html, abgerufen am 13.1.2018.
  5. Baecker, Ronald M.; Buxton, William; Greenberg, Saul; Grudin, Jonathan: »Reading in Human-computer Interaction: Toward the Year 2000«, Burlington (MA) 1995, S. 57.

Erste Sammlung von UI-Elementen

Wie in meinem Beitrag »evolution of a medium« vorweggenommen, habe ich es mir zur Aufgabe gemacht, UI-Elmenete zu sammeln und zusammenzuführen. Das Ziel ist es, Veränderungen der letzten Jahrzehnte visuell herauszuarbeiten, um die Entwicklungen deutlich zu machen. Ich verspreche mir davon zudem, diese Evolution in einen Gesamtkontext einordnen zu können, um sie noch besser verstehen zu können.

Wie in meinem Beitrag »evolution of a medium« vorweggenommen, habe ich es mir zur Aufgabe gemacht, UI-Elmenete zu sammeln und zusammenzuführen. Das Ziel ist es, Veränderungen der letzten Jahrzehnte visuell herauszuarbeiten, um die Entwicklungen deutlich zu machen. Ich verspreche mir davon zudem, diese Evolution in einen Gesamtkontext einordnen zu können, um sie noch besser verstehen zu können.

Bis dato habe ich Buttons gesammelt. Die Auswahl der Webseiten folgte dabei Kriterien, welche ich in »Evolution der Webästhetik« grob formuliert habe. Obwohl ich die möglichen Webseiten noch nicht final eingegrenzt habe, habe ich erste Buttons von amazon, eBay, Google und yahoo! gesammelt. Der Fokus lag dabei zunächst auf dem primären Button, der jeweils für den Kern der Plattform – nämlich die Suchfunktion –, eingesetzt wurde.
Weitere vorstellbare Quellen sind: Apple, BILD, Bing, Chip, Facebook, Firefox, Focus, GMX, Microsoft, MSN, New York Times, PayPal, Spiegel, T-Online, Twitter, web.de, Wikipedia, youTube. Die Selektion beruht dabei zum Teil auf den Top 100 Webseiten in Deutschland.

Erste Buttons

Die nachfolgende Übersicht zeigt eine erste Sammlung von Buttons der Webseiten von Amazon, Google, yahoo! und web.de. Ich habe mich dabei auf den primären Button, in diesem Fall immer die Suchfunktion betreffend, fokussiert.

UI-Elemente Buttons Grid

evolution of a medium

Mein Master-Projekt wird nun immer konkreter. Nach meiner bisherigen Recherche zur Entwicklung des World Wide Web, präzisiert sich meine Vorstellung, welche theoretische Auseinandersetzung und welche praktische Umsetzung Teil meiner Arbeit werden können.

Mein Master-Projekt wird nun immer konkreter. Nach meiner bisherigen Recherche zur Entwicklung des World Wide Web, präzisiert sich meine Vorstellung, welche theoretische Auseinandersetzung und welche praktische Umsetzung Teil meiner Arbeit werden können.

Die erste Fragestellung innerhalb meines Master-Studiums beinhaltet bereits erste Gedanken meines jetzigen Ansatzes. Nichtsdestotrotz habe ich sehr breit recherchiert, da mir auf meinem Weg unzählige spannende Themen begegnet sind, die mich stets in eine neue Richtung gelenkt haben. Ich hatte viele Ideen von zu plump bis zu komplex und habe enorm viel Kraft in die theoretische Arbeit gesteckt. Ich habe viel gelesen und recherchiert, viel geschrieben und verworfen.

Während meiner Master-Zeit hatte ich ab und an das Gefühl den Wagen fälschlicherweise von hinten aufzurollen. Habe mich aber aus Leidenschaft nicht davon abbringen lassen.
Ich habe mir kein Thema XY ausgesucht für das ich nun ein passendes Medium für die praktische Umsetzung suche, sondern ich beschäftige mich von Anfang an mit dem Medium selbst. So liebe ich beispielsweise Netzkunst, weil sie oft eine besondere Art hat mit dem Medium Web umzugehen und eine außergewöhnliche, visuelle Sprache spricht. Ich interessiere mich für die Auflösung virtueller und nicht-virtueller Grenzen, die Veränderung der Gesellschaft durch die virtuelle Welt und für die Theorien von beispielsweise Flusser und McLuhan. Ich bin überzeugt davon, dass sich Schnittstellen zunehmend auflösen und eine neue Art der Kommunikation entsteht. Ich bin begeistert von neuen Technologien und mich bewegen Projekte, die Theorie und Praxis lückenlos verschmelzen.

Letztendlich merke ich jedoch, dass meine Gedanken häufig um ähnliche Themen kreisen. Dazu gehören wiederkehrend die Anfänge und die Entwicklung des World Wide Web, die mich sowohl visuell, technologisch als auch kulturell interessieren. Das Medium selbst wurde lange wie eines behandelt, das ausschließlich die nicht-virtuelle Welt in die virtuelle überträgt. Webseiten waren »Schaufenster« des realen Lebens, Buttons waren zum Teil rote Knöpfe mit Schrift und Baustellenschilder zeigten, dass die Webseite noch in Bearbeitung ist. Das Verständnis für das Medium wächst zunehmend und wir wissen zwischenzeitlich, dass Webseiten so gut wie immer »under construction« sind. Zum einen kann aus meiner Sicht erst eine spezifische, visuelle Sprache für ein Medium entwickelt werden, sobald das Medium verstanden wird – sprich, dass das Web kein Buch ist. Auf der anderen Seite frage ich mich, ob nicht gerade dieser spielerische Umgang mit einem unbekannten Medium – wie er in den 90er Jahren stattfand – die unantastbarste und »originalste« Sprache von allen spricht.
In meiner bisherige Recherche zeigt sich, dass sich die visuelle Sprache immer weiter von der materiellen Welt entfernt und sich das Web zunehmend zu einem eigenen Medium entwickelt. Neben visueller und kultureller Veränderungen, halte ich hierfür auch die technologischen Entwicklungen für sehr wichtig. So nutzte man teils solange wie nötig die default styles für z.B. Buttons und ersetzt sie nach und nach mit Grafiken und letztendlich Code.

Der bisher stärkste Ansatz ist meiner Ansicht nach eine Ausstellung anlässlich des 25-jährigen Jubiläums des freien Webs. Dabei kann ich mir zum einen eine interaktive Webausstellung vorstellen, aber auch eine nicht-virtuelle Exhibition mit gebauten Räumen voller Sternenhimmeltapeten und MIDI-Sound. Die Ausstellung könnte die Entwicklung des Web zeigen. Dabei wären aus meiner Sicht die visuellen Veränderungen im Vordergrund.
Ich möchte zum einen schon zum Teil gesammelte und katalogisierte UI-Elemente zusammenführen, um grafische Veränderungen deutlich zu zeigen. Die Elemente stammen dabei von verschiedenen Unternehmen, die auch in der Wayback Machine des Internet Archive zu finden sind: https://archive.org/web/. Ein erster Ansatz der Auswahlkriterien ist in meinem Beitrag »Evolution der Webästhetik« zu finden. Dabei steht noch offen, ob diese – dem Plan nach mehrere tausend – Elemente im Zentrum stehen oder einfach nur ein Pattern für die Ausstellung darstellen könnten. Zudem soll eine inhaltlich-kulturelle Komponente hinzukommen, die ich noch erarbeiten muss und eine poetische Ebene enthalten kann. Eine weitere Komponente könnte die Frage nach dem Danach sein, da ich mir unter anderem die Frage stelle, ob grafische Benutzeroberflächen durch neue Technologien wie z.B. Voice Interfaces ersetzt werden können.

An dieser Stelle wird mein Titel »Digitale Primaten« wieder mit der anfänglichen Bedeutung belegt. Nämlich, dass Menschen der Technologie noch immer hinterherhinken und wohl auch nicht mehr aufholen werden. Mein gewählter Arbeitstitel ist »digital primates – evolution of a medium« in englischer oder deutscher Form.

Carbon Design System

Vor längeren bin ich bereits auf das Carbon Design System aufmerksam geworden. Da vor kurzem ein Interwiew mit Bethony Sonnenfeld, Design Lead bei IBM, veröffentlicht wurde, habe ich nochmals mit dem System auseinandergesetzt. Carbon ist ein Designsystem, das für die Produkte der IBM Cloud entwickelt wurde.

Vor längeren bin ich bereits auf das Carbon Design System aufmerksam geworden. Da vor kurzem ein Interwiew mit Bethony Sonnenfeld, Design Lead bei IBM, veröffentlicht wurde, habe ich mich erneut mit dem System auseinandergesetzt.

Carbon ist ein Designsystem, das für die Produkte der IBM Cloud entwickelt wurde. Nachdem anfänglich nur ein überarbeitetes System für IBM Bluemix eingeführt werden sollte, wuchs der Wunsch, dass Carbon ein allgemeines, produktunabhängiges System wird. Im März 2016 wurde mit dem Umbau begonnen, seit Juni 2016 gibt es die Version 6.0, im Oktober 2017 wurde die aktuelle Version 8 des Systems veröffentlicht.

Im Interview mit Jason Grant stellt Bethony Sonnenfeld die Herangehensweise bei der Überarbeitung bzw. Neugestaltung des Systems vor. Sie erläutert die Motivation und Denkweise, sowie den Prozess selbst. Zwei für mich wichtige Punkte sind dabei die Verhaltensregeln sowie die Dokumentation. Die Verhaltensregeln zeigen, auf welchen Wegen und in welcher Art und Weise bestenfalls kommuniziert wird. Das betrifft unter anderem die zwischenmenschliche Umgangsweise. So wird beispielsweise auf die Selbstverständlichkeit hingewiesen, dass man trotz unterschiedlicher Ansichten respektvoll miteinander umgehen sollte. Zusätzlich schafft eine Übersicht der möglichen Kontaktmöglichkeiten Klarheit und vermeidet eine chaotische Kommunikation auf diversen Kanälen.

Die Dokumentation klärt viele Fragen rund um das Carbon Design System. Zu jedem Element gibt es Informationen, so dass viele Fragen überflüssig werden und bestenfalls auf allen Seiten Zeit eingespart wird.1 Dabei ist nicht nur ein reibungsloser Arbeitsauflauf wichtig. Wie Alla Kholmatova in ihrem Buch »Design Systems – A practical guide to creating design languages for digital products.« schon festhält, ist es vor allem in größeren Teams wichtig, die Elemente eindeutig festzulegen. Das verhindert beispielsweise, dass doppelte Bausteine aus unklaren oder unvollständigen Vorgaben entstehen und das System inkonsistent wird.
Für einen weiteren wichtigen Punkt halte ich die Nutzung von GitHub. Der Prozess ist sehr kontrolliert festgelegt, es müssen stets zwei Designer Änderungen absegnen. Damit kann trotz der Zusammenarbeit vieler sichergestellt werden, dass das System konsistent bleibt und den Spezifikationen entspricht.
Bethony Sonnenfeld betont, dass die Auswahl eines vorhandenen Designsystems von der persönlichen Präferenz abhängt. Sie basieren beispielsweise auf verschiedenen JavaScript-Softwarebibliotheken und als Unerfahrene würde sie ein System auswählen, das eine gute, saubere Code-Basis besitzt sowie User Experience-Richtlinen anbietet. Viele Systeme zeigen laut ihr viel zu wenig Anwendungsbeispiele, so dass man es als Nicht-Designer in der Umsetzung sehr schwer hat.2 Wobei ich mir hier die Frage stelle, wie »einfach« solche Systeme wirklich angelegt werden müssen. Aus meiner Sicht sollen sie den Arbeitsablauf von Designern und Entwicklern effizienter und schneller gestalten, die Berufe an sich jedoch nicht völlig ersetzen.

Mir persönlich gefällt das Carbon Design System vor allem im Hinblick auf das synchronisierte Arbeitsmaterial für Designer und Entwickler. Für Designer gibt es beispielsweise eine Sketch-Datei, die alle Elemente enthält. Für Systeme bzw. Frameworks wie Bootstrap gibt es zwar unzählige Sketch-Dateien im Web zu finden, dabei sind aber sicherlich nicht alle vollständig, sauber angelegt und vor allem nicht stets synchron. Abschließend finde ich es sehr spannend einen näheren Einblick in den Prozess erhalten zu haben, da er verständlich macht wie lange die Entwicklung eines solchen Systems inklusive der einzelnen Versionen und Verbesserungen benötigen kann. Das wirkt zum einen abschreckend, da in dieser Zeit natürlich auch die nötigen Ressourcen bereitgestellt werden müssen. Auf der anderen Seite zeigt es den zwischenzeitlich standardisierten Ablauf vieler Produkte, die erst auf den Markt gelangen, um dann stetig verbessert zu werden.

Quellen
  1. Vgl. Sonnenfeld, Bethony, Integral: »UX Design Interview With Bethany Sonnenfeld, Design Lead at IBM for Carbon Design System«, URL: https://www.youtube.com/watch?v=HI-hvAjQc4A, TC: 00:13:50–00:15:15, abgerufen am 27.12.2017.
  2. Vgl. Ebd., TC: 00:45:40–00:47:40.
Abbildungen
  1. Titelbild: Eigener Screenshot; IBM, Download: »Carbon_Design-Kit_8.0.0.sketch« URL: https://github.com/carbon-design-system/carbon-design-kit, abgerufen am 27.12.2017.

Punkt.

Bei meiner Auseinandersetzung mit Informationssystemen, Hypermedia sowie der Entwicklung des Internets stoße ich regelmäßig auf neue Namen, welche im Vorfeld des World Wide Webs richtungsweisende Konzepte und Arbeiten entwickelten. Mit manchen von ihnen habe ich mich bereits während meiner Recherche beschäftigt, andere muss ich leider bewusst außen vor lassen, um mich auf die wesentlichen Punkte meiner Arbeit zu konzentrieren.

Bei meiner Auseinandersetzung mit Informationssystemen, Hypermedia sowie der Entwicklung des Internets stoße ich regelmäßig auf neue Namen, welche im Vorfeld des World Wide Webs richtungsweisende Konzepte und Arbeiten entwickelten. Darunter einige mir bis dahin unbekannte, wie beispielsweise Andries van Dam, Eugene Garfield, Wendy Hall oder Ada Lovelace, sowie in der Allgemeinheit sicherlich bekanntere, wie Charles Babbage, Gottfried Wilhelm Leibniz, Ted Nelson, Alan Mathison Turing oder Konrad Zuse.

Die Namen stehen für die unterschiedlichsten Erfindungen: für Rechenmaschinen, den ersten Algorithmus, Hypermedia-Systeme oder Theorien über Computerentwicklung und Informatik. Die meisten haben jedoch eines gemeinsam: Sie sind thematisch zu weit von meinem Thema weg. Mit manchen von ihnen habe ich mich bereits während meiner Recherche beschäftigt, andere muss ich leider bewusst außen vor lassen, um mich auf die wesentlichen Punkte meiner Arbeit zu konzentrieren.

Hypertext Editing System Console Brown University 1969
Das Hypertext Editing System von Ted Nelson und Andries van Dam in Zusammenarbeit mit Studenten der Brown UniversityI
Photograph of Eugene Garfield, recipient of the 2007 Richard J. Bolte Sr. Award, at Heritage Day, May 9, 2007, at the Chemical Heritage Foundation.
Eugene Garfield, Erfinder des »Science Citation Index« (SCI) sowie »Journal Impact Factor«. Diese Gewichtung von Zitationszusammenhängen bildet die Basis des heutigen Google PageRanks.II
Wendy Hall
Wendy Hall entwickelte das Hypermedia-System »Microcosm«, welches sich vor allen Dingen durch die dynamische Verlinkung von Informationen basierend auf Inhalten, dem Kontext und Metadaten auszeichnet.III
Ada Lovelace
Ada Lovelace gilt als erste Programmiererin. Sie schrieb 1843 den ersten Algorithmus und veröffentlichte ein Programm für Charles Babbages nie vollendeten, mechanischen Computer »Analytical Engine«.
Charles Babbage | Analytical Engine
Charles Babbage entwarf den unfertigen, mechanischen Computer »Analytical Engine«. Sie stellt eine Rechenmaschine für allgemeine Anwendungen dar.IV
Rechenmaschine Gottfried Wilhelm Leibniz
Gottfried Wilhelm Leibniz erfand eine Rechenmaschine, welche die vier Grundrechenarten beherrscht.V
Ted Nelson – Xanadu
Ted Nelson prägt 1965 den Begriff Hypertext und schrieb von literarischen Maschinen, welche dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren. Seine wahrscheinlich bekannteste Arbeit ist das Hypertext-Projekt Xanadu, welches 1960 seinen Anfang nahm.VI
Alan Turing
Alan Turing führte 1963 die Turingmaschine ein, welches ein wichtiges Rechnermodell der theoretischen Informatik ist. Der Turing-Test gilt als Probe für den Nachweis künstlicher Intelligenz und die 4. Revolution wird Turing-Revolution genannt. Spätestens seit dem Film »Imitation Game« dürfte er weitestgehend bekannt sein.VII
Konrad Zuse Z3
Mit dem Z3 entwickelte Konrad Zuse den ersten funktionstüchtigen, vollautomatischen, programmgesteuerten und frei programmierbaren Digitalrechner. Er gilt damit als Erfinder des Computers.VIII
Abbildungen
  1. Lloyd, Gregory: »Photo of the Hypertext Editing System (HES) console in use at Brown University«, Stand: Oktober 1969, via Wikimedia Commons, abgerufen am 30.9.2017, Lizenz: CC BY 2.0.
  2. Science History Institute: »Photograph of Eugene Garfield, recipient of the 2007 Richard J. Bolte Sr. Award, at Heritage Day, May 9, 2007, at the Chemical Heritage Foundation.«, Stand: 9.5.2007, via Wikimedia Commons, abgerufen am 26.1.2017, Lizenz: CC BY-SA 3.0.
  3. Mabbett, Andy: »Wendy Hall at the Wikipedia Science Conference, London 2/3 September 2015«, Stand: 2.9.2015, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 4.0.
  4. Science Museum London/Science and Society Picture Library: »Babbages Analytical Engine, 1834-1871«, Stand: 28.8.2013, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 2.0.
  5. Museum Herrenhausen Palace: »Leibniz‘ Vier-Spezies-Rechenmaschine – Original, um 1690«, Stand: 7.9.2013, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY 3.0.
  6. Unbekannt: »Mockup of transpointing windows, closeup view, 1972«, URL: http://www.xanadu.com.au/ted/XUsurvey/xuDation.html, abgerufen am 23.10.2017.
  7. Yates, Tom: »Bombe – Rebuild«, Stand: 17.4.2014, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 3.0.
  8. Venusianer, Wikipedia Deutschland: »Nachbau der Zuse Z3 im Deutschen Museum in München«, Stand: 20.9.2006, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 3.0.

Hyperland: Durch Micons ans Ziel

Der Dokumentarfilm (oder die Fantasy-Dokumentation) »Hyperland« aus dem Jahr 1990 wurde von Douglas Adams geschrieben und von Max Whitby produziert. In dem 50-minütigen Film geht es unter anderem um interaktives Multimedia sowie andere Technologien wie z.B. einen VR-Helm. Er zeigt dabei vorstellbare Ansätze für ein Hypermedium.

Der Dokumentarfilm (oder die Fantasy-Dokumentation1) »Hyperland« aus dem Jahr 1990 wurde von Douglas Adams geschrieben und von Max Whitby produziert. In dem 50-minütigen Film geht es unter anderem um interaktives Multimedia sowie andere Technologien wie z.B. einen VR-Helm. Er zeigt dabei vorstellbare Ansätze für ein Hypermedium.

Der Software-Agent stellt sich vor

Der Hauptdarsteller Douglas Adams schläft vor dem Fernseher ein und trifft in seinem Traum auf Tom Baker – die Personifizierung eines Software-Agenten. Mit der Frage, ob Adams gelangweilt vom linearen, nicht-interaktiven Fernsehen ist, tritt er mit Adams in Kontakt. Da jener aber überfordert mit dieser neuen Form der Kommunikation ist, fordert ihn der Agent auf, mit ihm zu interagieren. Baker beschreibt sich als eine Simulation, eine künstliche und komplett anpassbare Persönlichkeit, die nur als Anwendung in seinem Computer existiert.
Optisch an einen Butler angelehnt, präsentiert er sich dabei als selbstloser Assistent, der jederzeit für jede Art von Arbeit bereit ist. Er könne ihm sofortigen Zugang zu jedem Stück Information, das digital irgendwo auf der Welt gespeichert ist, ermöglichen: Jedes Bild, jeder Film, jeder Sound, jedes Buch, jede Statistik, jeder Fakt. Jede Verbindung zwischen allem, was er sich nur vorstellen kann.2

Hyperland | Konfigurationsoberfläche
Konfigurationsoberfläche für den Software-Agenten Tom BakerII

Als nächstes stellt der Agent die Konfigurationsoberfläche vor, von wo aus Adams alle Einstellungen vornehmen kann. Über eine grafische Benutzeroberfläche hat man die Wahl, wie der Assistent sprechen soll – ob forsch oder freundlich oder mit welchem Akzent –, was er an hat oder welche Spezies er sein soll.3 Es wird suggeriert, dass der Nutzer die komplette Kontrolle besitzt und alles erdenkliche auch möglich ist.
Bei der Frage, welchen Namen diese Software hat, nennt Tom Baker eine ganze Liste: Dynabook, Hyperspace, Cyberia, Infinite Virtual Address Space, Intelligent TV, Interactive Television, Interactive Multimedia oder Hypertext.4

Anlehnung an ein Hypermedium

Hyperland ist in seinem Aufbau selbst an ein Hypermedium angelehnt. So klickt sich Adams mithilfe seines Agenten über sogenannte Micons – ein Kunstwort aus Moving und Icons – durch den Informationsraum. Die geloopten Micons stehen dabei für eine Idee, ein Konzept oder ein Stück Information in irgendeiner Form.5
Neben diversen Beispielen interaktiver Systeme stellt Tom Baker Auszüge der historischen Entwicklung vor. So erwähnt er Vannevar Bushs Memex, Ted Nelsons Hypertext-Idee, die Gründung des MIT Media Labs und des Multimedia Labs, sowie Robert Abel,6 welcher als Pionier der Computeranimation und visueller Effekte7 oder sogar als Vater interaktiver Erfahrungen gilt.

Adams gelangt dabei zusammen mit Baker immer tiefer in die Informationssphäre, was am Beispiel des Atlantic Monthly, in dem Vannevar Bush seinen berühmten Essay »As We May Think« veröffentlichte, demonstriert wird. Douglas Adams wählt naheliegenderweise den Atlantik als nächstes Ziel. Hierüber gelangen sie zur Ökologie, Ozeanografie, Schifffahrt, Literatur und zu einem Live Feed. Der Live Feed zeigt als Quellen die Labrador-Basis und den Azoren-Gibraltar-Rücken. Auf Nachfrage, ob das wirklich live wäre, gesteht Baker ein, dass die Bilder 10 Sekunden Verzögerung hätten, was also live wäre.
Als weiteren »Tiefgang« wird die Sparte Literatur vorgestellt, welche passend zum Atlantik, assoziative Verknüpfungen zu Melville, Conrad, Hemingway, Coloridge, CS Forrester oder »Mehr« zeigt. Texte werden dabei parallel vorgelesen, da die Autoren scheinbar über Wasser schreiben.8

Im weiteren Verlauf werden verschiedene Systeme vorgestellt, so z. B. die interaktive Anwendung »Life Story – Demonstration Prototype« des MIT Labs. Auf den Film »Life Story« zugeschnitten, können beispielsweise spezielle Inhalte ausgewählt oder Transkriptionen abgerufen werden. Das Team bestand aus Steve Gano, Kristee Kreitman, Kristina Hooper, Mike Naimark und Fabrice Florin. Letzterer spricht im Interview davon, dass das interessante an Multimedia die Tatsache ist, dass man viele Stories zusammenführen kann. Es gibt nicht nur eine, sondern eine Verflechtung vieler. Diese Vielzahl macht aus seiner Sicht den Unterschied, so dass man von einer zur anderen wandert und den Themenkomplex aus unterschiedlichsten Blickwinkeln betrachten und miteinander vergleichen kann.9

Resümee

Für meine Nachforschungen hat der Film inhaltlich leider keinen großen Mehrwert. Zum einen liebe ich jedoch die Art und Weise, wie er umgesetzt ist. Zum anderen faszinieren mich die damaligen Ansichten, welche einerseits sehr zukunftsweisend wirken, andererseits aber sicher genau am Geist der Zeit liegen. Mitten im Aufbruch und längst auf dem Weg in ein neues Zeitalter.

Quellen
  1. Vgl. »Hyperland« in: »Wikipedia, the free encyclopedia«, Stand: 7.3.2017, URL: https://en.wikipedia.org/wiki/Hyperland, abgerufen am 6.12.2017.
  2. Vgl. Whitby, Max; geschrieben von: Adams, Douglas: »Hyperland«, Dokumentation, 50 Minuten, Vereinigtes Königreich 1990, TC: 00:03:17–00:05:14.
  3. Vgl. Ebd., TC: 00:05:14–00:06:18.
  4. Vgl. Ebd., TC: 00:06:32–00:06:40.
  5. Vgl. Ebd., TC: 00:07:20–00:08:10.
  6. Vgl. Ebd., TC: 00:06:40–00:07:20.
  7. Vgl. »Robert Abel (animator)« in: »Wikipedia, the free encyclopedia«, Stand: 28.8.2017, URL: https://en.wikipedia.org/wiki/Robert_Abel_(animator), abgerufen am 6.12.2017.
  8. Vgl. Whitby, Max; geschrieben von: Adams, Douglas: »Hyperland«, Dokumentation, 50 Minuten, Vereinigtes Königreich 1990, TC: 00:12:0–00:14:20.
  9. Vgl. Ebd., TC: 00:31:32–00:32:53.
Abbildungen
  1. Titelbild: Eigener Screenshot; Whitby, Max; geschrieben von: Adams, Douglas; mprove: »Hyperland‹«, Dokumentation, 50 Minuten, Vereinigtes Königreich 1990, URL: https://vimeo.com/72501076, TC: 00:07:27, abgerufen am 6.12.2017.
  2. Vgl. Ebd., TC: 00:06:14.

Fußnoten als Wegpunkte der Assoziations-Pfade

Eugene Garfield ist unter anderem der Gründer des »Science Citation Index« (SCI) sowie der Erfinder des »Journal Impact Factor«. Der SCI ist eine Zitationsdatenbank, welche als Vorläufer des »Web of Science« zählt. Die Anfang der 60er Jahre erfundene Datenbank enthält Informationen darüber, welche Publikationen von welchen zitiert werden. Die systematische Erfassung der wissenschaftlichen Fußnoten macht damit Zitationszusammenhängen deutlich. Der Journal Impact Factor ist dagegen ein Art Ranking, welches die Häufigkeit der Zitationen – somit also den Einfluss auf andere Veröffentlichungen – angibt.

Eugene Garfield ist unter anderem der Gründer des »Science Citation Index« (SCI) sowie der Erfinder des »Journal Impact Factor«. Der SCI ist eine Zitationsdatenbank, welche als Vorläufer des »Web of Science« zählt. Die Anfang der 60er Jahre erfundene Datenbank enthält Informationen darüber, welche Publikationen von welchen zitiert werden. Die systematische Erfassung der wissenschaftlichen Fußnoten macht damit Zitationszusammenhänge deutlich.1 Der Journal Impact Factor ist dagegen ein Art Ranking, welches die Häufigkeit der Zitationen – somit also den Einfluss auf andere Veröffentlichungen – angibt.

Photograph of Eugene Garfield, recipient of the 2007 Richard J. Bolte Sr. Award, at Heritage Day, May 9, 2007, at the Chemical Heritage Foundation.
Eugene Garfield am 9. Mai 2007I

Seine grundsätzliche Idee war dabei, so Alex Wright, dass man vergessen kann, was im Artikel selbst steht. Das wichtigste findet man in den Fußnoten und als eine Art Hyperlink kann man über sie den Pfaden aus Assoziationen folgen.2 Wright erläutert weiter, dass dieses Citation Ranking die direkte Basis für das heutige Google PageRank ist.3

Auch wenn ich Eugene Garfields Erfindung nicht in einer Sparte mit denen von beispielsweise Paul Otlet oder Vannevar Bush sehe, erkenne ich eine ähnliche Wertschätzung gegenüber assoziativen Verknüpfungen. Während sich Otlet und Bush auch dem »dazwischen«, nämlich den Informationen und dem Wissen zwischen den Verbindungen, widmen, hebt Garfield ausschließlich die Verknüpfungen selbst hervor. Auch Berners-Lee betont bei jeder Gelegenheit, dass man in einer extremen Sichtweise die Welt ausschließlich als aus Verbindungen bestehend sehen kann und er die Idee mag, dass jedes Stück Information nur durch dessen Beziehung zu anderen Informationen definiert wird.4 Auch wenn es im World Wide Web im Allgemeinen nicht um die Gewichtung von Inhalten geht – das übernimmt Google PageRank –, liegt der grundsätzliche Gedanke, nämlich dass eine Information durch eine andere definiert wird, sehr nah beieinander.

Quellen
  1. Vgl. »Science Citation Index« in: »Wikipedia, Die freie Enzyklopädie«, Stand: 26.2.2017, URL: https://de.wikipedia.org/wiki/Science_Citation_Index, abgerufen am 26.11.2017.
  2. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:33:49–00:35:40, abgerufen am 18.8.2017.
  3. Vgl. Ebd., TC: 00:35:45–00:36:09.
  4. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 12.
Abbildungen
  1. Science History Institute: »Photograph of Eugene Garfield, recipient of the 2007 Richard J. Bolte Sr. Award, at Heritage Day, May 9, 2007, at the Chemical Heritage Foundation.«, Stand: 9.5.2007, via Wikimedia Commons, abgerufen am 26.1.2017, Lizenz: CC BY-SA 3.0.

Klick Klick – Hallo Welt!

Das WordPress-Theme »The Ark« wird als »Best Rated Theme of All Time« angepriesen – aus meiner Sicht nicht umsonst. Mich hat in den letzten Jahren kein Theme so sehr überzeugt, weshalb ich meine Erfahrung teilen möchte.

Heute möchte ich dem WordPress Theme »The Ark« einen Beitrag widmen. Warum? Jahrelang habe ich mal mit guten, mal mit schlechten Themes gearbeitet und bisher hat mich keins so sehr überzeugt. Ich denke, dass es nicht umsonst als »Best Rated Theme of All Time«1 angepriesen wird. Der Beitrag basiert dabei auf persönlichen Erfahrungswerten und soll kein Tutorial darstellen.

Zu Beginn sei gesagt: Das Frustrationslevel liegt erstmal sehr hoch. Der Aufbau ist – bis hierhin – sehr unüblich und man weiß nicht, wo man was ändern und einstellen muss, um zum gewünschten Ergebnis zu kommen. Zusätzlich hatte ich bei der ersten Website, die ich mit diesem Theme umgesetzt habe (literaturarchiv1968.de), große Probleme damit, dass die (tatsächlich nur gefühlte) Standard-Antwort des Supports die war, dass custom code benötigt wird. Das Problem war hier nicht, dass ich es nicht per Code lösen hätte können, sondern dass ich mich ständig gefragt hatte, wofür ich ein so umfangreiches Theme mit scheinbar unzähligen Elementen benötige, wenn ich ohnehin die Hälfte selbst coden muss. Zum einen weiß ich nun, dass die Seite nach sehr vielen individuellen Lösungen verlangt hat. Zum anderen hat sich seitdem sehr viel durch Updates getan. Das Entwicklerteam ist dabei ein besonderes Plus. Die Antwortzeiten sind unheimlich kurz, das Team unheimlich hilfsbereit und die Entwickler stehen im ständigen Dialog mit der Community, um das Theme stetig zu verbessern. Das bedeutet natürlich gleichermaßen, dass es an einigen Stellen noch Verbesserungsbedarf hat.

Benutzeroberfläche im Bereich Sitemap
Benutzeroberfläche im Bereich Sitemap

Der Aufbau

Grundsätzlich baut das mobile-first-Theme auf Bootstrap auf, so dass zumindest die Logik sehr einfach zu verstehen ist. Des Weiteren arbeitet es mit dem »Fresh Builder« – einem sehr eingängigen page builder, mit dem man die Webseite via Klicks aufbaut. Dabei kann man nicht nur sehr schöne, sondern auch sehr gut funktionierende Websites in kürzester Zeit erstellen. Die Möglichkeiten sind dabei wohl unbegrenzt, da man sich die sections entweder selbst aus unzähligen Elementen zusammenstellt oder vorgefertigte section blocks als Vorlage verwendet. Jedes einzelne Element hat dabei viele, zusätzliche Einstellungsmöglichkeiten. Durch die global styles können ähnlich wie bei SketchApp Stile angelegt werden, die per Klick eingefügt werden. Zum Verständnis: Man kann sich damit beispielsweise eine große Headline anlegen, der wiederum durch Klicks einzelne, selbst zu erstellende Komponenten wie font-size, line-height, etc. zugeordnet werden. Dieses gesamte Headline-Element ordnet man nun den Überschriften zu, die so aussehen sollen. Zudem können zum einen Abschnitte wie Header, Footer oder die Titlebar mit dem Fresh Builder aufgebaut werden. Zum anderen Seiten, die man via Sitemap gestaltet. In der Sitemap können die einzelnen Seitentypen (Blog Archive, Blog Single, Page, …) global angelegt werden, so dass sie nicht wie in den meisten Themes über die PHP-Dateien geändert werden. Selbst die Übersetzungen durch das PlugIn WPML, eigene Felder durch das PlugIn ACF oder die Verwendung der sections für custom post types funktionieren hervorragend.

Auswahlmenü der Elemente
Auswahlmenü der Elemente

Das Grundprinzip Einfachheit

Vor allem die Funktionalität und Gestaltungsfreiheit spricht aus meiner Sicht für The Ark. Bisher hatte ich die Erfahrung, dass Themes häufig sehr eingeschränkt sind. So sehen sie auf den ersten Blick gut aus und spätestens beim mobilen Design müsste man die ganze Seite – aus visueller Sicht – neu schreiben. Ein weiteres Problem hatte ich häufig durch die Begrenztheit der Elemente. Zwar kann man bei der Entwicklung sehr viel selbst einbauen und z.B. für die einfache Bedienung durch den Kunden eigene Felder erstellen. Jedoch bin ich der Meinung, dass das Grundprinzip von WordPress Einfachheit bedeutet und die wird bei The Ark von Haus aus mitgeliefert.

Durch weitere Projekte wird mir das Theme immer zugänglicher und es ist erstaunlich, wie effizient man damit arbeiten kann. Alles in allem, trotz einiger Mankos, ein absolut empfehlenswertes Theme. Also ab, online mit euch: Klick Klick – Hallo Welt!

Quellen

  1. Theme-Website: http://arktheme.com/, abgerufen am 3.5.2017.

makk – Kölner Design Preis im Spielrauschen

Am Mittwoch habe ich das makk in Köln besucht, wo zur Zeit der Kölner Design Preis, sowie die Ausstellung »Im Spielrauschen« zu sehen ist. Zwar haben mich beide Ausstellungen nicht gänzlich überzeugt, dennoch bin ich in meinen Überlegungen 1-2 Gedanken weiter gekommen.

Am Mittwoch habe ich das makk in Köln besucht, wo zur Zeit der Kölner Design Preis, sowie die Ausstellung »Im Spielrauschen« zu sehen ist.

Der Kölner Design Preis hatte mich offen gesagt etwas enttäuscht. Die Preisträger waren in der Qualität und Art sehr durchmischt und komplett überzeugt hat mich leider kein Projekt. Es gab die ein oder andere spannende Idee, die dann nicht überzeugend umgesetzt war. Oder es gab solide Gestaltungsergebnisse, die inhaltlich nicht sehr interessant waren.
Zwar handelt es sich dabei um Abschlussarbeiten, jedoch hatte ich den Eindruck, dass so manches Projekt eher einer Semesterarbeit gleicht. Das bedeutet nicht, dass ich sie für grundsätzlich schlecht halte, jedoch waren meine Erwartungen unter dem Schirm eines Kölner Design Preises sehr viel größer.

»Im Spielerauschen« handelt von der Welt des Spielens. Die Ausstellung beschäftigt sich unter anderem mit der historischen Entwicklung des Spielens und dem Gedanken, dass Masken, Puppen und Avatare der Einstieg in die theatralisch Welt sind. Diesen Ansatz finde ich insofern sehr spannend, da hier die Grenze zwischen Fiktion und Wirklichkeit viel näher an den Menschen heran rückt, als ich es in bisherigen Überlegungen (z.B. Zwischen Realität und Fiktion ») bedacht habe. Meist hatte ich das Wort Fiktion mit Virtualität in Verbindung gebracht. Grundsätzlich halte ich die Ausstellung für spannend, einzig die Präsentation war aus meiner Sicht sehr nüchtern gehalten. Im vergangenen Jahr war ich bei der Ausstellung »Film und Games. Ein Wechselspiel.« im Frankfurter Filmmuseum. Die Räume waren sehr aufwändig gestaltet, so dass man in eine komplett eigene Welt eingetaucht ist. Im makk waren es eher kalte, ungestaltete Räume, in denen die Objekte, Bildschirme und Co. platziert wurden.

Alles in allem war der Besuch des makk dennoch inspirierend, da es absolut reicht, in den eigenen Überlegungen nur 1–2 Gedanken weiter zu gekommen.

Von der SciFi-Vision zur Wissenschaft

H. G. Wells ist ein englischer Schriftsteller und träumte von einem »World Brain«. In seiner gleichnamigen Sammlung aus Essays und Talks aus den Jahren 1936–1938 beschreibt er seine Vision einer neuen, freien, synthetischen, autoritativen und permanenten Welt-Enzyklopädie.

H. G. Wells ist ein englischer Schriftsteller und träumte von einem »World Brain«. In seiner gleichnamigen Sammlung aus Essays und Talks aus den Jahren 1936–1938 beschreibt er seine Vision einer neuen, freien, synthetischen, autoritativen und permanenten Welt-Enzyklopädie.1

»World Brain« von H. G. Wells aus dem Jahr 1938I

Laut Alex Wright glaubt er daran, dass der Schlüssel Konflikte zwischen Ländern zu lösen darin liegt, den freien Fluss von Informationen zu ermöglichen. So käme es nämlich zu einem Ungleichgewicht, welches mit einem Art universellen Verständnis, wie die Welt funktioniert, wieder ausgeglichen wird.2
Weiter zitiert er H. G. Wells, dass das gesamte menschliche Wissen für jedes Individuum verfügbar gemacht werden könnte und das wahrscheinlich schon bald so sein wird. Zwar wurde Information mit dem Telefon oder Telegraf nur elektronisch und nicht digital, womit jedoch möglicherweise eine globale Enzyklopädie und ein Netzwerk der Wissensgenerierung geschaffen werden könnte.3 Alex Wright hebt hervor, dass Wells in seinen Beschreibungen eine Reihe von organischen Metaphern verwendet. So spricht er beispielsweise von einer Enzyklopädie mit zahlreichen Tentakeln und Ganglien.4

Eine erste Vorstellung war jedoch eine Welt-Enzyklopädie, die aus einer Reihe von Bänden besteht und im eigenen Haus oder zumindest in Häusern oder Bibliotheken in der Nähe gelagert wären und die auf dem aktuellen Stand gehalten werden würden. Die Inhalte wären dabei sehr sorgfältig ausgewählt.5

Mit seiner SciFi-Vision hielt Wells sogar einen Vortrag auf dem Weltkongress der universellen Dokumentation, welcher unter anderem das Ziel hatte, Ideen und Methoden zur Umsetzung des »World Brains« zu diskutieren.6
Sowohl H. G. Wells als auch Paul Otlet waren bereits 1933 bei diesem Kongress, jedoch ist unklar, ob sich die beiden dort getroffen hatten. Ähnlich wie Wells spricht jedoch auch Otlet von einem Schreibtisch der Zukunft, der ausgestattet mit einem Bildschirm sowie möglicherweise einem Telefon zulässt, Dokumente automatisch abzurufen.7

Weiter scheint der Autor Arthur C. Clarke von Wells inspiriert worden zu sein. So sagt er in »Profiles of the Future« vorher, dass Wells World Brain in zwei Schritten stattfinden würde. Der erste würde der Bau einer Welt-Bibliothek sein, welche für Jedermann per Computer-Terminal von zu Hause zugänglich sein würde. Diese Phase 1 sagte er für das Jahr 2000 voraus. In der zweiten Phase könnten Menschen mit dem World Brain als superintelligente AI interagieren und mit ihr diverse Probleme der Welt lösen. Die Welt-Bibliothek wäre dabei ein Teil des World Brains, welches 2010 komplett wäre.8 Auch Eugene Garfield konstatiert Wells Vision eine großartige Zukunft und prophezeit, dass der Science Citation Index ein Vorläufer dessen ist.9 Brian R. Gaines sieht sogar das World Wide Web als Erweiterung des World Brains, auf das Menschen nun mit PCs zugreifen konnten.10

Wie schon in meiner Ausführung über Paul Otlet hervorgebracht, finde ich es erstaunlich, wie früh schon an Konzepten und Gedankenexperimenten für einen universellen Informationsraums gearbeitet wurde. Umso deutlicher wird mir, dass der Status Quo des Webs noch lange nicht das erreichte Ziel ist. Ich habe bereits Teile von Ted Nelsons Kritik an der Umsetzung des World Wide Webs angeführt und auch Alex Wright sieht Otlets Vision in mancher Hinsicht als anspruchsvoller als das World Wide Web selbst. Zwar ist das Web tief verankert in unserem Alltag, nichtsdestotrotz ist es erst 30 Jahre alt. Da das in der Geschichte nur ein winziger Zeitraum ist, ist es tatsächlich fraglich, ob das Web in seiner heutigen Form überleben kann – selbst, wenn es unglaublich ist, dass nicht. Ein weiteres amüsantes Detail ist, dass Wells SciFi-Vision in der Welt der Wissenschaft angekommen ist und sogar als Redner Platz auf dem genannten Kongress gefunden hat.

H. G. Wells wird mich in meiner Recherche vermutlich nicht weiter voranbringen, seine Idee wird jedoch immerhin einen kleinen Nebenzweig meiner Dokumentation darstellen. Des Weiteren motiviert mich diese Auseinandersetzung, Arthur C. Clarkes Buch zu lesen, da ich den Autor schon durch »2001: Odyssee im Weltraum« zu schätzen gelernt habe.

Quellen
  1. Vgl. »World Brain« in: »Wikipedia, the free encyclopedia«, Stand: 22.10.2017, URL: https://en.wikipedia.org/wiki/World_Brain, abgerufen am 10.11.2017.
  2. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:10:12–00:11:23, abgerufen am 18.8.2017.
  3. Vgl. Ebd., TC: 00:11:24–00:12:06.
  4. Vgl. Ebd., TC: 00:12:07–00:13:33.
  5. Vgl. »World Brain« in: »Wikipedia, the free encyclopedia«, Stand: 22.10.2017, URL: https://en.wikipedia.org/wiki/World_Brain, abgerufen am 10.11.2017.
  6. Vgl. Ebd.
  7. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 99, abgerufen am 28.9.2017.
  8. Vgl. »World Brain« in: »Wikipedia, the free encyclopedia«, Stand: 22.10.2017, URL: https://en.wikipedia.org/wiki/World_Brain, abgerufen am 10.11.2017.
  9. Vgl. Ebd.
  10. Vgl. Ebd.
Abbildungen
  1. H.G. Wells: »Cover of the book World Brain by H. G. Wells. Published by Methuen & Co Ltd, London, 1938.«, Stand: 26.2.2015, via Wikimedia Commons, abgerufen am 10.11.2017.

Das Hypertext Editing System

Als Wegbegleiter Ted Nelsons möchte ich zumindest beiläufig Andries van Dam in meine Dokumentation mit aufnehmen.
Zusammen mit Studenten der Brown University arbeiteten sie am ersten Hypertext-System, dem Hypertext Editing System (HES), sowie am Nachfolger, dem File Retrieval and Editing System (FRESS). Es erschien 1967 und somit ein Jahr vor Doug Engelbarts oNLine-System.

Als Wegbegleiter Ted Nelsons möchte ich zumindest beiläufig Andries van Dam in meine Dokumentation mit aufnehmen.
Zusammen mit Studenten der Brown University arbeiteten sie am ersten Hypertext-System, dem Hypertext Editing System (HES), sowie am Nachfolger, dem File Retrieval and Editing System (FRESS).1 Es erschien 1967 und somit ein Jahr vor Doug Engelbarts oNLine-System.

David Edward Rice beschreibt es in einer schriftlichen Ausarbeitung aus dem Jahr 1967 als interaktives Mensch-Maschine-Computersystem zur Textmanipulation, -darstellung und -setzung. Zudem besitzt es ein ausgefeiltes System zur Erstellung und Bearbeitung von Manuskripten, sowie einer Lesemaschine, auf dem das Geschriebene durchsucht und beliebig komplexer Struktur abgefragt werden konnte.2

Die Textstrukturen können in dem System auf beliebige Weise miteinander verknüpft werden, während sich der Benutzer während dem Lesen an diesen Verbindungen entlang hangeln kann. Herkömmliche Unterteilungen wie beispielsweise Zeilen, Seiten und Seitenzahlen sind laut ihm nicht vorhanden, da die Verknüpfungsstruktur an allen Anwendungen im System beteiligt ist.3 Texte, die nicht semantisch sind, aber komplexe Verknüpfungen zwischen ihren Fragmenten besitzen, nennt man dabei »Hypertext«. Das hebt es von der linearen Struktur ab und das System ermöglicht es Hypertexte zu erstellen, sie zu bearbeiten, neu anzuordnen und auszudrucken.
Die zerstückelten Texte können mit einem »Standardcomputer«, nämlich dem IBM 360/50 und einem 2250 Display (12″ x 12″), auf verschiedene Arten durchsucht werden.4

Rice schreibt, dass das Ziel des Systems sei, ein »universelles Textverarbeitungs- und -bearbeitungssystem für Autoren, Redakteure und Online-Leser zu erstellen«5.

Das Hypertext Editing System scheint entgegen erster Erwartungen sehr umfangreich zu sein, Andries van Dams Benutzerhandbuch besteht immerhin aus 33 Seiten.

Quellen
  1. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:48:58–00:50:40, abgerufen am 18.8.2017.
  2. Vgl. Rice, David Edward: »Computer-Assisted Text Manipulation – A Look at The Current State of the Art And a Particular Example, The Hypertext Editing System«, Stand: 1967, URL: https://archive.org/details/TNM_The_Hypertext_Editing_System_computer-assiste_20171120_0001, S. 46, abgerufen am 1.11.2017.
  3. Vgl. Ebd., S. 46 f.
  4. Vgl. Ebd., S. 47.
  5. Ebd., S. 48 f.
Abbildungen
  1. Lloyd, Gregory: »Photo of the Hypertext Editing System (HES) console in use at Brown University«, Stand: Oktober 1969, via Wikimedia Commons, abgerufen am 30.9.2017, Lizenz: CC BY 2.0.

Ted Nelsons Xanadu als Wegbereiter des World Wide Webs?

Bei der Recherche über das World Wide Web darf Ted Nelson nicht fehlen. Er prägt 1965 den Begriff Hypertext und schrieb von literarischen Maschinen, welche dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren. Zudem träumt er von einer utopischen Gesellschaft, in der Menschen alle Informationen teilen können und sich auf Augenhöhe begegnen. Die wahrscheinlich bekannteste Arbeit von Ted Nelson ist das Hypertext-Projekt Xanadu, welches 1960 seinen Anfang nahm.

Bei der Recherche über das World Wide Web darf Ted Nelson nicht fehlen. Er prägt 1965 den Begriff Hypertext und schrieb von literarischen Maschinen, welche dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren.1 Zudem träumt er von einer utopischen Gesellschaft, in der Menschen alle Informationen teilen können und sich auf Augenhöhe begegnen.2 Seine wahrscheinlich bekannteste Arbeit ist das Hypertext-Projekt Xanadu, welches 1960 seinen Anfang nahm.

Das Projekt Xanadu

Durch das Projekt Xanadu soll ein »Docuverse«, ein Universum aus Dokumenten, entstehen, welches es möglich macht, jegliche Literatur fest miteinander zu verflechten.
Alex Wright beschreibt in seinem Vortrag, dass es bei Xanadu nicht nur um simple Verlinkungen geht, sondern um dynamische Beziehungen, wenn ein Abschnitt in einen anderen Abschnitt kopiert wird. Das Dokument lebt innerhalb des anderen weiter, jedes hat seinen Platz und wird dynamisch upgedatet.3

In einer Demonstration von Xanadu Space, der meinem Verständnis nach letzten Xanadu-Version vor der aktuellen OpenXanadu aus dem Jahr 2013, spricht Ted Nelson über seine ursprüngliche Hypertext-Idee. Als Schreibender sah er das Blatt Papier als Gefängnis, durch das der Text von vier Wänden eingesperrt wurde und aus dem Ideen entfliehen wollten. Klammern oder Fußnoten sind dabei erste Hinweise darauf, dass ein Bedarf besteht, Texte miteinander zu verbinden oder mit zusätzlichen Informationen zu versehen. Mit der Erfindung von Computern sah er die Möglichkeit, aus diesem Papiergefängnis zu entfliehen.4
Mit elektronischen Dokumenten sind viele Dinge möglich, die mit Papier nicht umsetzbar sind. Umso irrsinniger ist es aus seiner Sicht, dass alle versuchen Papier zu imitieren; so z. B. Adobes Acrobat oder Microsofts Word. Er kann nicht verstehen, wieso es nicht möglich ist Randnotizen zu machen, da er Parallelität als großen Vorteil elektronischer Schriftstücke sieht. Diese Parallelität macht es laut ihm einfacher, Texte zu schreiben und zu lesen.5

Xanadu sieht Nelson als Lösung des Problems. Bei seiner Präsentation zeigt er den dreidimensionalen Raum, der in seinem Beispiel aus elf Dokumenten und 27 Verweisen besteht. Neben den »Deep Links« für Inhaltsverknüpfungen, liefert er einen wichtigen Ansatz mit dem von ihm geprägten Begriff »Transklusion«.

Mit Transklusion ist die Verbindung zwischen einem Hauptdokument und einer Begleitseite gemeint. Dabei sind die Inhalte an verschiedenen Orten verfügbar und das Hauptdokument wird auf diese Weise mit weiteren Informationen verbunden.6 Dabei geht es nicht um einen Link zum ursprünglichen Inhalt, sondern um eine Wiederverwendung dessen.7 Das bedeutet, dass beispielsweise Änderungen im originalen Text, dynamisch im aktuellen Dokument geupdatet werden. Nelsons Beschreibung nach »ist die Transklusion das, was Zitat, Nachahmung und Querverweis lediglich versuchen. […] Alias und Caches sind Formen der Transklusion«8. Er bemerkt zusätzlich, dass Vannevar Bushs Idee des Memex mit Transklusionen anstelle von Links arbeitet.9

In Xanadu Space werden sie sichtbar, wenn man sich durch die Hauptseite klickt. Man erhält parallel die verbundene Information, die auf der Begleitseite im eigentlichen Kontext zu sehen ist.10 In diesem riesigen Kosmos aus Verknüpfungen, kann man einer Verbindung folgen und genau nachvollziehen, was sie bedeutet.11 Damit besteht der Informationsraum aus vielen Informationsatomen, die Klammern, Fußnoten oder Formulierungen wie »Wie schon erwähnt« überflüssig machen.

Unterschiede zum und Probleme mit dem World Wide Web

Ted Nelson hat offensichtlich ein Problem mit dem aktuellen Aufbau des World Wide Webs. So schreibt er beispielsweise in »I DON’T BUY IN«, dass das Web kein Hypertext ist, sondern nur dekorierte Verzeichnisse. Er fügt hinzu, dass es bei Xanadu ausschließlich um die Dokumentenstruktur geht, so dass Autoren und Leser nicht über Dateistrukturen oder hierarchische Verzeichnisse nachdenken müssen, sondern sich auf das wesentliche konzentrieren können. Gleichermaßen ist er der Ansicht, dass das Dokument und das MarkUp voneinander getrennt sein müssen, um den Inhalt nicht mit der Präsentation zu vermischen.12 Auf technischer Ebene sieht er einen fundamentalen Fehler des Webs darin, dass Links nur in eine Richtung führen. Er macht deutlich, dass es eine Alternative zum aktuellen Aufbau des World Wide Webs gibt und sie – vermutlich das Team und Xanadu-Anhänger – weiter dafür kämpfen werden.13

Offen gesagt fällt es mir schwer zu beurteilen, inwiefern Ted Nelson mit seinen Aussagen richtig liegt. In manchen Teilen meiner Auseinandersetzungen hatte ich das Gefühl, dass er den verlorenen Kampf nicht akzeptieren will und aus diesem Grund an mancher Stelle behauptet wird, dass Tim Berners-Lee seine Idee geklaut und schlecht umgesetzt hat. Auf der anderen Seite halte ich vor allem die Verwendung von Transklusionen für großartig und dem Web bei weitem voraus. Das treibt meiner Meinung nach den Gedanken einer völligen Vernetzung sinnvoll weiter. Auch die Verwendung bidirektionaler Links halte ich hierbei für einen Fortschritt. Ähnlich wie bei Bushs Memex sehe ich die Möglichkeit, Inhalte nicht nur miteinander zu verknüpfen, sondern Verknüpfungen nachvollziehen zu können. Hierdurch kann wiederum neues Wissen generiert werden.

Um diese Frage final zu klären, müsste ich mich durch die unzählig vorhandenen Dokumente über Xanadu arbeiten, was ich aus Zeitgründen nicht tun werde; dafür ist sie für mein gesamtes Masterthema letztendlich nicht wichtig genug. Jedoch werde ich mich eventuell in einem weiteren Beitrag der Frage widmen, inwiefern ein System wie Xanadu Auswirkungen auf das UI im Web hätte. Bisherige visuelle Eindrücke halte ich nämlich nicht für sonderlich praktikabel oder zumindest nicht für sehr ansprechend.

Abschließend möchte ich noch – völlig umkommentiert – weitere Begriffe für mich festhalten, die Nelson geprägt hat. Alex Wright erwähnt sie in seinem Vortrag und sie könnten möglicherweise zu einem späteren Zeitpunkt wichtig werden: stretchtext, zippered list, window sandwiches, indexing vortexes, part-punces, tumblers, collateral hypertext, Hummers, thinkertoys, fresh hyperbooks, anthological hyperbooks, grand systems.14

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 5.
  2. Vgl. Ebd.
  3. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:44:40–00:45:56, abgerufen am 18.8.2017.
  4. Vgl. Nelson, Theodor Holm, photonhunter: »Ted Nelson demonstrates Xanadu Space«, Stand: 6.9.2008, URL: https://www.youtube.com/watch?v=En_2T7KH6RA, TC: 00:30:00–00:01:20, abgerufen am 23.10.2017.
  5. Vgl. Ebd., TC: 00:01:20–00:02:30.
  6. Vgl. Ebd., TC: 00:03:12–00:04:52.
  7. Vgl. Nelson, Theodor Holm; Project Xanadu; Keio University: »Xanalogical Structure, Needed Now More than Ever: Parallel Documents, Deep Links to Content, Deep Versioning and Deep Re-Use«, URL: http://www.xanadu.com.au/ted/XUsurvey/xuDation.html, Absatz 4, abgerufen am 23.10.2017.
  8. Ebd., Absatz 6.
  9. Vgl. Ebd., Absatz 9.
  10. Vgl. Nelson, Theodor Holm, photonhunter: »Ted Nelson demonstrates Xanadu Space«, Stand: 6.9.2008, URL: https://www.youtube.com/watch?v=En_2T7KH6RA, TC: 00:03:12–00:04:52, abgerufen am 23.10.2017.
  11. Vgl. Ebd., TC: 00:04:56–00:05:10.
  12. Vgl. Nelson, Theodor Holm: »I DON‘T BUY IN«, URL: http://ted.hyperland.com/buyin.txt, abgerufen am 24.10.2017.
  13. Vgl. Ebd.
  14. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:46:53–00:47:46, abgerufen am 18.8.2017.
Abbildungen
  1. Titelbild: Unbekannt: »Mockup of transpointing windows, closeup view, 1972«, URL: http://www.xanadu.com.au/ted/XUsurvey/xuDation.html, abgerufen am 23.10.2017.

Der Memex als Ergänzung des Gedächtnis

Nachdem ich in meinen Beiträgen »Assoziative Verlinkungen und Generierung von Wissen« und »Wir wie vielleicht denken« dem fiktiven Schreibtisch von Vannevar Bush nachgegangen bin und dabei dritte Quellen verwendet hatte, möchte ich mich Bushs ursprünglichen Essay »As We May Think« widmen, der 1945 im The Atlantic Monthly veröffentlicht wurde.

Nachdem ich in meinen Beiträgen »Assoziative Verlinkungen und Generierung von Wissen« und »Wir wie vielleicht denken« dem fiktiven Schreibtisch von Vannevar Bush nachgegangen bin und dabei dritte Quellen verwendet hatte, möchte ich mich Bushs ursprünglichen Essay »As We May Think« widmen, der 1945 im The Atlantic Monthly veröffentlicht wurde.

Die Grundzüge des Memex hatte ich bereits verstanden. In seinem Essay erläutert er sein Arbeitsgerät detailliert, ordnet seine Vorstellung vorab in den zeitlichen Kontext ein und spricht über vorherrschende Bedürfnisse und mögliche Anwendungen.

Bushs Vision

Wie schon bekannt, ist Bush davon überzeugt, dass der Geist im Gegensatz bisheriger Indizierungssysteme, die alphabetisch oder numerisch aufgebaut sind, assoziativ arbeitet. Dabei ist es laut ihm die »Künstlichkeit der Indizierungssysteme, die es erschwert, Zugang zu den Aufzeichnungen zu bekommen«1. Gleichermaßen ist er der Auffassung, dass die Auswahl durch Assoziation mechanisiert werden müsse.2

Vannevar Bush 1940
Vannevar Bush 1940I

Wie Paul Otlet geht es ihm – unabhängig der abweichenden Visionen – offensichtlich darum, den Zugang zur Masse an menschlichem Wissen zu erleichtern und es sinnvoll zu verknüpfen. In seinem Essay warnt er davor, dass die Menschheit nach Errichtung einer komplizierten Zivilisation auf halbem Wege steckenbleibt, weil die Erinnerungsfähigkeit überlastet ist. Vielmehr bevorzugt er das Privileg, Dinge zu vergessen, die man nicht benötigt, ohne zu befürchten, dass sie sich nicht wiederfinden lassen.3 Maschinen sollen demnach der Auslagerung unseres Wissens dienen und jederzeit zugänglich sein. Wie mehrmals in meiner Dokumentation erwähnt, bewegen wir uns zunehmend in den Status, in dem wir ausschließlich wissen müssen, wo wir Informationen abrufen können. Das reine Auswendiglernen von Daten ist längst überflüssig. Er selbst bezeichnet den Memex als »persönliche Ergänzung zum Gedächtnis«4.

Bevor ich an späterer Stelle Hartmut Winklers Kritik an Bushs ursprünglicher Problemstellung und dem abweichendem Entwurf mit aufnehmen möchte, gehe ich auf Bushs detaillierte Beschreibung des Memex sowie dessen Nutzen ein.

Der Aufbau des Memex

Auf zwei durchscheinenden Schirmen wird das Material projiziert, welches entweder selbst erstellt oder als fertiger Mikrofilm erworben werden kann; so z. B. Bücher, Bilder, Zeitungen etc. Das Arbeitsgerät wird mit Hebeln und Knöpfen bedient und Fotografien können mittels Trockenfotografie angefertigt werden. Mithilfe der Hebel werden Aufzeichnungen in verschiedenen Geschwindigkeiten durchgeblättert und mit den Knöpfen wird unter anderem ein Code eingegeben, der den direkten Zugriff auf bestimmtes Material zulässt oder das Inhaltsverzeichnis anzeigt.5

Das Kernstück des Memex sieht Bush in einem Vorgang, der zwei Informationen miteinander verknüpft. Nebeneinanderliegende Materialien werden per Knopfdruck verbunden, der Pfad wird benannt und ins Codebuch mit aufgenommen. Die Codes sind auf Codeflächen am unteren Bildschirmrand angebracht; wird der entsprechende Knopf gedrückt, können Informationen wieder abgerufen werden. Die Verbindung wird dabei durch nicht sichtbare Punkte, die für Fotozellen lesbar sind, ermöglicht.6

Beispielhaftes Gerät zum Lesen von Mikrofilmen
Beispielhaftes Gerät zum Lesen von MikrofilmenII

Der Memex als unterstützendes Arbeitsgerät

Durch diese Vorgehensweise können ganze Pfade und Seitenpfade für ein bestimmtes Thema erstellt und abgerufen werden.7 Ein wesentlicher Bestandteil seiner Vorstellung ist der, dass Pfade durch Abfotografieren und erneute Integration weitergegeben und somit von anderen Menschen abgerufen werden können.8 Er stellt sich eine völlig neue Art von Enzyklopädie vor, welche bereits mit einem Netz assoziativer Pfade versehen ist. Zudem sieht er den Vorteil darin, dass z. B. ein Meister seinen Schülern nicht nur Aufzeichnungen, sondern ein gesamtes Gerüst, mit dessen Hilfe sie entstanden sind, hinterlassen würde. Ein weiteres Beispiel ist das eines Arztes, welcher bei der Behandlung eines Patienten den Pfad einer ähnlichen Krankengeschichte aufrufen und somit schneller zum Ergebnis kommen könnte.9 Aus seiner Sicht kann auf diese Weise »die Wissenschaft der Menschheit Werkzeuge zur Produktion, Speicherung und Nutzung ihrer Aufzeichnungen liefern«10.

Hartmut Winklers Kritik

Als Ausgangsproblem sieht Bush aus meiner Sicht Wissenschaftler, welchen es aufgrund der Masse schwerfällt, Forschungsergebnisse anderer sinnvoll zu nutzen.11 Hartmut Winkler, welcher in »form diskurs« Bushs Essay kommentiert, sieht in Bushs Aussagen ein grundsätzliches Kommunikationsproblem, auf das sich Bush beruft. Seine These ist dabei die, »dass der Memex zwar den Austausch mit einzelnen Kollegen unterstützt, das eigentliche Problem – die Kommunikation mit dem Pool des Wissens insgesamt – aber nahezu unberührt läßt«12. Daher klaffen aus seiner Sicht das Ausgangsproblem Informationsüberflutung und der Memex als technische Antwort weit auseinander. Zudem merkt er an, dass das eigentliche Problem der Menge, so wie es Bush sagt, nicht mit mechanischer Selektion oder assoziativer Speicherung zu lösen ist.13

Meiner Auffassung nach geht es Bush erstmals nicht um die generelle Kommunikation zwischen Wissenschaftlern. Meinem Verständnis nach geht es vielmehr darum, dass man seinen eigenen Pool des persönlichen Wissens manifestiert und mit anderen, fremden Quellen in Verbindung setzen kann. Eigene Gedankenwege werden in Pfaden untergebracht und somit jederzeit abrufbar. Das Teilen der Pfade ist aus meiner Sicht zwar wesentlich, aber für mein grundsätzliches Verständnis zunächst nicht nötig. Auch die Erstellung einer völlig neuen Art der Enzyklopädie unterstreicht natürlich den Ansatz, menschliches Wissen generell verbinden zu wollen. Wie ich den Text verstehe, wäre das jedoch schon der nächste logische und mögliche Schritt, nachdem das Arbeitsgerät im Einsatz wäre.

Abschließend war es für mich nun wichtig, den originalen Essay »As We May Think« zu lesen, um die Denkweise Bushs noch besser verstehen zu können. Zudem sind mir die Funktionsweise und die Möglichkeiten des Memex noch bewusster.
An dieser Stelle möchte ich meine Nachforschungen über Vannevar Bush zudem beenden, da sein Essay und seine Vision letztendlich nur einen kleinen, theoretischen Part in meiner Master-Arbeit einnehmen werden.

Quellen
  1. Bush, Vannevar: »As We May Think«, Stand: Juli 1945, URL: http://web.mit.edu/STS.035/www/PDFs/think.pdf, Seite 14, abgerufen am 29.9.2017.
  2. Vgl. Ebd.
  3. Vgl. Ebd., S. 19.
  4. Ebd., S. 15.
  5. Vgl. Ebd.
  6. Vgl. Ebd., S. 16.
  7. Vgl. Ebd.
  8. Vgl. Ebd.
  9. Vgl. Ebd., S. 17.
  10. Ebd.
  11. Vgl. Ebd., S. 3.
  12. Winkler, Hartmut: »Vannevar Bush: As We May Think« in: FormDiskurs. Nr. 2, I/1997, S. 136–147, Stand: 1997, URL: http://homepages.uni-paderborn.de/winkler/bush_d.pdf, Seite 146, abgerufen am 29.9.2017.
  13. Vgl. Ebd.
  14. Abbildungen
    1. US Department of Energy: »Vannevar Bush at Berkeley (29 March 1940)«, Stand: 11.3.2016, via Wikimedia Commons, abgerufen am 30.9.2017.
    2. Unbekannt: »Microfilm reader for articles and daily papers, Haifa University library, the 1980s«, Stand: 7.3.2013, via Wikimedia Commons, abgerufen am 30.9.2017, Lizenz: CC BY-SA 3.0.

Reflet Communication – Ein Must-See

Die französische Kommunikationsagentur Reflet Communication zaubert eine Seite, die mich in ihrem Gesamterscheinungsbild und in ihrer Navigation sehr positiv überrascht.

Heute gibt es einfach nur ein kleines Must-See für zwischendurch:
http://www.refletcommunication.com/.

Die französische Kommunikationsagentur Reflet Communication zaubert eine Seite, die mich in ihrem Gesamterscheinungsbild und in ihrer Navigation positiv überrascht.

Vollflächige Fotos, die beim Bewegen der Maus sachte mitschwingen, untermalt von leichtem Sound. Sehr wenige Wörter und dünne Grafiken, die der Navigation dienen und minimal animiert sind. Sie unterstreichen die leichte Anmutung. Auf jeder Seite steht ein Wort in großen serifenlosen Lettern. Mit gedrückter Maustaste kann man dieses Wort zur Phrase »ziehen«.
Erst durch Scrollen schiebt sich eine Ebene mit Textelementen über etwa 75 % des Bildschirms, so dass man nun mehr über die Agentur erfährt.

Reflet Communication Interface Design
Reflet Communication | passionII
Reflet Communication Interface Design
Reflet Communication | youthIII

Insgesamt konzentriere mich dabei nur auf das Look and Feel der Seite und es macht Spaß mit ihr zu interagieren, hier und da ein paar Bewegungen auszulösen. Die Tiefeneffekte sind zum Teil großartig.

Inhaltlich bin ich mir noch etwas unschlüssig, ob man als Nutzer mehr Spaß am Spiel hat oder tatsächlich auf den ersten Blick erfährt, was die Agentur zu bieten hat. Jemandem mit ernsthaften, inhaltlichen Interessen steht aber ausreichend Text zur Verfügung.

Die Website ist unter anderem mit dem JavaScript-Webframework AngularJS gebaut.

Abbildungen
  1. Titelbild: Eigener Screenshot; Reflet Communications, URL: http://www.refletcommunication.com/en/experience, abgerufen am 17.10.2017.
  2. Eigener Screenshot; Reflet Communications, URL: http://www.refletcommunication.com/en/passion, abgerufen am 17.10.2017.
  3. Eigener Screenshot; Reflet Communications, URL: http://www.refletcommunication.com/en/youth, abgerufen am 17.10.2017.

Paul Otlets Proto-Web

Ursprünglich wollte ich mich mit Paul Otlet, dem Pionier des Informationsmanagements, nur weiter auseinandersetzen, wenn es für meinen Master relevanter wird. Im Zuge meiner Recherche über wichtige Vorreiter in Bezug auf Informationsräume oder spezieller das World Wide Web, fällt Paul Otlet zwar nicht mehr oder weniger Gewicht als zuvor. Während ich mich mit der universellen Dezimalklassifikation, dem Mundaneum und seiner Vision der World City auseinandergesetzt habe, entgingen mir jedoch weitere interessante Details sowie Pläne, die er für neue Technologien hatte.

Ursprünglich wollte ich mich mit Paul Otlet, dem Pionier des Informationsmanagements, nur weiter auseinandersetzen, wenn es für meinen Master relevanter wird. Im Zuge meiner Recherche über wichtige Vorreiter in Bezug auf Informationsräume oder spezieller das World Wide Web, fällt Paul Otlet zwar nicht mehr oder weniger ins Gewicht als zuvor. Nichtsdestotrotz möchte ich neue Erkenntnisse dokumentieren, auf welche ich inzwischen gestoßen bin.

Während ich mich mit der universellen Dezimalklassifikation, dem Mundaneum und seiner Vision der World City beschäftigt habe, entgingen mir weitere interessante Details sowie Pläne, die er für neue Technologien hatte. Da man über Paul Otlet sicher ganze Doktorarbeiten schreiben könnte, hoffe ich die Gedanken dieses Genies in dieser kurzen Form gerecht und vor allem korrekt wiederzugeben.

Karteikarten und Telegraphenmaschinen als Hypermedium

Durch die benutzten Karteikarten war es möglich, einzelne Informationen – ob bibliographisch oder inhaltlich – analytisch festzuhalten und größere Informationsbrocken konnten auf separaten Blättern manifestiert werden. Das nennt Otlet das »monographische Prinzip«.1 Warden Boyd Rayward, der erste Biograph Otlets, vergleicht das mit den Knoten und Textstücken in Hypertext2 und tatsächlich kann die Arbeit als Hypermedium bezeichnet werden. Alex Wright schreibt in einem Artikel, dass Otlets Proto-Web zwar auf einem Patchwork aus analogen Technologien wie Karteikarten und Telegraphenmaschinen beruhte, es jedoch die vernetzte Struktur des heutigen Webs vorwegnahm.3 Auch laut Rayward legt eine Untersuchung der Ideen und Verfahren, auf denen die Entwicklung der Datenbanken basieren, nahe, dass sie sehr ähnlich zu Hypertext-Systemen sind. Sie bestanden aus Knoten und Abschnitten und durch ein System aus Links und Navigationsvorrichtungen gelangte der Nutzer von bibliographischen Referenzen zu Volltext, Bildern oder Objekten.4

Informationen können so losgelöst vom Gesamtwerk des jeweiligen Autors gelesen und kombiniert werden. Rayward erläutert, dass Otlet diese Möglichkeit Wissen in einer flexiblen, enzyklopädischen Weise anzuordnen »Kodifizierung« nennt.5 Diese Form von »Datenbanken« war wichtig, um eine neue Art von »Bezugs- und Konsultationsfunktionen«6 zu schaffen. Zudem war Otlet dieses Herauslösen der Informationen wichtig, um dem Autor nicht »sklavisch durch das Labyrinth eines persönlichen Plans folgen zu müssen«7. Dem Leser sollte ermöglicht werden, wichtige Inhalte zu scannen und den uninteressanten fernzubleiben.8

Neben der Tatsache, dass es neue Möglichkeiten dafür geben sollte, Texte in maschinenlesbarer Form zu bearbeiten, so dass die ursprüngliche Integrität des Dokuments erhalten bleibt,9 hatte Otlet die Idee, Texte so verfügbar zu machen, dass sie »nach Belieben durchsucht, analysiert, abstrahiert und neu formatiert werden konnten«10. Das ist konzeptionell sehr nah an heutigen Textverarbeitungsprogrammen und auch eine Form von Computer hatte er sich schon damals vorgestellt.

Das Proto-Web

Als das Mundaneum mit seinen unzähligen Karten und Blättern mehr und mehr wuchs, suchte er nach Lösungen, die Masse an Papier in den Griff zu bekommen. Er begann daher, so Alex Wright, neue Technologien zu entwerfen. Darunter unter anderem ein Art Papiercomputer, der – ausgestattet mit Rädern und Speichen – Dokumente auf der Schreibtischoberfläche bewegte. Seine finale Antwort soll jedoch das Verschrotten von Papier insgesamt gewesen sein.11
Weiter dachte er über die Möglichkeit einer elektronischen Datenspeicherung nach, welche später in seine Vision eines »mechanischen, kollektiven Gehirns« mündete, das alle Informationen der Welt innerhalb eines globalen Telekommunikationsnetzes abrufbar machen sollte.12 Ein Ansatz war der, Informationen in einer neuen Form der Enzyklopädie – der Encyclopedia Microphotica Mundaneum – über Mikrofilme verfügbar zu machen.13 Diesen Weg der Informationsverbreitung findet man später beispielsweise auch bei Vannevar Bushs Idee des Memex.

Paul Otlet | Telekommunikation
Eine von Otlets Skizzen über Telekommunikation

Folgend sah er die Möglichkeit, auf dieses angedachte universelle Netzwerk für Informationen und Dokumentation via Multimedia-Arbeitsstationen zuzugreifen, die zu dieser Zeit jedoch noch nicht erfunden waren.14 Er hatte aber bereits die Vision, dass eine Maschine benötigt werde, die das Fernschreiben und -lesen ermöglichten, so dass Gelehrte auch zu Hause Dokumente lesen konnten – verbunden per Kabel wie das Telefon oder ohne Kabel wie das Radio.15 In Otlets medienübergreifendem Netz sollte Raum für die Partizipation des Lesers sein.
Ferner spekulierte er, dass der »Schreibtisch der Zukunft nur aus einem Bildschirm oder mehreren Bildschirmen sowie einem Telefon bestehen könnte, um Dokumente abrufen zu können«16. Auch die Tonübertragung mit einer Art Lautsprecher sowie die komplette Verschmelzung innerhalb einer Maschine sah er dabei vor.17 Alex Wright führt diese skizzierten Pläne für ein globales Netzwerk von Computern bzw. »elektrischen Teleskopen« weiter aus. So sollen die Millionen miteinander verknüpften Dokumente, Bilder, Audio- und Videodateien durchsuchbar sein. Über die Geräte könnte man zudem Nachrichten versenden, Dateien teilen und sich in sozialen Netzwerken versammeln. Das nannte er réseau mondiale, ein weltweites Netzwerk.18 In diesen Netzwerken könnte man teilnehmen, applaudieren, Ovationen geben und im Chor singen.19

Paul Otlet und das World Wide Web

Paul Otlets Visionen sind aus meiner Sicht unglaublich nah an der heutigen Welt. Schreibtische mit Bildschirmen, vernetzte Informationen und die Möglichkeit am gesamten Informationsraum teilzuhaben, hören sich für damalige Verhältnisse revolutionär an. Umso ungläubiger macht es mich zum einen, dass seine Arbeit über Jahrzehnte in der Versenkung verschwand und erst durch Rayward Ende der 60er Jahre wiederentdeckt wurde. Zum anderen stimmt es mich nachdenklich, dass das Potenzial dieser Entwicklungen und Gedanken erst so viel später erkannt wurde. Weiter finde ich es erstaunlich, dass das World Wide Web als universeller Informationsraum erst nach so langer Zeit entwickelt wurde. Sicher feilte man über Jahrzehnte an Informationssystemen, das Internet gab es sehr viel früher und auch Hypertext an sich war nicht Tim Berners-Lees Idee. Der technologische Fortschritt hielt sich vermutlich in Grenzen und gesellschaftlich war man eventuell noch nicht bereit. Nichtsdestotrotz sehe ich in Otlets Ideen grundsätzliche Gedanken des World Wide Webs sowie dessen fundamentale Struktur. Daher frage ich mich beispielsweise auch, wieso weniger an offenen als an geschlossenen Systemen gearbeitet wurde, obwohl das Internet schon Jahrzehnte vor dem Web erfunden wurde und wieso der Zugang zu Wissen so lange so sperrig war, obwohl bereits Otlet den einfachen Zugang zu Wissen als wichtigen Bestandteil sah.

Abschließend halte ich Otlet für ein wirkliches Genie, der mit seinen unzähligen Ideen großes in seinem Leben geleistet hat. Wie eingangs erwähnt könnte man sicher ganze Doktorarbeiten über ihn schreiben, da viele seiner Ideen revolutionär waren und man sich alleine mit seinen Publikationen zu Lebzeiten endlos beschäftigen hätte können. Gleichwohl möchte ich an dieser Stelle mit dem Visionär abschließen und mich nach meinem Master möglicherweise noch mit Alex Wrights Buch »Cataloging the World« auseinandersetzen.

Quellen
  1. Vgl. Rayward, Warden Boyd: »Visions of Xanadu: Paul Otlet (1868–1944) and Hypertext« in: »Journal of the American society for information science«, Band 45, Ausgabe 4, S. 235–250, Stand: Mai 1994, URL: https://pdfs.semanticscholar.org/48f4/51ecb5d5241a7780bf07ac15b4e5699c5c41.pdf, S. 238, abgerufen am 28.9.2017.
  2. Vgl. Ebd.
  3. Vgl. Wright Alex: »The web that time forgot«, Stand: 17.6.2008, URL: https://www.nytimes.com/2008/06/17/health/17iht-17mund.13760031.html, Absatz 4, abgerufen am 30.9.2017.
  4. Vgl. Rayward, Warden Boyd: »Visions of Xanadu: Paul Otlet (1868–1944) and Hypertext« in: »Journal of the American society for information science«, Band 45, Ausgabe 4, S. 235–250, Stand: Mai 1994, URL: https://pdfs.semanticscholar.org/48f4/51ecb5d5241a7780bf07ac15b4e5699c5c41.pdf, S. 240, abgerufen am 28.9.2017.
  5. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 97, abgerufen am 28.9.2017.
  6. Rayward, Warden Boyd: »Visions of Xanadu: Paul Otlet (1868–1944) and Hypertext« in: »Journal of the American society for information science«, Band 45, Ausgabe 4, S. 235–250, Stand: Mai 1994, URL: https://pdfs.semanticscholar.org/48f4/51ecb5d5241a7780bf07ac15b4e5699c5c41.pdf, S. 240, abgerufen am 28.9.2017.
  7. Ebd.
  8. Vgl. Ebd.
  9. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 98, abgerufen am 28.9.2017.
  10. Ebd.
  11. Vgl. Wright, Alex: »The web that time forgot«, Stand: 17.6.2008, URL: https://www.nytimes.com/2008/06/17/health/17iht-17mund.13760031.html, Absatz 15, abgerufen am 30.9.2017.
  12. Vgl. Ebd., Absatz 16.
  13. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 99, abgerufen am 28.9.2017.
  14. Vgl. Rayward, Warden Boyd: »Visions of Xanadu: Paul Otlet (1868–1944) and Hypertext« in: »Journal of the American society for information science«, Band 45, Ausgabe 4, S. 235–250, Stand: Mai 1994, URL: https://pdfs.semanticscholar.org/48f4/51ecb5d5241a7780bf07ac15b4e5699c5c41.pdf, S. 235, abgerufen am 28.9.2017.
  15. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 98, abgerufen am 28.9.2017.
  16. Ebd., S. 99.
  17. Vgl. Ebd.
  18. Vgl. Wright, Alex: »The web that time forgot«, Stand: 17.6.2008, URL: https://www.nytimes.com/2008/06/17/health/17iht-17mund.13760031.html, Absatz 2, abgerufen am 30.9.2017.
  19. Vgl. Ebd., Absatz 24.

Die Erarbeitung eines Designsystems für digitale Produkte

Zur weiteren Recherche im Bezug auf Designsysteme arbeite ich mit dem Buch »Design Systems – A practical guide to creating design languages for digital products.« von Alla Kholmatova. Im Gesamten dient es als gute Grundlage, die die Umsetzung eines Designsystems in der Praxis zeigt.

Zur weiteren Recherche im Bezug auf Designsysteme arbeite ich mit dem Buch »Design Systems – A practical guide to creating design languages for digital products.« von Alla Kholmatova. Das Buch erscheint digital in zwei Hälften – eine Mitte des Jahres, die andere im September 2017. Anschließend liegt das Buch auch als Printausgabe vor.

Im Gesamten dient es als gute Grundlage, die die Umsetzung eines Designsystems in der Praxis zeigt. Mit vielen Beispielen von Unternehmen wie sipgate, TED, Airbnb oder FutureLearn wird verständlich, inwiefern sich die Erstellung der sowie die Arbeit mit Designsystemen von Team zu Team unterscheiden. Parameter wie z. B. die Team- und Projektgröße oder die generelle Arbeitsweise sind dafür entscheidend und müssen individuell gehandhabt werden.

In kleineren Teams hat der einzelne mehr Einblick und Verantwortung, in größeren müssen Verantwortlichkeiten eventuell anders verteilt werden.1 Zudem müssen die Designprinzipien für jeden verständlich sein. Das bedeutet entweder, dass im Team wirklich jeder weiß, welche Grundsätze gelten oder dass die fundamentale Gestaltungslinie eindeutig dokumentiert ist. Auch in der Anwendung der Systeme muss klar sein, ob die Regeln strikt oder eher locker eingehalten werden. Während beispielsweise bei Airbnb alles exakt festgelegt ist und die Pattern strikt angewendet werden müssen,2 sind bei dem kleineren Team von TED ein offener Umgang und mehr Flexibilität zu finde.3 Bei einer rigorosen Einhaltung der Regeln muss das Designsystem dementsprechend so gut konzipiert sein, dass die Gestaltung trotz Modularität nicht generisch wirkt.4

Bei der Dokumentation bzw. im allgemeinen Verständnis des jeweiligen Systems ist zudem das gemeinsame Sprachverständnis wichtig. So nennt sie das Beispiel eines Sequenz-Moduls.5 Dieses Modul sollte für jeden Sequenz heißen, nicht »Wizards Control« oder »Fancy Bubbles«.6 Des Weiteren sollten die Ausdrücke eindeutig so gewählt werden, dass man auch als Designer, der nicht bis in die Tiefen des Projekts involviert ist, weiß um welches Element es sich handelt. Neben dem klaren Einsatz des Elements werden Dopplungen durch Neugestaltung verhindert. Bestimmte Buttons wurden bei FutureLearn »Minions« genannt, ein großer Button heißt »Boss«7. Durch diese Benennung wird klar, dass es nur einen großen Button auf der Seite geben kann, da es nur einen Boss gibt. Diese metaphorische Benennung halte ich – insofern man für alle Elemente ähnliche Bezeichnungen finden kann – für sehr vorteilhaft. Ein weiteres Beispiel ist die »Whisperbox« sowie eine zugefügte Komponente namens »Boombox«. Schon im Wortlaut wird klar, welches der beiden zurückhaltend leise und welches prominent laut ist. Die Autorin schlägt generell vor sich vorzustellen, dass das Interface nicht visuell ist, sondern laut vorgelesen wird. Dadurch erkennt man schnell, ob man in Bezug auf die »Visual loudness scall« bereits ein Element der gleichen Lautstärke vorhanden ist.8

Kholmatova unterteilt die Pattern in zwei große Gruppen. Die funktionalen sowie die, die der Wahrnehmung zuzuordnen sind. Zur Unterscheidung kann man sich vorstellen, dass funktionale im HTML-, zweitere typischerweise im CSS-Code zu finden sind.9 Noch klarer macht sie es mit dem Beispiel eines Hauses, indem alle Möbel funktional dieselben sein können. Jeder hat etwa einen Tisch, ein Sofa oder ein Bett. Und doch macht der Stil den großen Unterschied, ob man sich in der Umgebung wohl oder sogar völlig fehl am Platz fühlt.

Insgesamt könnte ich noch unzählige weitere Absätze verfassen. Wenn man in diesem Bereich arbeitet, sind zwar einige Dinge nicht überraschend neu, dennoch fühlt es sich gut an sie zum einen gesammelt niedergeschrieben zu sehen und zum anderen einen Einblick in die Arbeit anderer zu bekommen. Vor allem die Methodik anderer Unternehmen zu verstehen, finde ich sehr spannend. Zudem gibt es natürlich trotzdem viele neue Erkenntnisse und das Buch hilft hervorragend die eigene Arbeitsweise zu analysieren und zu hinterfragen. Aus diesem Grund empfehle ich das Buch absolut jedem, der sich für Designsysteme interessiert.

Quellen
  1. Vgl. Kholmatova, Alla: »Design Systems«, Freiburg 2017, S. 144.
  2. Vgl. Ebd., S. 136.
  3. Vgl. Ebd., S. 140.
  4. Vgl. Ebd., S. 99.
  5. Vgl. Ebd., S. 29.
  6. Vgl. Ebd., Freiburg 2017, S. 30.
  7. Ebd., S. 114.
  8. Vgl. Ebd., S. 78.
  9. Vgl. Ebd., S. 27.

oN-Line System – Template des modernen Computers

An verschiedenen Stellen bin ich auf Doug Engelbart, Forscher an der Standford University, gestoßen. Eine seiner Visionen war, dass Hypertext als Werkzeug für die Arbeit im Team genutzt wird und dass Personen in einem sehr nahen und natürlichen Weg mit Maschinen kommunizieren können.

An verschiedenen Stellen bin ich auf Doug Engelbart, Forscher an der Standford University, gestoßen. Eine seiner Visionen war, dass Hypertext als Werkzeug für die Arbeit im Team genutzt wird und dass Personen in einem sehr nahen und natürlichen Weg mit Maschinen kommunizieren können.1 In den 60er Jahren erschuf er das kollaborative Hypertext-System »oN-Line System« (NLS) und gilt als Erfinder der Computermaus.2 Die Erfindung seiner Einhand-Tastatur mit nur fünf Tasten, sieht Licklider rückblickend sogar als eine der wahrscheinlich größten Erfindungen.3

Engelbart gilt als stark beeinflusst von Vannevar Bush und ist zudem Autor von »Augmenting Human Intellect: A Conceptual Framework« (1962).4 Damit ist die Fähigkeit eines Menschen gemeint, »sich einer komplexen Problemsituation zu nähern, Verständnis für seine speziellen Bedürfnisse zu entwickeln und Problemlösungen abzuleiten. Unter erhöhter Fähigkeit wird in diesem Zusammenhang eine Mischung aus Folgendem verstanden: schnelleres Verständnis, besseres Verständnis, die Möglichkeit, in einer bisher zu komplexen Situation einen brauchbaren Grad an Verständnis zu gewinnen, schnellere Lösungen, bessere Lösungen und die Möglichkeit Lösungen für Probleme zu finden, die vorher unlösbar schienen«5. Zudem sieht er die Wichtigkeit, dass Ahnungen, Ausprobieren, immaterielle Werte und das menschliche »Gefühl für eine Situation« sinnvollerweise mit den rationalen Gegebenheiten der elektronischen Hilfsmittel koexistieren.6

Seine Ausarbeitung gilt als Pionierarbeit seiner Zeit und seine Denkweise ist der Lickliders sehr nahe. Die auf den ersten Blick für meine Arbeit relevantere Entwicklung ist jedoch die des oN-Line Systems. Selbstverständlich kann beides nicht gänzlich getrennt voneinander betrachtet werden, da genau dieses System zur Erweiterung der menschlichen Intelligenz bestimmt war.7 Jedoch möchte ich mich nicht zu sehr in seinem sehr umfangreichen, theoretischen Konzept verstricken.

Das oN-Line System

Wie schon erwähnt ist das oN-Line System ein Hypertext-System. Der Prototyp wurde erstmals 1968 demonstriert und Alex Wright hält es im Wesentlichen für das Template für den modernen Computer.8 Ian Ritchie beschreibt wie Engelbart das System mit Headset-Mikrophon mittels 5-Finger-Tastatur und der ersten Computermaus der Welt demonstriert und zwischen Dokumenten und Graphiken weiter schaltet.9 Aus Ritchies Sicht war das Problem unter anderem das, dass ein Computer zu dieser Zeit mehrere Millionen Pfund kostete und damit als Heimcomputer nicht wirklich praktisch war.10 Wright erläutert weiter, dass das System bereits Hyperlinks und ein Videokonferenz-System enthält,11 was mir als sehr fortschrittlich erscheint. Es gilt als das erste System, das den praktischen Einsatz von mit Hyperlinks vernetzten Dokumenten, der Maus, Raster-Scan-Monitoren, nach Relevanz organisierten Informationen, einer Bildschirmverwaltung, Präsentationsprogrammen und anderen modernen Computing-Konzepten angewandt hat.12

Für mich immer wieder erstaunlich ist die Tatsache, wie früh daran gearbeitet wurde Informationen nach Relevanz zu sortieren und wie lange es gedauert hat bis es mit dem World Wide Web tatsächlich praktikabel für Jedermann umgesetzt wurde. Natürlich gibt es davor schon analoge Systeme, die sich wie im Falle von Paul Otlet durch die Verbindung von Inhalten abheben oder fiktive Anwendungen, die wie bei Vannevar Bushs Memex Assoziationen zwischen Dokumenten auf elektronischem Wege hervorbringen sollten.
Gleichermaßen lässt sich der Antrieb, neue Wege für die Organisation von Informationen zu finden, als logische Konsequenz der menschlichen Entwicklung sehen und sich in den historischen Kontext einordnen. So nahm neben der Fülle an Informationen auch die Abhängigkeit von eben diesen massiv zu. Wohlstand und Fortschritt sind in der Hypergeschichte, in der wir uns beispielsweise in Deutschland befinden, enorm an sie gebunden. Zudem sieht man in Tim Berners-Lee Konzept von Linked Open Data eine weitere Evolution, welche mich stark an »The World City« erinnert, mit der Paul Otlet das Wissen der Menschheit vereinen wollte. Auch bei Linked Open Data ist letztendlich das Ziel alle Daten zusammenzutragen, so dass sie nicht auf lokalen Rechnern oder in geschlossenen Systemen verloren gehen. Zwar unterscheiden sich Informationen und Wissen grundlegend, aber durch das Zusammenführen der Daten bzw. Informationen lässt sich nicht nur Wissen herauslesen, sondern sogar neues generieren. So werden nämlich Sachverhalte assoziativ verbunden, welche vorher nicht als zusammenhängend betrachtet wurden.

Diese abschließenden Gedanken bringen mir insofern neue Erkenntnisse für meine Arbeit, dass mir der Gesamtkontext nun immer klarer wird. Die Recherche über vergangene Entwicklungen, die zeitliche Einordnung sowie aktuelle Konzepte helfen mir enorm beim Verständnis. In diesem Zusammenhang wird mir zudem bewusst, das Informationsdesign eine große Rolle in meiner Arbeit spielen könnte.

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 6.
  2. Vgl. Ebd., S. 50.
  3. Vgl. Licklider, Joseph Carl Robnett, Yoshiki Ohshima: »Some Reflections on Early History by J.C.R. Licklider (VPRI 0093)«, Stand: 5.8.2015, URL: https://www.youtube.com/watch?v=SN–t9jXQc0, TC: 00:12:22–00:13:50, abgerufen am 20.8.2017.
  4. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:36:11–00:37:18, abgerufen am 18.8.2017.
  5. Engelbart, Doug: »Augmenting Human Intellect: A Conceptual Framework«, Stand: Oktober 1962, URL: https://www.dougengelbart.org/pubs/augment-3906.html#2, abgerufen am 22.8.2017.
  6. Vgl. Ebd.
  7. Vgl. Ritchie, Ian: »The day I turned down Tim Berners-Lee«, URL: https://www.ted.com/talks/ian_ritchie_the_day_i_turned_down_tim_berners_lee/, TC: 00:01:17–00:01:51, abgerufen am 20.7.2017.
  8. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:38:04–00:39:36, abgerufen am 18.8.2017.
  9. Vgl. Ritchie, Ian: »The day I turned down Tim Berners-Lee«, URL: https://www.ted.com/talks/ian_ritchie_the_day_i_turned_down_tim_berners_lee/, TC: 00:01:51–00:02:24, abgerufen am 20.7.2017.
  10. Vgl. Ebd., TC: 00:02:24–00:02:37.
  11. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:38:04–00:39:36, abgerufen am 18.8.2017.
  12. Vgl. Gust, Kate, Software Preservation Group: »NLS Augment Index«, Stand: 6.11.2006, URL: http://www.softwarepreservation.org/projects/nlsproject, abgerufen am 22.8.2017.
Abbildungen
  1. Titelbild: DARPA: »oN-Line System«, URL: https://www.darpa.mil/about-us/timeline/nls, abgerufen am 14.9.2017.

This is for everyone

Der Dokumentarfilm »ForEveryone.net« verbindet die Vergangenheit, Gegenwart und Zukunft des Webs. Unter anderem durch Umfragen, Interviews sowie Tim Berners-Lee als Erzähler selbst, schafft die Regisseurin Jessica Yu einen Film, welcher einen kurzen, aber präzisen Einblick in die Entwicklung und Grundideen des World Wide Web gibt.

Der Dokumentarfilm »ForEveryone.net« verbindet die Vergangenheit, Gegenwart und Zukunft des Webs. Unter anderem durch Umfragen, Interviews sowie Tim Berners-Lee als Erzähler selbst, schafft die Regisseurin Jessica Yu einen Film, welcher einen kurzen, aber präzisen Einblick in die Entwicklung und Grundideen des World Wide Web gibt.

Schon in den ersten Minuten bringen Jeff Jaeff, Daniel Weitzner und Peggie Rimmer die Wichtigkeit des Webs auf den Punkt. Jaeff beschreibt das Web als die transformierende Entwicklung überhaupt in unserer Zeit.1 Daniel Weitzner glaubt fest daran, dass es keine andere Technologie gibt, die so viel für freie Meinungsäußerung, Zugang zu Wissen und Demokratie getan hat als das Web.2 Peggie Rimmer sagt vorher, dass die Welt buchstäblich angehalten wird, wenn das Web untergeht.3

Vor allem die letzte Aussage wirft bei mir viele Fragen und Gedanken auf. Während wir uns langsam, Jahr für Jahr, an das Web gewöhnt haben, wäre der Untergang ein tatsächlicher – sicher zeitlich begrenzter – Untergang. Das Web ist so präsent und selbstverständlich, dass das Leben vieler massiv davon abhängt. Ganze Berufe und Branchen sind ausschließlich dem Web zu verdanken und selbst in Bereichen, welche nicht in erster Linie mit dem Web verbunden sind, wäre es fatal, wenn keine Kommunikation über das Web bzw. das Internet stattfinden könnte. Es geht dabei nicht nur um die tägliche Kommunikation via E-Mail oder das Gestalten schöner Webseiten als Beruf. Allein die Forschung, die durch den weltweiten Austausch von Daten massiv von der Vernetzung profitiert, wäre sicher um einiges zurückgeworfen.

Umso besser, dass Tim Berners-Lee eines Tages mit seinem Vater eine Diskussion über eine Idee des Vaters hatte. Berners-Lee erzählt die Anekdote, dass sein Vater nach Ideen suchte, um Computer intuitiver zu machen und Verbindungen zu vervollständigen, wie es das Gehirn kann. Computer sind gut in der logischen Organisationsverarbeitung, aber nicht darin Verbindungen zu schaffen. Dass Computer sehr viel stärker wären, wenn unverbundene Informationen verbunden werden würden, schlummerte weiter als Vision in Berners-Lees Hinterkopf. Laut ihm sind die Verbindungen wichtig und in einer extremen Sichtweise könnte man sogar sagen, dass alles nur aus Verbindungen besteht.4

Die Anfänge des Internets sind schon in den 60er Jahren zu finden, doch Informationen abzurufen oder einzuspielen war für Lieschen Müller unmöglich. Daniel Weitzner drückt es so aus, dass Berners-Lee viel Komplexität weggenommen hatte und das Internet durch das World Wide Web zugänglich machte.5

Das grundsätzliche Problem war nämlich die Inkompatibilität der Computer, weshalb sie oft nicht miteinander kommunizieren konnten. Bei CERN lag die Schwierigkeit schon darin, dass nicht einmal die Stromstecker untereinander kompatibel waren. Die Mitarbeiter kamen aus der ganzen Welt und da es keine strengen Reglements gab, arbeitete jeder an unterschiedlichen Rechnern. Da Berners-Lee irgendwann genug davon hatte, baute er einen eigenen Adapter, der so flexibel war, dass er alles tun kann, was er damit tun möchte. Daraus entstand die weitere Vorstellung, wie es wäre, wenn er seinen Computer so programmieren könnte, dass er einen Raum kreiert, in dem alles verlinkt ist. Jede Information, jedes Bit auf dem Planeten wären für ihn sowie jeden anderen verfügbar. Ein einziger Informationsraum.6

Welche Ideen hinter diesem Informationsraum stecken, so wie z. B. die Dezentralisierung oder die Arbeit mit möglichst wenigen Regeln, fasse ich bereits in »Vision eines Visionärs« zusammen.

Während durch meine bisherige Auseinandersetzung viele Dinge wie die Namensgebung des Webs, die freie Herausgabe von CERN oder beispielsweise die Magna Carta nicht neu für mich waren, fand ich einen neuen Anhaltspunkt in den Erzählungen von Tilly Blyth, Kuratorin des Londoner Science Museum. Sie erklärt, dass schon viele darüber nachgedacht haben, wie man Informationen kategorisieren, verlinken und teilen kann.7 Auf der Webseite des Museums finde unzählige weitere Informationen, die im weiteren Verlauf hilfreich werden könnten. Zudem nennt sie Ted Nelson, Vannevar Bush oder Paul Otlet, welcher die Idee eines physischen Platzes entwickelte, wo alle Informationen aufbewahrt und auf Anfrage abgerufen werden können.8

Insgesamt fühlt sich der Film wie eine Hommage an das Web an, welche es durchaus auch verdient hat. In den letzten Szenen wird Tim Berners-Lees Auftritt bei der Eröffnungsfeier der olympischen Spiele 2012 in London gezeigt, wo er als Erfinder des Webs vorgestellt und mit riesigen Lettern »THIS IS FOR EVERYONE« auf den Zuschauertribünen begleitet wird.9 Das unterstreicht seinen Kampf um das offene Web und die weltweite Verbreitung. Erst wenn jeder Mensch am World Wide Web teilnehmen wird und garantiert werden kann, dass das Web ein offener Informationsraum bleibt, wird Tim Berners-Lees Vision in so mancher Hinsicht erfüllt sein.

Quellen
  1. Vgl. Yu, Jessica, Non-Fiction Unlimited: »ForEveryone.net«, USA 2016, URL: http://www.foreveryone.net/, TC: 00:00:40–00:00:45, abgerufen am 17.4.2017.
  2. Vgl. Ebd., TC: 00:01:05–00:01:16.
  3. Vgl. Ebd., TC: 00:01:30–00:01:35.
  4. Vgl. Ebd., TC: 00:05:02–00:05:57.
  5. Vgl. Ebd., TC: 00:07:20–00:07:32.
  6. Vgl. Ebd., TC: 00:09:44–00:11:47.
  7. Vgl. Ebd., TC: 00:06:15–00:07:20.
  8. Vgl. Ebd.
  9. Vgl. Ebd., TC: 00:23:32–00:33:56.
Abbildungen
  1. Titelbild: Eigener Screenshot; Yu, Jessica, Non-Fiction Unlimited: »ForEveryone.net«, USA 2016, URL: http://www.foreveryone.net/, TC: 00:33:37, abgerufen am 17.4.2017./li>

Intergalactic Computer Network

Bei der Entstehung des World Wide Webs spielt die Erfindung des Internets die grundlegende Rolle überhaupt. Joseph Carl Robnett Licklider gilt als einer der wichtigsten Begründer, weshalb ich ihn in meine Dokumentation aufnehmen möchte.

Bei der Entstehung des World Wide Webs spielt die Erfindung des Internets die grundlegende Rolle überhaupt. Joseph Carl Robnett Licklider gilt als einer der wichtigsten Begründer, weshalb ich ihn in meine Dokumentation aufnehmen möchte. Meine Recherche über ihn war verhältnismäßig lange, da ich es sehr schwierig fand geeignete Materialien zu finden. Jedoch möchte ich meine Ergebnisse sehr gebündelt zusammentragen, da die detaillierte Entstehung des Internets kein Kernthema für mich darstellt. Aus diesem Grund habe ich mich bisher auch nicht im Detail mit seinen Büchern wie z. B. »The Dream Machine« oder »Libraries of the future« auseinandergesetzt. Innerhalb eines Vortrags von Hannes Högni Vilhjálmsson spielen seine Arbeiten »Man-Computer-Symbiosis« und »The Computer as a Communication Device« eine Rolle. Zudem dient mir »Brief History of the Internet« der Internet Society als Basis.

Advanced Research Projects Agency

Den Grundstein des Internets legt Licklider in den 60er Jahren bei seiner Arbeit für die ARPA (Advanced Research Projects Agency). Schon vor seiner Zeit bei ARPA (später DARPA) entstand 1960 seine Arbeit »Man-Computer-Symbiosis«. Dabei geht es nicht darum, dass der Mensch von der Maschine ersetzt oder mechanisch erweitert wird, sondern eine tatsächliche Symbiose entsteht.1 Einen Vorteil sieht er vor allen Dingen darin, dass die Maschine Aufgaben übernehmen kann, welche dem Menschen die Zeit für intellektuelle Arbeit rauben.2 In seinen Anforderungen für die Symbiose spricht er bereits in dieser Arbeit von »Networked thinking centers«, welche durch Aufteilung der Computerleistung verhindern sollen, dass zu schnelle und teure Computer nicht ausgelastet werden und nur wenigen Menschen dienen.3 Licklider ist davon überzeugt, dass Computer die Mensch-Mensch-Kommunikation verbessern können und vor allem die Beschleunigung von Arbeitsprozessen spielt bei seinen Gedanken eine Rolle.4

Ab 1962 ist er Leiter bei ARPA, wo er in den kommenden Jahren über das »Intergalactic Computer Network« nachdenkt, erste Experimente durchführt und Verbindungen mit seinen Mitarbeitern realisiert.5 Nachdem er 1967 seinen Plan für das »ARPANET« veröffentlicht, wird die Umsetzung einer Schlüsselkomponente, dem »Interface Message Processor«, ausgeschrieben. »BBN Technologies« realisiert ihn letztendlich und legt damit den Grundstein für das erste Rechnernetz im Jahr 1969, welches in den kommenden Jahren immer mehr Computer aufnimmt.6 Dieses Netz gilt als Vorreiter des Internets.

Wie eingangs erwähnt möchte ich mich nur kurz mit diesem Thema befassen, weshalb ich es ohne Reflexion oder Erkenntnisse mit in meine Dokumentation aufnehme.

Quellen
  1. Vgl. Vilhjálmsson, Hannes Högni, RU Computer Science: »Pearls of Computation: „J. C. R. Licklider: Man-Computer Symbiosis on the Intergalactic Computer Network«, Stand: 13.2.2015, URL: https://www.youtube.com/watch?v=ncCPTgWX6a8, TC: 00:17:31–00:19:22, abgerufen am 24.8.2017.
  2. Vgl. Ebd., TC: 00:23:23–00:25:10.
  3. Vgl. Ebd., TC: 00:25:18–00:26:03.
  4. Vgl. Ebd., TC: 00:36:16–00:37:31.
  5. Vgl. Ebd., TC: 00:12:18–00:14:23.
  6. Vgl. Leiner, Barry M.; Cerf, Vinton G.; Clark, David D.; Kahn, Robert E.; Kleinrock, Leonard; Lynch, Daniel C.; Postel, Jon; Roberts, Larry G.; Wolff, Stephen, Internet Society: »Brief History of the Internet«, »Origins of the Internet« URL: https://www.internetsociety.org/internet/history-internet/brief-history-internet/, abgerufen am 26.8.2017.

Assoziative Verlinkungen und Generierung von Wissen

In zwei Beiträgen bin ich bereits kurz auf Vannevar Bush, den Erfinder der Memex, eingegangen. Durch einen Vortrag von Alex Wright habe ich die Funktionsweise der Memex noch ein Stück besser verstanden, weshalb ich nochmal kurz auf Bush eingehen möchte.

In meinen Beiträgen »Tim Berners-Lee über das World Wide Web« und »Wie wir vielleicht denken« bin ich bereits kurz auf Vannevar Bush, Erfinder des fikitven Schreibtisches Memex, eingegangen. Durch einen Vortrag von Alex Wright habe ich die Funktionsweise des Memex noch ein Stück besser verstanden, weshalb ich nochmal kurz auf Bush eingehen möchte.

Als Grundlage dient mir erneut Bushs Überzeugung, dass das Gehirn nicht wie Bibliotheken oder ein Katalogsystem funktionieren würde, sondern durch Assoziationen arbeitet und zwischen einzelnen Gedanken hin und her springt.1 Essenziell ist bei der Idee des Memex, dass Verbindungen zwischen Dokumenten kreiert werden können.2 Dabei hatte man assoziative Wege sie zu verknüpfen und die Pfade waren sichtbar. Wenn die Maschine also eine Woche vorher benutzt worden wäre, hätte der nächste gesehen, welcher Weg gegangen wurde. Man konnte dabei nicht nur sehen, wie man in das aktuelle Dokument gelangt ist, sondern wohin es weiter verlinkt. In dieser Hinsicht sieht Wright ein Vorteil gegenüber dem Web, da man üblicherweise nicht sieht, wer noch auf derselben Webseite ist – ausgenommen auf jenen, die genau darauf ausgelegt sind.3
Meiner Meinung nach ist das insofern vorteilhaft, dass dadurch völlig neue Assoziationen und Wege aufgezeigt werden, welche man selbst eventuell noch nicht bedacht hatte.

Sollte ich die Maschine zwischenzeitlich richtig verstehen, gibt es noch eine weitere Möglichkeit, Wissen einzelner zu vernetzen. So konnten viele Informationen auf den Mikrofilmen gelagert, zwei Dokumente nebeneinander geöffnet und Anmerkungen geschrieben werden.4 Speziell die Möglichkeit eigene Anmerkungen hinzuzufügen, sehe ich als enorm wichtiges Werkzeug für die gemeinschaftliche Auseinandersetzung mit und Generierung von Wissen.

Vannevar Bush wird häufig als der Mann erwähnt, auf dessen Arbeit viele weitere Ansätze in der Welt der Computer und des World Wide Webs basieren. Daher möchte ich mich zu einem späteren Zeitpunkt detaillierter durch den Essay »As We May Think« arbeiten.

Quellen
  1. Vgl. Bush, Vannevar: »As We May Think«, URL: http://web.mit.edu/STS.035/www/PDFs/think.pdf, Seite 14, abgerufen am 29.8.2017.
  2. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:26:40–00:29:23, abgerufen am 18.8.2017.
  3. Vgl. Ebd., TC: 00:24:57–00:27:00.
  4. Vgl. Ebd., TC: 00:30:57–00:32:00.
  5. Vgl. Ebd., TC: 00:29:25–00:30:56.

Paul Otlet – Pionier des Informationsmanagements

Im Zuge meiner Nachforschungen hinsichtlich der Entwicklung des World Wide Webs stoße ich häufig auf den Namen Paul Otlet. An diversen Stellen wird er als Pionier des Informationsmanagements oder als Wegbereiter des Webs oder Google genannt. Alex Wright, amerikanischer Autor und Informationsarchitekt, spricht in seinem Vortrag »The Web That Wasn’t: Forgotten Forebears of the Internet« bei UX Brighton über Paul Otlet sowie diverse andere Vorreiter des Internets.

Im Zuge meiner Nachforschungen hinsichtlich der Entwicklung des World Wide Webs stoße ich häufig auf den Namen Paul Otlet. An diversen Stellen wird er als Pionier des Informationsmanagements oder als Wegbereiter des Webs oder Google genannt. Alex Wright, amerikanischer Autor und Informationsarchitekt, spricht in seinem Vortrag »The Web That Wasn’t: Forgotten Forebears of the Internet« bei UX Brighton über Paul Otlet sowie diverse andere Vorreiter des Internets.

Otlets Organisationsstruktur intellektueller Arbeiten
Otlets Organisationsstruktur intellektueller Arbeiten

Die universelle Dezimalklassifikation

Der Belgier Otlet lebte von 1868 bis etwa Mitte des 20. Jahrhunderts und entwickelte seine Vision dementsprechend vor der Erfindung des ersten Computers. Ein zentraler Gedanke seiner Arbeit ist die systematische Anordnung, inhaltliche Verknüpfung und Darstellung menschlichen Wissens. Die bis dahin übliche Katalogisierung der Medien – weitestgehend Bücher – brachte ein großes Problem mit sich: Die Inhalte waren nicht ersichtlich. Das Ziel war also, ein System zu entwickeln, welches es zulässt, Inhalte zu extrahieren und sie auf intelligente Weise zu indexieren,1 um sie wiederum einfach verfügbar machen zu können. Basierend darauf entwickelt er zusammen mit Henri La Fontaine, beides Bibliothekare, die universelle Dezimalklassifikation, welches noch immer in fast ganz Europa von öffentlichen Bibliotheken verwendet wird2 und menschliches Wissen systematisch einteilt.

Wissen der Menschheit

Das bescheidene Ziel war es schließlich, das komplette Wissen der Menschheit seit Erfindung des Drucks zu sammeln und zu indexieren. Im Mundaneum war ab 1895 das »Institut International de Bibliographie« beheimatet,3 wo das Duo mit der Umsetzung dieser Vision begann. Die jahrzehntelange Arbeit wurde von der Regierung unterstützt und die Mitarbeiter versuchten absolut jede Information der Welt zu sammeln,4 um sie schließlich systematisch auf Karteikarten zu indexieren. Allein zwischen 1895 und dem 1. Weltkrieg entstanden so zehn Millionen Karteikarten,5 welche auch andere Medien wie Fotografien, Filme oder Audioaufnahmen mit einbezogen.6 Bis ins Jahr 1934 wurden mithilfe eines internationalen Netzwerks ganze 18 Millionen Karteikarten erstellt, welche innerhalb von Aktenschränken stolze 15.000 Zettelkästen füllten.7

Ab 1910 entstand das International Museum, das eher als Lehrinstitut als als Museum verstanden wurde. In 150 Räumen war Wissen thematisch sortiert aufbereitet und für die Öffentlichkeit zugänglich.8

The World City

Der Utopist ging gedanklich noch einen Schritt weiter. Er dachte über eine physische Manifestation der Informationen nach und arbeitete zusammen mit bekannten Architekten an Plänen für eine »World City«. Dessen Herz sollte das Mundaneum sein und unter anderem globale Universitäten oder ein Netzwerk von Museen beherbergen.9 Rund um das zentrale Mundaneum sollte ein Art Netzwerk fließender Informationen und Institutionen entstehen, welches durch Zweigstellen in der ganzen Welt unterstützt werden sollte. Die Aufgabe der Zweigstellen wäre die gewesen, Informationen des jeweiligen Landes zu verwalten, sie weiterzugeben und sie gegen Informationen aus der globalen Stadt einzutauschen.10

Inhaltliche Verlinkung

Alex Wright bewertet den Ansatz Otlets in mancher Hinsicht als anspruchsvoller als das World Wide Web selbst. Zwar wäre es heute unmöglich alle Informationen zu sammeln, doch das Web sei ein flacher Informationsraum ohne Organisationsprinzipien. Das macht es auf der einen Seite als offenes Medium aus, auf der anderen Seite sieht er genau das als Krankheit. Man käme etwas auf die Spur, Dinge verschwänden wieder, man müsse herausfinden, wem und was man vertrauen könne und es sei ohnehin unmöglich das große Ganze zu verstehen. Zudem fand Otlet sehr anspruchsvolle Wege Informationen zu verlinken, während Hyperlinks nur von A nach B führen, ohne dass man genau weiß in welcher Beziehung die Links zueinander stehen.
Otlet hatte dagegen eine ausgefeilte Syntax aus Zahlen und Zeichen, welche letztendlich zeigt, dass ein Dokument mit dem anderen übereinstimmt oder es in bestimmten Aspekten sogar erweitert. Aus Wrights Sicht besitzt das Web diese Art und Weise der Verbindungen noch nicht, obwohl viele Menschen daran arbeiten.11

Aus meiner Sicht ist die Vision Otlets ein wunderbarer Ansatz, um Informationen sammeln, organisieren und verbreiten zu können. Vor allem die globale Stadt, die sich letztendlich nur dem Fluss des menschlichen Wissens widmet, halte ich für großartig. Andererseits halte ich die Zentralisierung des Wissens aus heutiger Sicht nicht für den besten Ansatz. Dadurch, dass nur bestimmte Institutionen in den jeweiligen Ländern Informationen austauschen, wäre der freie Fluss sehr beschränkt. Man muss jedoch bedenken, dass ein digitaler Austausch wie heute natürlich noch nicht möglich war.

Mein Beitrag soll nur einen kurzen Einblick in Otlets Vision geben, um sein System besser verstehen zu können. Sollte es während meines Masters relevanter werden, möchte ich mich noch einmal detaillierter mit der tatsächlichen Systematik auseinandersetzen. Zudem werde ich meine Dokumentation durch einen kleinen Exkurs zu Otto Neurath erweitern. Er war österreichischer Design Thinker und an den Plänen der Stadt beteiligt.

Quellen
  1. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:14:34–00:15:14, abgerufen am 18.8.2017.
  2. Vgl. Ebd., TC: 00:13:43–00:14:34.
  3. Vgl. Tiny Big Story, in collaboration with Ikesu, Mundaneum: »Mundaneum – Small history of a big idea – Context EN«, Stand: 9.7.2015, URL: https://www.youtube.com/watch?v=flBcebZ7MCo, TC: 00:00:54–00:01:14, abgerufen am 18.8.2017.
  4. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:20:19–00:21:00, abgerufen am 18.8.2017.
  5. Vgl. Ebd., TC: 00:21:00–00:21:30.
  6. Vgl. Ebd., TC: 00:16:30–00:16:54.
  7. Vgl. Tiny Big Story, in collaboration with Ikesu, Mundaneum: »Mundaneum – Small history of a big idea – Context EN«, Stand: 9.7.2015, URL: https://www.youtube.com/watch?v=flBcebZ7MCo, TC: 00:01:15–00:01:29, abgerufen am 18.8.2017.
  8. Vgl. Ebd., TC: 00:01:59–00:02:26.
  9. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:17:14–00:18:40, abgerufen am 18.8.2017.
  10. Vgl. Ebd., TC: 00:18:40–00:19:20.
  11. Vgl. Ebd., TC: 00:24:57–00:27:00.

Wie wir vielleicht denken

Im TED-Beitrag »The day I turned down Tim Berners-Lee« erläutert Ian Ritchie, wie sich das Web entwickelt hat und wie es dazu kam, dass er 1990 Berners-Lees Anfrage einen Browser zu schreiben, ablehnte. Da ich mich mit Teilen der Entwicklung schon beschäftigt habe und die Essenz seines Vortrags nicht sonderlich erkenntnisreich finde, interessiert mich vor allen Dingen seine Schilderung über Vannevar Bush und Doug Engelbart.

Im TED-Beitrag »The day I turned down Tim Berners-Lee« erläutert Ian Ritchie, wie sich das Web entwickelt hat und wie es dazu kam, dass er 1990 Berners-Lees Anfrage einen Browser zu schreiben, ablehnte.1

Da ich mich mit Teilen der Entwicklung schon beschäftigt habe und die Essenz seines Vortrags nicht sonderlich erkenntnisreich finde, interessiert mich vor allen Dingen seine Schilderung über Vannevar Bush und Doug Engelbart.

Ritchie erwähnt Bushs Artikel »As We May Think«, der 1945 veröffentlicht wurde. Er behauptet damals, dass die Art, wie wir Informationen nutzen, zerstört sei und wir als Menschen nicht wie Bibliotheken oder Katalogsysteme funktionieren würden. Das Gehirn arbeitet durch Assoziationen und springt zwischen einzelnen Gedanken hin und her.2 Auf dieser Grundlage entwickelte er 1945 die fiktive Maschine Memex, welche Informationen miteinander verknüpfen würde. Ein Memex hatte eine Plattform, auf der man Informationen verbinden und abrufen konnte. Der Computer war zu dieser Zeit noch nicht erfunden.3

Bushs Artikel inspiriert Engelbart, welcher später das oN-Line System baute, das zur Erweiterung der menschlichen Intelligenz bestimmt war. Er präsentierte es 1968 live auf einer Konferenz. Man sah wie er es mithilfe der 5-Fingertastatur und der ersten Computermaus bediente und zwischen Dokumenten und Grafiken wechselte.4 Während Computer zu dieser Zeit noch unerschwinglich waren,5 ändert sich das in den 80er Jahren mit dem Einzug der Heimcomputer. Ritchies Unternehmen OWL entwickelte in dieser Zeit das erste erfolgreiche Hypertextsystem, später folgt Apples HyperCard6 und schließlich die Erfindung des World Wide Webs durch Tim Berners-Lee.

Auf Bushs »As We May Think« bin ich schon häufiger innerhalb meiner Recherche gestoßen und Doug Engelbart hat beispielsweise Tim Berners-Lee in seinem Gespräch bei Sternstunde Philosophie erwähnt. Daher möchte ich mich im Weiteren zumindest grob mit beiden auseinandersetzen, um deren Ansätze besser zu verstehen.

Quellen
  1. Vgl. Ritchie, Ian: »The day I turned down Tim Berners-Lee«, URL: https://www.ted.com/talks/ian_ritchie_the_day_i_turned_down_tim_berners_lee/, TC: 00:03:34–00:04:14, abgerufen am 20.7.2017.
  2. Vgl. Ebd., TC: 00:00:17–00:00:50.
  3. Vgl. Ebd., TC: 00:00:50–00:01:17.
  4. Vgl. Ebd., TC: 00:01:51–00:02:24.
  5. Vgl. Ebd., TC: 00:02:24–00:02:37.
  6. Vgl. Ebd., TC: 00:02:37–00:03:14.
Abbildungen
  1. Titelbild: Dunkoman: »The Memex«, abgerufen am 21.7.2017, Lizenz: CC BY 2.0.

Neue Zusammenhänge durch verbundene Daten

Ein Jahr nach Tim Berners-Lees TED-Vortrag »The next web« meldet er sich mit »The year open data went worldwide« auf der TED-Bühne zurück. Mitgebracht hat er Ergebnisse, die erneut unterstreichen, wie wichtig es ist, Rohdaten ins Web einzuschleusen.
Neben diversen Beispielen wie eingespeiste Daten der britischen Regierung oder ein Rechtsstreit auf Grundlage von Daten, halte ich einen Erfolg für besonders erwähnenswert.

Ein Jahr nach Tim Berners-Lees TED-Vortrag »The next web« meldet er sich mit »The year open data went worldwide« auf der TED-Bühne zurück. Mitgebracht hat er Ergebnisse, die erneut unterstreichen, wie wichtig es ist, Rohdaten ins Web einzuschleusen.

Neben diversen Beispielen wie eingespeiste Daten der britischen Regierung1 oder ein Rechtsstreit auf Grundlage von Daten,2 halte ich einen Erfolg für besonders erwähnenswert.

Schon im letztjährigen Talk wies Berners-Lee auf die Open Street Map hin, welche durch die Community wächst. Während Europa bereits sehr gut bearbeitet wird, sieht er in manchen Regionen Potenzial für Verbesserungen.3 Er setzt dabei Port-au-Prince auf Haiti in den Fokus, welches Ende 2009 nicht allzu gut bearbeitet war wie beispielsweise Kalifornien. Nach dem Erdbeben veröffentlichte GeoEye Satellitenaufnahmen, die von der Open-Source-Community verwendet werden durften, was dazu führte, dass die Bearbeitung enorm zunahm. Leute aus aller Welt griffen auf die Aufnahmen zurück und bauten sehr schnell eine Karte auf. Das unterstützte die Notstandsarbeit enorm, da z. B. Flüchtlingslager,4 Krankenhäuser oder blockierte Straßen angezeigt wurden. Zudem wurden beschädigte Gebäude und Flüchtlingslager sichtbar.5

Dieses Beispiel zeigt, wie essenziell Daten als Grundlage für die Lösung der Probleme der Menschheit sein können. Berners-Lee erwähnte bereits im Vorjahr die Vorteile in Bezug auf die Bekämpfung von Alzheimer und es gibt unzählige andere Szenarien, in denen Linked Open Data wertvolle Arbeit leisten kann. Das Zusammenführen einzelner Informationen, welche bisher bei sämtlichen Leuten für das Web unsichtbar gelagert werden, kann große Zusammenhänge herstellen. Werden diese bisher unsichtbaren Verbindungen sichtbar gemacht, können viele Missstände oder gemeinsame Probleme sicher schon heute aufgedeckt werden.

Quellen
  1. Vgl. Berners-Lee, Tim: »The year open data went worldwide«, URL: https://www.ted.com/talks/tim_berners_lee_the_year_open_data_went_worldwide, TC: 00:00:51–00:11:18, abgerufen am 16.7.2017.
  2. Vgl. Ebd., TC: 00:01:29–00:02:07.
  3. Vgl. Ebd., TC: 00:03:29–00:04:03.
  4. Vgl. Ebd., TC: 00:04:03–00:04:35.
  5. Vgl. Ebd., TC: 00:04:53–00:05:07.

The next web: Linked Data

Tim Berners-Lee erläutert in seinem TED-Vortrag »The next web« im Februar 2009, was genau unter seinem Konzept »Linked Data« zu verstehen ist und wie wichtig es ist, dass wir alle gemeinsam daran arbeiten, so viel Daten wie möglich im Internet bereitzustellen.

Tim Berners-Lee erläutert in seinem TED-Vortrag »The next web« im Februar 2009, was genau unter seinem Konzept »Linked Data« zu verstehen ist und wie wichtig es ist, dass wir alle gemeinsam daran arbeiten, so viel Daten wie möglich im Internet bereitzustellen.

Zunächst versucht Berners-Lee die Unterscheidung zwischen Dokumenten und Daten klarzumachen, da die bereits vorhandenen Dokumente im Web allgemein sicher auch als Daten verstanden werden.1 Daten müssen aber in einer speziellen, maschinenlesbaren Form aufbereitet werden, damit sie von Computern lesbar sind.

Er sieht ein, dass Daten zunächst langweilig erscheinen, weist aber darauf hin, dass sie enorm interessant werden, wenn man beginnt sie zu kombinieren.2 Er fordert das Publikum auf, sich vorzustellen, wie eine Welt aussehen könnte, in der alles, was man sich vorstellen kann in Form von Daten ins Web gespeist und verknüpft wird. Das ist das, was er linked data bzw. verknüpfte Daten nennt. Für die Erstellung von Daten nennt er drei wichtige Regeln. Nicht nur Dokumente, sondern alle Dinge, um die es in Dokumenten geht werden mit HTTP: beginnen und somit eindeutig benennbar sein.3 Die zweite Regel ist, dass man bei der Abfrage dieses HTTP:-Dokuments zusätzliche Daten erhält, die für die Anfrage relevant sind.4 Dass es allein um die Beziehung zwischen den Daten geht, sieht er als dritte Regel. So kann man die Daten effektiv Weise durchsuchen.5

Die Macht der Daten

Berners-Lee hebt mehrmals hervor, dass die Daten umso mächtiger werden, je mehr davon existieren und miteinander verbunden werden.6 Daher ist es für ihn so wichtig, dass es das Web ermöglicht, dass alle Arten von Daten eingespeist werden können: Ob Regierungsdaten, Unternehmensdaten, wissenschaftliche und persönliche Daten, Wetterdaten oder ganz andere Daten. Für ihn sind alles wichtige Daten.7

Um die Macht der Daten weiter zu unterstreichen, verdeutlicht er, wie wichtig sie für die Lösung der Herausforderungen der Menschheit sind. Wissenschaftler, die sich den Problemen stellen, können ohne Daten nicht ausreichend über das Web kommunizieren. Zudem wird laut Berners-Lee ein großer Teil des menschlichen Wissens in irgendwelchen Datenbanken verborgen, oft sogar auf Computern gelagert und nicht geteilt.8 Als anschauliches Beispiel nennt er die Forschung nach neuen Medikamenten gegen Alzheimer. Die Frage, welche Neuronen bei der Signalübertragung beteiligt und außerdem verwandt mit pyramidenförmigen Neuronen sind, liefert bei Google 223.00 Treffer mit null brauchbaren Ergebnissen, da keiner diese Frage je gestellt hat. In einer Datenbank mit verknüpften Daten lassen sich 32 Treffer, die alle auf die Ausgangsfrage zutreffen, finden. Auch die Querverbindung zwischen verschiedenen Wissenschaften sieht er als enorme Wende.9 Als weiteres Beispiel nennt er OpenStreetMap, das es jedem erlaubt, die Erde zu vermessen, einzutragen und Orte einzuspeisen. So kann jeder seinen Teil zu einem großen Ganzen beitragen.10

Der Begründer des Webs macht klar, dass Linked Data nicht nur große Institutionen angeht, sondern jeden einzelnen betreffen. Zudem fordert er beispielsweise Interoperabilität zwischen sozialen Netzwerken, um die Mauern zwischen ihnen abzubauen. Das müsse mit verknüpften Daten geschehen.11 Spätestens hier sehe ich viele zweifelnde Gesichter, mich selbst zum Teil mit eingeschlossen. Trotz der überzeugenden Beispiele und dem großen Wert, den ich in Linked Data erkennen kann, sehe ich vor allem die fehlende Privatsphäre durch Öffnung des Systems.

Alles in allem sehe ich jedoch überwiegend die Vorteile darin, einen großen allumfassenden Informationsraum zu schaffen, der nicht durch Silos voneinander abgegrenzt wird. Diesen Raum mithilfe von Daten zum semantischen Web aufzuwerten (Struktureller Aufbau des Webs und die Koexistenz von Mensch und Maschine ») halte ich zudem für einen enormen Fortschritt in der menschlichen Entwicklung, der die Masse an Informationen und Wissen in eine nutzbare Form bringen kann.

Quellen
  1. Vgl. Berners-Lee, Tim: »The next web«, URL: https://www.ted.com/talks/tim_berners_lee_on_the_next_web/, TC: 00:03:53–00:04:15, abgerufen am 17.8.2017.
  2. Vgl. Ebd., TC: 00:04:50–00:05:44.
  3. Vgl. Ebd., TC: 00:05:44–00:06:26.
  4. Vgl. Ebd., TC: 00:06:26–00:06:51.
  5. Vgl. Ebd., TC: 00:06:51–00:07:31.
  6. Vgl. Ebd., TC: 00:07:31–00:08:10.
  7. Vgl. Ebd., TC: 00:09:04–00:09:41.
  8. Vgl. Ebd., TC: 00:11:20–00:11:57.
  9. Vgl. Ebd., TC: 00:11:57–00:13:10.
  10. Vgl. Ebd., TC: 00:14:04–00:15:10.
  11. Vgl. Ebd., TC: 00:13:10–00:14:04.

Tim Berners-Lee über das World Wide Web

Im Gespräch mit Barbara Bleisch spricht Tim Berners-Lee in Sternstunde Philosophie über seine Erfindung, das World Wide Web. Dabei kommen Themen wie beispielsweise Linked Open Data, die World Wide Web Foundation, die Zusammenarbeit von Mensch und Maschine oder künstliche Intelligenz zur Sprache.

Im Gespräch mit Barbara Bleisch spricht Tim Berners-Lee in Sternstunde Philosophie über seine Erfindung, das World Wide Web. Dabei kommen Themen wie beispielsweise Linked Open Data, die World Wide Web Foundation, die Zusammenarbeit von Mensch und Maschine oder künstliche Intelligenz zur Sprache.

Eine gewaltige kulturelle Veränderung sieht der Begründer darin, dass Gruppen und Kulturen im World Wide Web von der Leidenschaft der Menschen bestimmt werden.1 Um diese durchbrochenen Barrieren vollständig zu nutzen, müssen wir laut ihm lernen, die neu gewonnene Freiheit zu nutzen. Er bewirbt dabei sein Konzept von Linked Open Data, indem er auf die Zusammenarbeit von Wissenschaftlern hinweist, die sich großen Herausforderungen wie die Bekämpfung von Krebs oder Alzheimer annehmen. Er sieht das Web als vernetzte Menschheit und wenn man in das Netz schaut, sieht man die Menschheit von ihrer guten sowie von ihrer schlechten Seite.2 Zudem ist er überzeugt davon, dass die Leute heutzutage »nicht mehr nur zum Spaß surfen, sondern es benutzen. Sie wissen, dass es riesig ist und kennen die Orte, die sie im Web mögen«3.

Die Erschließung des Planeten

Die Gründung der World Wide Web Foundation im Jahr 2008 basiert auf dem Wunsch, dass das Internet der Menschheit besser dienen soll. Ein wichtiges Ziel war die Verbreitung voranzubringen, da bei Aufnahme ihrer Arbeit erst 10, 15 % der Menschen Zugang zum Web hatten. Zur Zeit des Gesprächs (2015) waren immerhin schon 40 % versorgt,4 was ich noch immer als überraschend wenig empfinde. Er vermutet, dass in den kommenden 1–2 Jahre die 50 %-Marke überstiegen wird5 und durch eine kurze Recherche glaube ich, dass die Marke zurzeit geknackt werden dürfte.

Die Tatsache, dass nur etwa die Hälfte der Menschheit das World Wide Web nutzen kann, wirft bei mir unterschiedliche Gedanken auf. Zum einen wird es in seiner inhaltlichen Masse noch einmal enorm wachsen. Zudem bin ich gespannt, welche kulturelle Veränderungen vollzogen werden, wenn neben der entwickelten Welt andere Stimmen hörbar werden. Des Weiteren wird die Vernetzung mit der restlichen Welt sicherlich sehr viele neue Möglichkeiten eröffnen und einen enormen Fortschritt bedeuten.

Von der Künstlichen Intelligenz überholt

Tim Berners-Lee war schon immer darauf aus, Maschinen in sein System einzubinden. Er ist sich sicher, dass es sehr aufregend wird, wenn es ein gutes Datennetz gibt, welches Unmengen an Maschinen dazu bringen kann miteinander zu sprechen. Sie können dazulernen und verstehen wie die Welt funktioniert. Er ist überzeugt davon, dass wir ein Netz errichten müssen, in dem sich Mensch und Maschine die Aufgaben je nach Kompetenz teilen. Maschinen werden den schweren und die Menschen z. B. den kreativen Part übernehmen.6

Weiter sollten wir darauf gefasst sein, dass die künstliche Intelligenz so schlau wird wie wir Menschen. Früher konnte man sich nicht vorstellen, dass Computer Autos fahren oder Schach spielen. Beides ist nun der Fall und ähnlich ungläubig sind wir heutzutage, was die zukünftige Entwicklung der KI betrifft. Daher fordert er dazu auf, sich schon jetzt Gedanken zu machen, für den Zeitpunkt, wenn dieser Fall eintritt.7 Luciano Floridi sieht in dieser Turing-Revolution die 4. Revolution nach Kopernikus, Darwin und Freud. Er siedelt diese jedoch schon bei Turing an, da der Computer den Menschen schon längst z. B. in der logischen Informationsverarbeitung übersteigt.

Vorangegangene Entwicklungen

Als spannende vorherige Erfindungen nennt der Erfinder des Webs die Bulletin Boards, in die man sich mithilfe des Telefonhörers und einem Modem einwählen konnte. Außerdem erwähnt er Doug Engelbert und Vannevar Bush. Engelbert hatte das Internet nie namentlich erwähnt, sei aber durch die Idee Hypertext zu verwenden, Nachrichten zu versenden und Dinge zu verlinken, konzeptionell sehr nah dran. Bushs Idee der Memex erläutert Berners-Lee sehr praktisch. Memex wäre ein Tisch gewesen, an dem man Mikrofilme hätte lesen können. Am Ende wäre eine Verlinkung zum nächsten und durch einen Knopfdruck wäre ein ganzes mechanisches System in Bewegung gekommen und die Memex hätte einen vom einen zum nächsten Mikrofilm gebracht. Zudem hatte er die Idee Wissenschaftlern Zugang zum Human Record zu erleichtern. Das sind die Aufzeichnungen alldessen, was wir entdeckt haben. Zwar war seine Vision ohne tatsächliche Verwendung von elektronischen Computern, Berners-Lee ist sich aber sicher, dass er sich für die Forschung interessiert hätte.8

Utopische Räume

Einen sehr interessanten Ansatz lässt sich gegen Ende des Gesprächs finden. Auf die Frage, ob er seine Erfindung im Zusammenhang mit Problemen wie Datenschutz, Klimawandel, etc. sieht, hat er einen aus meiner Sicht sehr speziellen und guten Ansatz.
Er ist nicht der Meinung, dass das etwas mit utopischen Räumen zu tun hat. Solche Themen werden in einem wissenschaftlichen Umfeld diskutiert und in diesem Zusammenhang ist es wichtig, unsinnige Ideen von den guten zu trennen, um keine Zeit zu verlieren. Umso wichtiger ist es, dass Stimmen nach oben durchdringen, wenn tatsächlich ein Problem entdeckt wird. Er ist der Meinung, dass wir Systeme entwickeln, die nach Regeln funktionieren und keine utopischen Räume sind. Er ist sich sicher, dass man mit Hilfe von Auswahlsystemen diejenigen Menschen finden kann, welchen wir die richtigen Entscheidungen zutrauen und deren Stimmen wir vertrauen.9

Diese Überlegung finde ich insofern spannend, dass ich überzeugt davon bin, dass sich kompetentere Menschen finden lassen als diejenigen, die tatsächlich die Gesetze verabschieden. Nicht weil diese generell inkompetent sind, sondern weil sie sicher andere Schwerpunkte haben. John Perry Barlow bringt es so auf den Punkt, dass Menschen innerhalb der Regierung unter anderen Umständen geformt worden sind als die Leute, die die meiste Zeit virtuell verbringen. Wie soll jemand, der sich sonst für völlig andere Dinge einsetzt plötzlich entscheiden, ob irgendwelche Algorithmen so verwendet werden können, wie sie sind? Wie soll man ihnen Entscheidungen über das Land überlassen, wenn man vor der Entscheidung erst einmal die Technologie erklären muss? Hier wäre ein Zusammenschluss von wirklichen Experten, die sich tagtäglich unabhängig davon im World Wide Web bewegen, sehr sinnvoll.

Das und viele weitere Fragen tauchen regelmäßig auf, wenn ich mich mit der Arbeit und den Visionen von Tim Berners-Lee auseinandersetze. Erneut war dieses Gespräch sehr inspirierend, da es zum einen neue Gedankengänge öffnet und bei anderen Gedanken für Klarheit sorgt.

Quellen
  1. Vgl. Berners-Lee, Tim, Das Weltrettungsforum, dem nichts heilig ist.: »Tim Berners Lee – Der Erfinder des Internets (Sternstunde Philosophie)«, Stand: 30.8.2015, URL: https://www.youtube.com/watch?v=1uErJzcr3fU, TC: 00:15:41–00:16:21, abgerufen am 8.7.2017.
  2. Vgl. Ebd., TC: 00:16:56–00:18:22.
  3. Ebd., TC: 00:40:57–00:41:08.
  4. Vgl. Ebd., TC: 00:20:47–00:21:38.
  5. Vgl. Ebd.
  6. Vgl. Ebd., TC: 00:31:22–00:32:55.
  7. Vgl. Ebd., TC: 00:52:06–00:53:18.
  8. Vgl. Ebd., TC: 00:43:37–00:45:28.
  9. Vgl. Ebd., TC: 00:48:30–00:49:35.

»Moments of Happiness« – Einige Erkenntnisse

»Moments of Happiness« ist ein Nebenprojekt der »EPIC Agency«. Dabei werden sechs kleine Situationen gezaubert, die dem Nutzer Spaß machen und Momente des Glücks hervorbringen. Das Projekt führt mich zusätzlich zu weiteren Erkentnissen bezüglich der Weiterentwicklung des Mediums.

»Moments of Happiness« ist ein Nebenprojekt der »EPIC Agency«. Dabei werden sechs kleine Situationen gezaubert, die dem Nutzer Spaß machen und Momente des Glücks hervorbringen. Man könnte es zum Teil »Mini-Spielchen« nennen, da beispielsweise gefordert wird so schnell wie möglich zu klicken oder mit einer Katze mittels eines Wollballs zu spielen.

Ich nehme das Projekt mit in meiner Dokumentation auf, da es mich inspiriert mit Technologie und Grafik zu experimentieren. Zudem finde ich es wichtig zu sehen, dass inhaltliche Einfachheit – zumindest an mancher Stelle – auch hilfreich sein kann, um sich nicht zu sehr zu verstricken.

Die Umsetzung ist grafisch ansprechend und mir fällt zunehmend auf, wie sehr sich der – wenn man es so nennen mag – Webtrend mit großen Farbflächen und kleinen grafischen Elementen zu arbeiten durchsetzt. Minimalistische Gestaltung ist generell natürlich nichts Neues, aber immer häufiger treffe ich auf Projekte, wie z. B. auch »In Pieces«, die sich einem überschaubaren Thema widmen und es grafisch und technisch hervorragend umsetzen.

Moments of Happiness | EPIC Agency
05 – Click to jump, avoid the hedgehogs, grap the carrots.II

Die Weiterentwicklung des Webs

Neben der Tatsache, dass die Gestaltungsqualität im World Wide Web generell zunimmt, vermute ich zum einen, dass die immer einfachere Zugänglichkeit des Mediums ein Grund dafür sein könnte. Zum anderen denke ich, dass sich das allgemeine Verständnis des Mediums stark ändert. Während sich in den Anfängen des World Wide Web die analoge Denkweise sehr in der Gestaltung niedergeschlagen hat, versteht man es zunehmend, wie man den Gestaltungsraum mediumspezifisch nutzen kann. Zudem spekuliere ich, dass der künstlerisch freie Raum nach der Kommerzialisierung des Webs stark in den Hintergrund gedrängt wurde und sich nun wieder Platz schafft. Ähnlich wie es im Analogen gleichermaßen Platz für Imagebroschüren von Unternehmen und Bildbände von Illustratoren gibt, bietet auch der virtuelle Raum unbegrenzte Möglichkeiten für das parallele Bestehen. Meine letzte Vermutung ist die, dass sich Technik und Grafik immer mehr annähern. Auf Entwicklerseite entsteht ein Verständnis für die grafische Arbeit, sowie sich auf der Gestaltungsseite zunehmend ein Verständnis und Interesse für Technologie entwickelt.

Abbildungen
  1. Titelbild: Eigener Screenshot; EPIC Agency, »Moments of Happines«, URL: https://moments.epic.net/, abgerufen am 2.7.2017.
  2. Ebd.

Die Schaffung veränderbarer Räume im Web

Im Anschluss an meinen Text »Von der No-Layout-Ära zur wiedergewonnenen Fluidität des Webs« möchte ich mich kurz und knapp mit einem Artikel von Ethan Marcotte aus dem Jahr 2010 beschäftigen. Marcotte, Begründer des Terminus »Responsive Web Design«, beschreibt darin seinen Ansatz, Webseiten unabhängiger von ausgewählten Endgeräten zu entwickeln.

Im Anschluss an meinen Text »Von der No-Layout-Ära zur wiedergewonnenen Fluidität des Webs« möchte ich mich kurz und knapp mit einem Artikel von Ethan Marcotte aus dem Jahr 2010 beschäftigen. Marcotte, Begründer des Terminus »Responsive Web Design«, beschreibt darin seinen Ansatz, Webseiten unabhängiger von ausgewählten Endgeräten zu entwickeln. Er verfolgt dabei den Vorschlag mit Media Queries zu arbeiten, auf welche ich an dieser Stelle nicht weiter eingehen möchte. Sie sind zwischenzeitlich zum Standard-Werkzeug responsiver Gestaltung geworden.

Viel reizvoller finde ich seine Verknüpfung zwischen »responsive architecture« und der Gestaltung im Web. Dabei geht es grundsätzlich um die Frage, »wie physische Räume auf die Anwesenheit von Passanten reagieren können«1. Mit Bezug auf das Buch Interactive Architecture von Michael Fox und Miles Kemp, kristallisiert er den feinen Unterschied heraus: Es geht nicht darum unveränderliche Räume zu schaffen, sondern darum, dass sich die Nutzer und die Struktur gegenseitig beeinflussen können.2 Das ist vor allen Dingen wichtig, da das Web ein vergängliches Medium ist. Innerhalb weniger Jahre ändern sich Fensterbreiten, Bildschirmauflösungen, Benutzereinstellungen oder installierte Schriftarten.3 Viel mehr spricht er sich dagegen aus, das Design auf immer mehr unterschiedliche Endgeräte zuschneiden zu wollen. Er ist überzeugt davon, dass wir als Webdesigner »ein optimales Seherlebnis entwerfen und standardbasierte Technologien in unser Design einbetten können, um sie nicht nur flexibler zu machen, sondern auch an die Medien anzupassen, die sie rendern«4. Nur so kann man effektiv mit der Tatsache arbeiten, dass sich die Landschaft an angebotener Betrachtungsmöglichkeiten enorm schnell ändert.5

Wichtig ist Marcotte dabei nicht nur das visuelle Ergebnis, sondern auch die Möglichkeit die Benutzerfreundlichkeit verbessern zu können. So kann beispielsweise Fitts’ Gesetz über Touch-Geräte besser umgesetzt werden.6

Die drei technischen Zutaten für RWD

Als primäre Zutaten zur Umsetzung von responsiven Webdesigns sieht Marcotte flüssige Raster, flexible Bilder und Medienabfragen. Zudem ist eine andere Denkweise in Bezug auf das Medium erforderlich,7 das sich letztendlich sehr stark vom Printdesign unterscheidet und somit sehr viele neue Herausforderungen an den Gestalter herangetragen hat.

Abschließend ist der Ansatz der Media Queries aus heutiger Sicht eine Selbstverständlichkeit. Im Jahr 2010 war die Einführung des »Responsive Web Design« jedoch eine massive Neuerung. Schon zuvor gab es z. B. verschiedene Bildschirmgrößen oder -auflösungen und schon durch das iPhone, das 2007 auf den Markt kam, ist das Bedürfnis gewachsen, flexibler reagieren zu können. Langfristig macht es bei der Masse an Geräten aber natürlich keinen Sinn für jedes separate Versionen zu gestalten. In der Übergangszeit und auch bis heute, sieht man zudem Webseiten, welche komplett abgekoppelt für mobile Endgeräte entwickelt sind und sogar mit einer eigenen Subdomain angesprochen werden. In manchen Fällen macht das sicher nach wie vor Sinn, doch insgesamt sollte im Vordergrund stehen, sich anpassende Seiten zu gestalten, die auch die nächsten Endgeräte überstehen.
In Bezug auf mein Thema finde ich es außerdem sehr spannend, wie sich erneut Technologie, Design und das Bedürfnis der Menschen gegenseitig beeinflussen und Schritt für Schritt in ihrer Evolution voranbringen.

Quellen
  1. Marcotte, Ethan: »Responsive Web Design«, Stand: 25.5.2010, URL: https://alistapart.com/article/responsive-web-design, Absatz 8, abgerufen am 26.6.2017.
  2. Vgl. Ebd., Absatz 9.
  3. Vgl. Ebd., Absatz 2.
  4. Ebd., Absatz 10.
  5. Vgl. Ebd., Absatz 3.
  6. Vgl. Ebd., Absatz 27.
  7. Vgl. Ebd., Absatz 31.

CSS Grid: Der Weg zu einer neuen, visuellen Ästhetik

Eines meiner persönlichen Ziele während des Masters ist, mich in den Bereichen HTML und CSS, bestenfalls auch in JS, weiterzuentwickeln. Zurzeit widme ich der noch etwas neueren Spezifikation CSS Grid. Im März habe ich bereits am Meetup »Grids and Glory« von Sven Wolfermann in den Räumen von sipgate in Düsseldorf teilgenommen. Als weitere Grundlage dient mir das Tutorial »CSS Grid First Look« von Morten Rand-Hendriksen aud lynda.com. Generell bin ich gespannt, wie sich die visuelle Ästhetik des Webs in den nächsten Jahren durch diese neue Spezifikation evolviert.

Eines meiner persönlichen Ziele während des Masters ist, mich in den Bereichen HTML und CSS, bestenfalls auch in JS, weiterzuentwickeln. Zurzeit widme ich mich der noch etwas neueren Spezifikation CSS Grid. Im März habe ich bereits am Meetup »Grids and Glory« von Sven Wolfermann in den Räumen von sipgate in Düsseldorf teilgenommen. Als weitere Grundlage dient mir das Tutorial »CSS Grid First Look« von Morten Rand-Hendriksen auf lynda.com.

Nach der ersten Einarbeitung bin ich begeistert von den Möglichkeiten, die CSS Grid mit sich bringt. Zunächst muss man sich an die neue Terminologie gewöhnen, die das CSS Grid mit ins Spiel bringt. So gibt es neben »grid cells«, eine einzelne Zelle eingeschlossen von vier »grid lines«, sogenannte »grid tracks«, die den Bereich zwischen zwei horizontalen oder vertikalen Linien darstellt. Zusätzlich gibt es »grid areas«, die im Grunde aus mehreren zusammenhängenden Zellen bestehen. Es gibt noch weitere Begriffe, die zum Teil aber schon aus bisherigen Rastern bekannt sind.

Benennung von template areas oder grid lines

Neben einer neuen Terminologie gibt es natürlich neue Selektoren. Doch die Beschreibung der Eigenschaften ist das Wesentliche, was für mich wirklich neu ist. So können beispielsweise template areas oder grid lines, in denen die grid cells eingeschlossen sind, benannt werden. Das führt zum einen dazu, dass mithilfe »unserer Sprache« der Code und die einzelnen Bereiche übersichtlicher dargestellt werden. Zum anderen halte ich es jedoch für sehr wichtig, die Freiheit nicht zu sehr auszukosten. Die Benennung sollte eindeutig sein, so dass auch nachfolgende Entwickler die einzelnen Bereiche eindeutig erkennen können und keine Unklarheiten auftauchen. Da aber zum einen schon immer Klassen bzw. IDs selbst benannt werden konnten und zum anderen bereits standardisierte Begriffe für Webseitenbereiche vorhanden sind, sehe ich das nicht als wirkliches Problem.

Zusätzlich zu der Benennung ist die Einführung der repeat()-Funktion eine fundamentale Änderung. Muster können so durch Wiederholungen erstellt werden.

Die neue Einheit fraction

Die Einführung der Einheit »fraction« (fr) ist eine weitere wichtige Neuerung durch CSS Grid. Neben dem Vorteil, dass die ein oder andere Rechenarbeit entfällt, halte ich es vor allem für spätere Anpassungen für enorm wichtig. Soweit mein erster Eindruck stimmt, kann das Grid dadurch sehr schnell nachträglich geändert und z. B. mit zusätzlichen Spalten erweitert werden. Wenn zunächst nur mit der Einheit fr gearbeitet wird, genügt es weitere frs hinzufügen oder die Spaltenzahl durch weniger frs zu reduzieren. Insofern nicht einzelne Spalten pixelgenau oder in Prozenten angegeben sind, entfällt hier jegliche Rechnerei.
Wenn es für das Layout infrage kommt, kann fr selbst mit Angabe von genauen Maßen genutzt werden, da die Einheit grundsätzlich den übrigen Platz in Anspruch nimmt.

Veränderung der semantischen Ordnung durch CSS

Die wohl mächtigste Veränderung ist die Möglichkeit, die semantische Ordnung einfacher durch CSS verändern zu können. Elemente können zielgenau im Grid positioniert und mobile Seiten intuitiver gestaltet werden. Zudem zeigt Morten Rand-Hendriksen ein Beispiel, indem die semantische Ordnung von wichtig nach unwichtig sortiert ist. Ein Promo-Inhalt wird am Ende des HTML-Dokuments platziert, da er für den Inhalt irrelevant ist. Visuell wird er jedoch an den Anfang der Website gesetzt, um die Anzeige prominent zu bewerben.

Ästhetische Evolution durch neue Spezifikationen

Insgesamt ist es erstaunlich wie flexibel CSS Grid funktioniert und ich halte die Spezifikation für eine der größten Neuerungen der letzten Jahre. Mit der Unterstützung von Codecademy, w3schools und CodePen versuche ich noch spezifische Fragen für mich zu beantworten, jedoch bin ich mir sicher, dass man mit einiger Einarbeitung, sehr viel schneller äußerst flexible Grids erstellen kann. Aus visueller Sicht erhoffe ich mir zunehmend flexiblere Layouts, weg von dem Einheitsbrei der letzten Jahre. Selbst mit Frameworks wie Bootstrap kann man natürlich abweichende Layouts entwickeln, doch landet man viel zu oft an der einheitlichen Aufteilung von 2 bis 4 Spalten in der Desktopansicht, sowie der 12-Spaltigkeit bei mobilen Ansichten. Zwar macht diese Einteilung in vielen Fällen Sinn, jedoch bin ich davon überzeugt, dass sich das visuelle Bild des Webs in den nächsten Jahren deutlich ändern wird. Abschließend bin ich zum einen gespannt, in welche Richtung sich sowohl die Spezifikation des CSS Grids als auch das generelle visuelle Erscheinungsbild in den nächsten Jahren evolviert. Zudem bin ich sehr motiviert durch Tutorials, Lernportalen und ähnlichem weiter in die Materie einzutauchen.

Beispielhaftes Layout mit CSS Grid
Beispielhaftes Layout mit CSS Grid

Von der No-Layout-Ära zur wiedergewonnnen Fluidität des Webs

Vor kurzem bin ich auf den Dokumentarfilm »What Comes Next Is the Future« von Matt Griffin gestoßen. Der Film setzt sich mit der Geschichte des Webs auseinander und wird von den Menschen, die bedeutende Figuren des Webs sind, erzählt. Darunter unter anderem Tim Berners-Lee, Eric Meyer, Ethan Marcotte, Brandon Eich oder John Resig. Mit den aus Interviews gewonnen Antworten, schustert Griffin einen Film, der kapitelweise auf unterschiedliche Themen eingeht.

Auf lynda.com findet man größtenteils Tutorials aus Bereichen wie z. B. Design, Entwicklung, Fotografie oder Web. Vor kurzem bin ich auf den Dokumentarfilm »What Comes Next Is the Future« von Matt Griffin gestoßen. Der Film setzt sich mit der Geschichte des Webs auseinander und wird von den Menschen, die bedeutende Figuren des Webs sind, erzählt. Darunter unter anderem Tim Berners-Lee, Eric Meyer, Ethan Marcotte, Brandon Eich oder John Resig. Mit den aus Interviews gewonnen Antworten, schustert Griffin einen Film, der kapitelweise auf unterschiedliche Themen eingeht.

Bei meiner Recherche stoße ich auf unzählige Timelines über die Entstehung des Webs, auf originale Dokumente oder kleine Zusammenfassungen. Zudem gibt es natürlich tausende Treffer inhaltlicher Natur, die sich auf Teile des technologischen oder visuellen Aspekts konzentrieren. Insgesamt stellt mich meine Suche jedoch noch nicht zufrieden, da es nur wenige ansprechende Auseinandersetzungen mit dem Web als Medium selbst gibt. Das macht den Film von Griffin so interessant für mich. Zum einen, weil die Entwicklung von Menschen erzählt wird, die sie miterlebt und beeinflusst haben. Zum anderen werden zum Teil genau die Aspekte angesprochen, für die ich mich interessiere.

Ein wichtiger Gesichtspunkt, der das Web fundamental ausmacht, wird dabei direkt zu Beginn angesprochen. Das Web wurde letztendlich als offener Informationsraum konzipiert, in dem es für Jeden möglich sein soll, etwas zu publizieren. Das ist für Dave Rupert, Co-Gründer von Paravel, die schönste Sache am Web: Man kann jederzeit Dinge veröffentlichen, die man selbst nützlich findet und Andere können daraus wiederum neues kreieren.1 Brad Frost, welcher Atomic Design entwickelt hatte, liebt den freien Fluss der Ideen, Informationen und Gedanken und betont, dass das vor dem Web unmöglich war.2 Dieser unaufhaltsame, geistige Fluss war auch für John Perry Barlow (Cyberspace als neue Heimat des Geistes ») eine essenzielle Eigenschaft des Webs. Ähnlich wie Barlow sieht Lyza Danger Gardner, Co-Autorin von »Head First Mobile Web«, eine offene Welt. Sie spricht davon, dass das Web keine Wände besitzt und die Kosten, um daran teilzuhaben, eher gering sind.3 Jeffrey Feldmann, unter anderem Autor von »Designing Web Standards«, sieht dagegen die technischen Hürden weiter sinken. Jeder kann zumindest Twitter und Facebook nutzen und hat so die Möglichkeit sich frei zu äußern. Zudem reicht es bei mehr Interesse für einen Tumblr-Blog oder sogar eine WordPress-Seite. Er findet die Tatsache, dass man responsive Webseiten machen kann, ohne überhaupt zu wissen, was die Wörter bedeuten, sehr bemerkenswert und gut.4 Diesen Aspekt finde ich extrem wichtig, da dadurch garantiert wird, dass jeder an dieser Welt teilnehmen kann. Bei solchen Aussagen muss natürlich immer von den vielen Menschen abgesehen werden, welche noch keinen Internetzugang besitzen oder in Ländern leben, wo viele Inhalte gesperrt sind. Die Erschließung des ganzen Planeten wird sicher einer Hauptaufgabe der nächsten Jahre sein.

Chris Wilson, welcher unter anderem an der Entwicklung des ersten Massen-Browsers Mosaic beteiligt war, erinnert sich dagegen noch gut an die Erschließung des Webs in der westlichen Welt. Er spricht davon, dass »wir keine normalen Menschen waren, welche das Web nutzten«5. Zwar gab es das Internet schon vor dem Web, doch es war sehr schwierig, an Informationen zu kommen. Daher bestätigt er Tim Berners-Lee in seiner Idee, dass es wirklich einfach sein muss, Zugang zu erhalten.6 Berners-Lee sieht den Schlüssel zum Web darin, dass es ein virtuelles System geben muss, dass über allen bereits vorhandenen Systemen liegt. Dieses große Hypertext-Buch wird via Internet zugänglich.7

No-Layout-Ära

Zu Beginn des Webs waren die Inhalte eher strukturierte Informationen, als wirklich gestaltete Seiten. Jen Simmons nannte das die No-Layout-Ära und die Darstellung der Inhalte war je nach Browser unterschiedlich.8 Eric Meyer erzählt, dass sich »Seiten gestalten« eher wie ein Witz anhörte.9 Der Designer David Siegel war es schließlich, welcher mit seinem Buch »Creating Killer Web Sites« einen Weg fand, Webseiten mit Tabellen zu gestalten.10 Dass das Buch, das 1996 erschien, im selben Jahr das meistverkaufte Buch bei Amazon war11 spricht Bände. Daran lässt sich erkennen, dass der Wunsch nach Gestaltungsmöglichkeiten riesig war. Ein erster Vorschlag für Cascading Style Sheets (CSS) wurde zwar schon 1993 gemacht, doch erst im Dezember 1996 wurde das CSS Level 1 veröffentlicht.12 Im ersten Moment funktionierten die Tabellen als erstes Grid, doch wie John Allsopp erklärt, gab es das Gefühl, dass es einen besseren Weg geben muss solche Anforderungen zu erfüllen.13 Christopher Schmitt sieht in der Nutzung von CSS eine Goldrausch-Ära. Jeder arbeitete daran durch CSS-Floats bessere Layouts erstellen zu können, so dass man die Gestaltung durch Tabellen endlich hinter sich lassen kann.14 Nichtsdestotrotz waren die Tabellen ein wichtiger Schritt auf dem Weg zur besseren Umsetzung. Eric Meyer sieht viele Dinge im CSS, welche darauf basieren, was Entwickler mit Tabellen-Layouts erstellt hatten.15

Flash als Prototype für CSS und JavaScript-Libraries

Viele Standards im Web basieren auf einer ähnlichen Herangehensweise, wie es mit der Übertragung von Tabellen auf CSS geschehen ist. Bedürfnisse werden experimentell mit vorhandenen Mitteln »irgendwie passend gemacht« bis aus ihnen langfristig neue Standards heranwachsen. Weitestgehend könnte man dabei von Prototypen sprechen, welche später in verbesserte, weniger komplexe Standards übertragen werden. Eine Aussage von Kelly Goto hat mich in Bezug auf Adobe Flash überrascht, selbst wenn sie absolut einleuchtend ist. Aus ihrer Sicht war die Arbeit mit Flash ein stückweit wie Prototyping. Flash gab vielen die Möglichkeit visuell für das Web zu denken. Als Werkzeug hat Flash den Prozess ermöglicht, dass kreative Personen Ideen ausdrücken konnten.16 Laut Aaron Gustafson gab Flash zudem die Möglichkeit mehr Kontrolle über die Gestaltung zu erhalten als mit CSS. Elemente konnten animiert und vereinnahmende Nutzererlebnisse geschaffen werden.17 Val Head sieht Flash auch als gute Chance herauszufinden, was das Web benötigt. Bei der Entwicklung einer neuen JavaScript-Library startete man somit zumindest nicht bei null.18
Eric Meyer sieht dagegen in Flash das komplette Gegenteil zum grundsätzlichen Aufbau des Webs. Der Ursprungsgedanke des Webs ist, dass die weite Verbreitung über der Konsistenz steht. Flash zu nutzen bedeutet jedoch, dass man alles oder nichts haben kann: Entweder man installiert Flash und hat ein konsistentes Nutzererlebnis oder man sieht im Gegenzug nichts.19

Letztendlich wurde die Ära Flash mit dem Erscheinen des iPhones 2007 eingeläutet. Das iPhone unterstützte kein Flash und Apple war überzeugt davon, dass alle Aufgaben mit HTML5 zu lösen sind. Das war ein entscheidender Einschnitt, da die Darstellung von Inhalten nun komplett zurück in die Hände der Browser bzw. des Codes gelegt wurde. Dieser Schritt vorwärts war gleichzeitig ein positiver Schritt rückwärts Richtung Web, das offen und zugänglich sein sollte.

Die Fluidität des Webs annehmen

Während das World Wide Web ursprünglich visuell sehr überschaubar war, wurde die Gestaltung zunehmend komplexer. Der Wunsch von Gestaltern mehr und mehr Einfluss auf die tatsächliche Darstellung zu nehmen wuchs und wirkte sich auch auf die Umsetzung aus. Tabellen und Frames wurden als Layout-Elemente verwendet, die Layouts selbst wurden immer statischer.

Ein entscheidender Beitrag von CSS ist der, dass Inhalt und Gestaltung getrennt werden. Dadurch kann der Fokus beim HTML-Dokument ausschließlich auf die inhaltliche Struktur gelegt werden. Mit CSS Zen Garden entstand im Mai 2003 ein Projekt, das das Ziel hatte zu zeigen, was alles einzig mit CSS möglich war. Das HTML-Dokument blieb dabei immer gleich und zugehöriges CSS konnte eingeschickt werden. Lyza Danger Gardner spricht von einem Art ersten universellen Gefühl dafür, was diese Trennung tatsächlich bedeuten kann.20 Kelly Goto bezeichnet das sogar als großen Moment, der alles im Web änderte und das Kreativitätslevel auf eine völlig neue Ebene anhob.21

Obwohl Tantek Çelik erklärt, dass CSS vorwärts-kompatibel für verschiedene Bildschirmgrößen angelegt war und Seiten somit auf verschiedenen Bildschirmen funktionierten,22 wurde diese Kompatibilität aus meiner Sicht durch fix angelegte Layouts zerstört. Nichts sollte dem Zufall überlassen werden und alles perfekt aussehen.
Mit dem Erscheinen des iPhones wurde das Web aus Kevin M. Hoffmans Sicht stark vermenschlicht. Es war immer dabei und man hatte nicht mehr das Gefühl online gehen zu müssen. Diesen Punkt empfand Tim Berners-Lee schon zu Beginn als sehr störend (Struktureller Aufbau des Webs und die Koexistenz von Mensch und Maschine »). Gleichzeitig wuchs das Bedürfnis nach mobiler Gestaltung deutlich und krempelte alles um. Während Jonathan Snook noch davon spricht, dass es ok war, dass man sich nur um zwei Auflösungen (1024 x 768 px und 320 x 240 px) kümmern musste,23 empfand es John Allsopp langfristig als eher unüberschaubare Aufgabe. Er fragt sich, wie weit es gehen soll und wann wir damit aufhören für jedes Endgerät einzelne Versionen zu entwickeln.24
Einen fundamentalen Fortschritt erreicht Ethan Marcotte, der 2010 den Begriff Responsive Design prägte. Ihm war die Wichtigkeit von flexiblen oder fluiden Layouts bewusst. Zudem musste der mediale Inhalt innerhalb dieser Layouts funktionieren. Mit den Mediaqueries aus CSS3 erreicht er, dass alles in allem responsiv funktioniert und ebnet damit den Weg für eine neue Dimension der Webgestaltung.
Auch Macrotte betont die Tatsache, dass das Web als flexibles Medium angelegt wurde und Designer und Entwickler das Extra an Komplexität in das Medium brachten. Er sieht es als wirklich flexibles, komplett anpassbares Medium, für das wir auch so gestalten sollten.25 Aus seiner Sicht, funktioniert die Industrie umso besser, je weniger wir versuchen die Darstellung zu kontrollieren.26 Jonathan Snook fügt hinzu, dass wir das Web umso einfacher verwalten können, wenn wir die Fluidität des Webs annehmen.27

Zugänglichkeit von Informationen

Die Entwicklung von Apps habe ich bisher – abgesehen vom Aufwand für die Bereitstellung auf verschiedenen Plattformen – als eher unproblematisch angesehen.
Durch Apps wird jedoch die Zugänglichkeit von Informationen stark eingeschränkt. Aus Sicht von Tim Berners-Lee treten die Leute damit in die Falle, dass sie denken eine App ist interaktiv und schneller. Doch bei Apps für beispielsweise Magazine ist es unheimlich wichtig, dass die Beiträge nicht ausschließlich in einem Programm landen, sondern offen im Web zugänglich sind. Ein essenzieller Bestandteil des Webs ist der, dass man Inhalte miteinander verknüpft. Einen Magazinbeitrag in einer App kann man dagegen ohne URL nicht einfach verlinken oder teilen.28
Çelik sieht zudem das Problem, dass jedes Programm evaluiert wird, bevor es – teilweise Tage später – zum Download bereitsteht. Man solle sich vorstellen, wenn man bei jeder Änderung einer Webseite tagelang warten muss, bis die Änderung akzeptiert wird. Den gleichen Standpunkt vertritt Lyza Danger Gardener. Nämlich das genau das das Web ausmacht: Wenn man etwas publizieren möchte, publiziert man das – ohne Autorisierung oder Bewertung des veröffentlichten Inhalts.29 Das würde nämlich wieder die Frage aufgreifen, wer dazu überhaupt legitimiert wäre, über die Veröffentlichung von Inhalten zu entscheiden (Verformung der Gesellschaft »).

Die Einzigartigkeit der Unbeschränktheit

Dass man etwas ohne »Pförtner« publizieren kann empfindet auch Alex Russell als sehr elementar. Ob es letztendlich jemanden interessiert oder nicht, ist erstmal irrelevant. Keine Möglichkeit zu haben sich zu äußern, wäre dagegen viel schlimmer. In dieser Unbeschränktheit sieht er die Einzigartigkeit des Webs. Er sieht das Web als das demokratischste System unserer Generation.30

Tim Berners-Lee spricht davon, dass es unser Web ist und fordert uns auf, dass wir alles dafür tun müssen, dass das Web weiterhin offen bleibt. Denn das ist nach wie vor keine Selbstverständlichkeit.31

Resümee

»What Comes Next Is the Future« von Matt Griffin ist aus meiner Sicht ein großartiger Zusammenschnitt der Web-Stimmen der letzten drei Jahrzehnte. Erst während des Films ist mir aufgefallen, was für ein Privileg es ist, dass noch so viele »originale« Stimmen zu hören sind. Das Web ist so selbstverständlich in unserem Alltag verankert, dass es nicht mehr wegzudenken ist. Gleichermaßen ist es noch so jung, dass Griffin den Begründer des Webs selbst, Tim Berners-Lee, interviewen konnte. Mit Brandon Eich als Entwickler von JavaScript oder Chris Wilson als Mitentwickler des Browsers Mosaic werden weitere Menschen gezeigt, welche das World Wide Web richtungsweisend beeinflusst haben. Das Schöne daran ist, dass der Film klar macht, dass wir nach wie vor in einer enormen Entwicklungsphase sind. Vor wenigen Jahren war der Ausdruck Responsive Webdesign noch nicht bekannt, erst seit kürzerer Zeit gibt es das CSS Grid, welches die Gestaltung weiter vereinfachen soll. Das Web entwickelt sich weiter und weiter und diese Evolution mitzuverfolgen ist großartig, da man nicht weiß, was der nächste Schritt sein wird. Wie viel wird sich noch einmal fundamental ändern? Wird es das Web in seiner Form weiter geben? In welche Richtung könnte es sich verändern?

Da ich die Auseinandersetzung mit der Vergangenheit sehr wichtig finde, um die jetzige Situation in ein Gesamtbild zu bringen und weitere Veränderungen abzusehen, möchte ich weiter in diese Richtung recherchieren. Unter anderem möchte ich mich mit dem Begriff »The next Web« auseinandersetzen. Zudem bin ich durch den Film auf Ethan Marcotte aufmerksam geworden dessen Aussagen mir in vielerlei Hinsicht zusagen. Auch mit ihm möchte ich mich weiter beschäftigen.

Nachtrag

Glücklicherweise habe ich das Video nachträglich öffentlich zugänglich bei Vimeo gefunden: What Comes Next Is The Future (2016) ».

Quellen
  1. Vgl. Griffin, Matt: »What Comes Next Is the Future«, »Why the Web«, USA 2016, URL: https://www.lynda.com/Web-Development-tutorials/What-Comes-Next-Future-Creating-Web/647684-2.html, TC: 00:01:03–00:01:24, abgerufen am 16.6.2017.
  2. Vgl. Ebd., TC: 00:01:57–00:02:12.
  3. Vgl. Ebd., TC: 00:01:44–00:01:57.
  4. Vgl. Ebd., TC: 00:02:12–00:02:42.
  5. Ebd., TC: 00:00:00–00:00:34, »The web arrives«.
  6. Vgl. Ebd.
  7. Vgl. Ebd., TC: 00:00:38–00:01:27.
  8. Vgl. Ebd., TC: 00:00:00–00:00:16, »Killer websites«.
  9. Vgl. Ebd., TC: 00:02:40–00:02:45.
  10. Vgl. Ebd., TC: 00:00:38–00:01:03.
  11. Vgl. Ebd., TC: 00:01:35–00:01:46.
  12. Vgl. »Cascading Style Sheets« in: »Wikipedia, the free encyclopedia«, Stand: 8.5.2017, URL: https://de.wikipedia.org/wiki/Cascading_Style_Sheets, abgerufen am 16. Juni 2017.
  13. Vgl. Griffin, Matt: »What Comes Next Is the Future«, »Cascading styles«, URL: https://www.lynda.com/Web-Development-tutorials/What-Comes-Next-Future-Creating-Web/647684-2.html, TC: 00:00:00–00:00:15, abgerufen am 16.6.2017.
  14. Vgl. Ebd., TC: 00:00:26–00:00:48.
  15. Vgl. Ebd., TC: 00:01:27–00:01:44.
  16. Vgl. Ebd., TC: 00:01:03–00:01:23, »There can be only one Flash«.
  17. Vgl. Ebd., TC: 00:00:10–00:00:21.
  18. Vgl. Ebd., TC: 00:03:15–00:03:48, »JavaScript spreads«.
  19. Vgl. Ebd., TC: 00:02:08–00:02:45, »There can be only one Flash«.
  20. Vgl. Ebd., TC: 00:02:43–00:02:53, »Web standards«.
  21. Vgl. Ebd., TC: 00:03:19–00:03:39.
  22. Vgl. Ebd., TC: 00:04:39–00:05:00.
  23. Vgl. Ebd., TC: 00:01:28–00:01:52, »Many devices, one approach«.
  24. Vgl. Ebd., TC: 00:02:40–00:02:57.
  25. Vgl. Ebd., TC: 00:00:00–00:00:33, »Flexible by default«.
  26. Vgl. Ebd., TC: 00:01:23–00:02:10.
  27. Vgl. Ebd., TC: 00:01:01–00:01:22.
  28. Vgl. Ebd., TC: 00:00:53–00:01:08 und TC: 00:02:45–00:03:20, »Connecting and distributing«.
  29. Vgl. Ebd., TC: 00:04:35–00:05:02.
  30. Vgl. Ebd., TC: 00:02:44–00:03:23, »The next web«.
  31. Vgl. Ebd., TC: 00:00:02–00:00:13, »Growing standards«.

Herausforderungen der Zivilgesellschaft

Der Artikel »Five things we’ve learned about the future of digital rights« präsentiert fünf zentrale Thesen, die sich in einer Diskussion von führenden Experten des »Stockholmer Internet Forums« herauskristallisiert hatten. In der Gesprächsrunde ging es darum wie sich die Zivilgesellschaft den Herausforderungen stellen kann, welche neue Technologien mit sich bringen. Dabei waren Themen wie Cybersicherheit, Kontrolle personenbezogener Daten oder algorithmischen Transparenz im Vordergrund.

Der Artikel »Five things we’ve learned about the future of digital rights« präsentiert fünf zentrale Thesen, die sich in einer Diskussion von führenden Experten des »Stockholmer Internet Forums« herauskristallisiert hatten. In der Gesprächsrunde ging es darum, wie sich die Zivilgesellschaft den Herausforderungen stellen kann, welche neue Technologien mit sich bringen. Dabei waren Themen wie Cybersicherheit, Kontrolle personenbezogener Daten oder algorithmische Transparenz im Vordergrund.1

Als erste These wird aufgeführt, dass Regierungen das Internet bedrohen, sobald es vom Internet bedroht wird. Gbénga Sèsan klärt auf, dass in Ländern teilweise das komplette Internet durch die Regierung abgeschaltet wird, um unrechtmäßig Kontrolle auszuüben. Häufig werden Hassreden oder Fehlinformationen als Ausrede vorgeschoben.2 Die Kontrolle einzelner, vor allem durch die Regierung oder Unternehmen, widerspricht dabei grundsätzlich der Vision des Erfinders des Internets.

Lisa Garcia führt die zweite These an, welche sich damit auseinandersetzt, dass sich Regierungen gezielt in Online-Diskussionen einklinken und versuchen sie zu steuern. Während des Wahlkampfs auf den Philippinen gab es sogar eine »Armee von Tastaturkriegern«, welche offiziell viele Botschaften verbreitet und Kritiker und Journalisten belästigt hat. Sie hält daher Medienkompetenz, vor allem für Leute, die zum ersten Mal online sind, für extrem wichtig.3

Die dritte These betrifft vor allen Dingen das Internet der Dinge. Wenn alles mit allem verbunden ist, werden komplexe ethische Fragen aufgeworfen. So muss es Lösungen geben, wer Zugang zu den Daten hat, wofür sie verwendet werden und wie sich die Entscheidung auf das Leben auswirkt.
Solana Larsen stimmt bedenklich, da zu große Komplexität lähmen kann. Daher ist es extrem wichtig, dass Experten die Menschen aufklären, damit sie zum einen das digitale Leben verstehen und zum anderen die Kontrolle übernehmen können.4

Malaviya Jayaram warnt davor, dass Länder mit niedrigen Einkommen zu Testgebieten werden. Westliche Praktiken werden dabei ohne die nötigen Schutzmechanismen übernommen. So war beispielsweise in Indien das Problem, dass Fingerabdrücke von landwirtschaftlichen Arbeiten aufgrund der Abnutzung der Finger nicht gelesen werden konnte und damit der Zugang zu wichtigen Dienstleistungen verhindert wurde.5

Die letzte These bringt Renato Rocha Souza hervor. Er setzt sich dafür ein, dass Algorithmen transparent sein müssen. Menschliche Entscheidungen, ob beispielsweise ein Darlehen vergeben wird oder wer zu Universität zugelassen wird, werden zunehmend von Algorithmen übernommen und dadurch massiv von den Vorurteilen der Entwickler sowie den nötigen Daten bestimmt. Das Problem ist dabei, dass man als Konsument kein Wissen darüber besitzt, was in den Berechnungen vorgeht. Damit könnte man die Technologie ablehnen oder ihr blind vertrauen.6

Die Thesen eröffnen mir den Weg für neue Gedanken. Es ist absurd, dass viele Länder noch immer keinen Zugang zum Web besitzen, während es für uns schon lange die größte Selbstverständlichkeit ist. Da ich davon überzeugt bin, dass unsere Entwicklung dadurch um ein vielfaches rascher vorangeht, klaffen die Welten dadurch noch weiter auseinander. Eine weitere Schwierigkeit sehe ich, ähnlich wie Garcia, in der fehlenden Medienkompetenz. Selbst der westlichen Welt fehlt hier sicher noch einiges an Kompetenz, doch konnte sie sich immerhin – parallel zur Erfindung des Webs – langsam an das neue Medium gewöhnen. Und trotz der anfänglichen Euphorie war die neue Welt im Web glücklicherweise überschaubarer und mit weniger Gefahren ausgestattet. Jemand, der nun zum ersten Mal online ist, wird sicher seine Probleme haben und zunächst sehr unkritisch mit dem Medium umgehen. Die Arbeit der World Wide Web Foundation beeindruckt mich daher sehr und ich hoffe, dass sie einiges damit bewegen kann.

Quellen
  1. Vgl. Garcia, Lisa; Jayaram, Malavika; Larsen, Solana; Sèsan, Gbénga; Rocha Souza, Renato, World Wide Web Foundation: »Five things we’ve learned about the future of digital rights«, URL: https://webfoundation.org/2017/05/5-things-weve-learned-about-the-future-of-digital-rights/, abgerufen am 14.6.2017.
  2. Vgl. Ebd., Absatz 3.
  3. Vgl. Ebd., Absatz 4.
  4. Vgl. Ebd., Absatz 5.
  5. Vgl. Ebd., Absatz 6.
  6. Vgl. Ebd., Absatz 7.

»Bear 71« – Interaktive Webdokumentation

Vor kurzem bin ich auf die interaktive Webdokumentation »Bear 71« von Leanne Allison und Jeremy Mendes aufmerksam geworden, welche vom »National Film Board of Canada« (NFB) mitgestaltet und -produziert wurde. Trotz dem ein oder anderen negativen Aspekt, halte ich sie für sehr gelungen.

Vor kurzem bin ich auf die interaktive Webdokumentation »Bear 71« von Leanne Allison und Jeremy Mendes aufmerksam geworden, welche vom »National Film Board of Canada« (NFB) mitgestaltet und -produziert wurde. Auch »Fort McMoney« wurde vom NFB koproduziert, welches grundsätzlich solche Formate unterstützt. Die Dokumentation ist aus dem Jahr 2012, im März 2017 wurde die VR-Version veröffentlicht.

Bear 71 | Leanne Allison Jeremy Mendes
Bear 71 – Interaktive Webdokumentation von Leanne Allison und Jeremy MendesII

Die Erzählung

Die Basis von Bear 71 bildet eine 360°-Karte, die ein Stück Wildnis im Banff Nationalpark in der kanadischen Provinz Alberta abbildet. Auf ihr sieht man beispielsweise die Orte, wo Kameras installiert sind oder wie sich einzelne, markierte und getrackte Tiere durch die Landschaft bewegen. Die Markierungen sind klickbar und man erhält dadurch weitere Informationen über einzelne Tiere oder Videoeinspieler der installierten Kameras.

Bear 71 | Leanne Allison Jeremy Mendes
Bear 71 – ÜbersichtskarteIII
Bear 71 | Leanne Allison Jeremy Mendes
Detailansicht eines angeklickten TieresIV

Direkt zu Beginn – noch bevor man auf die Karte gelangt – wird ein Video eingespielt, das zeigt wie ein Grizzlybär betäubt und markiert wird und eine Nummer erhält: Nummer 71. Dargestellt durch eine weibliche Stimme, erzählt Bär Nummer 71 von hier an aus der Ich-Perspektive. In elf Erzählabschnitten berichtet der Bär aus dem Leben in der Wildnis, dem Zusammenleben mit dem Menschen und welche Gefahren die Zivilisation für die Wildnis mit sich bringt. Als beliebter Ferienort bleibt der Banff Nationalpark nicht frei von Müll, so dass Grizzlies beispielsweise Marshmallows zum Essen finden. Auch Straßen, die von Trucks befahren werden, sind eine große Gefahr für die Bären sowie alle anderen Tiere, die im Park leben. Ein etwas paradoxer Videoeinspieler einer installierten Kamera bringt dieses Zusammenspiel auf den Punkt: Ein Grizzlybär nähert sich der Kamera, während eine andere Szene – an der exakt gleichen Stelle – Touristen zeigt, die sich mit aufblasbaren Gummitieren und Badekleidung auf den Weg in den Park machen.
Bär Nummer 71 klagt darüber, dass sie den Menschen nichts tun würden und berichtet von einem wunderschönen Tag, an dem dieser mit einem anderen Bären nur Beeren aß. Fälschlicherweise wird oder wurde die Unterart des Braunbärs tatsächlich als tödliche Gefahr angesehen. Obwohl es zu tödlichen Unfällen mit z. B. verletzten Tieren oder welchen mit Jungtieren kommt, entfernen sie sich grundsätzlich vom Menschen.

Bear 71 | Leanne Allison Jeremy Mendes
Ein Grizzlybär unter einer BrückeV
Bear 71 | Leanne Allison Jeremy Mendes
Touristen an der exakt gleichen StelleVI

Der Sound

Der Sound, der durchgängig unterlegt ist, erinnert mich offen gesagt an die Hintergrundmusik aus Konsolenspielen der 90er Jahre. Er klingt nur sehr viel dumpfer, langsamer und dramatischer. Mir ist jedoch unklar, ob er zufällig so ausgewählt wurde oder bewusst an ein Spiel erinnern soll. Ein Spiel, in dem der Mensch die Oberhand behält und mit den Tieren spielt – sie markiert, exakt trackt, verfolgt, kontrolliert und grundsätzlich jederzeit seine Macht ausnutzen kann.

Resümee

Insgesamt halte ich die Dokumentation für sehr gelungen. Ich finde es großartig, dass die Situation aus der Ich-Perspektive erzählt wird und der Bär somit eine menschliche Persönlichkeit erhält. Zudem gefällt mir die interaktive Komponente, die es mir erlaubt die Information auf der Karte zu erkunden sowie die Erzählabschnitte, welche aus meiner Sicht nicht in der aufgelisteten Reihenfolge gehört werden müssen. Die Abschnitte sind in sich geschlossen, so dass man jederzeit »querhören« kann. In Bezug darauf ist mir jedoch die Navigation nicht ganz klar. Manchmal starten Abschnitte während ich auf Tiere in der Karte klicke, so dass ich zunächst den Eindruck hatte, dass hier zusätzliche, kleine Geschichten erzählt werden. Anschließend war ich mir nicht sicher, ob es nicht doch Teil der großen Erzählung war und erst recht nicht, was ich nun gehört hatte oder nicht. Neben diesem Punkt hat mich die VR-Komponente nicht ganz überzeugt. Mit der Google Cardboard kann ich mich zwar ringsum auf der Karte umschauen, hätte mir aber gewünscht, dass beispielsweise auch 360°-Videos gezeigt werden. Aktuell ist eher eine Art Leinwand innerhalb der virtuellen Realität zu sehen, auf der das Video gezeigt wird. Mir ist jedoch bewusst, dass die Dokumentation eine Neuauflage einer bereits 2012 veröffentlichten Version ist und die Technik damals noch nicht so zugänglich war wie heute. Die zwei negativen Aspekte ändern für mich aber nicht den insgesamt sehr guten Eindruck, sondern wären lediglich Verbesserungsvorschläge, um die Erzählung noch attraktiver zu machen.

Abbildungen
  1. Titelbild: Eigener Screenshot; Allison Leanne; Jeremy Mendes, National Film Board of Canada, »Bear 71«, URL: https://bear71vr.nfb.ca, abgerufen am 27.5.2017.
  2. Eigener Screenshot; Allison Leanne; Jeremy Mendes; National Film Board of Canada, »Bear 71«, URL: https://bear71vr.nfb.ca, abgerufen am 27.5.2017.
  3. Ebd.
  4. Ebd.
  5. Ebd.
  6. Ebd.

UX und UI – Konzentrischer Kreis

Die niederländlische UX-Agentur »Bankai« stellt in einem Medium-Artikel vom 17.3.2017 ein komprimiertes Poster vor, das sämtliche Themen mit UX-/UI-Bezug sowie UX-/UI-Elemente in konzentrischen Kreisen zeigt.

Die niederländlische UX-Agentur »Bankai« stellt in einem Medium-Artikel vom 17.3.2017 ein komprimiertes Poster vor, das sämtliche Themen mit UX-/UI-Bezug sowie UX-/UI-Elemente in konzentrischen Kreisen zeigt. Die Elemente werden dabei zunächst in 15 Gruppen eingeteilt: Action Buttons, Input Device, In/ Output Device, Output Device, User Controls, Visual Design, Kollaboration, Sketchen, User Satisfaction, Sitemapping, User Testing, Data analytics, Prototypen, Content und Tools. Vom Zentrum aus werden die Bereiche in noch detailliertere aufgeteilt bis man letztendlich bei den Elementen oder Inhalten landet.

Das Poster dient mir als sehr gute Grundlage für meine Recherche sowie meine praktische Umsetzung. Während manches wie z. B. Data analytics für mein Thema sehr wahrscheinlich nicht von Belang ist, sind andere Bereiche wie Action Buttons, Visual Design oder Content sehr interessant. Insgesamt gefällt mir die Visualisierung sehr gut, da die Fülle der Bereiche User Experience und User Interface deutlich gezeigt wird. Vor allem aber fokussiert sich die Übersicht nicht nur darauf, was am Ende für ein gutes Nutzererlebnis vorausgesetzt wird, sondern zeigt Elemente und Tools, die für den kompletten Prozess wichtig sind.

Abbildungen
  1. Titelbild: Eigener Ausschnitt aus dem frei verfügbaren Poster; bankai: »UX and UI – concentric circle«, URL: Download UX and UI concentric circle, abgerufen am 20.5.2017.

Das Fundament des Webs

Die World Wide Web Foundation fasst die grundsätzlichen Ideen des Webs sehr präzise zusammen, weshalb ich erneut grob auf sie eingehen möchte. Die Ideen und deren Umsetzung sollen ermöglichen, dass das Web weiter ein offener Informationsraum für alle bleibt.

Bei meiner Nachforschung bezüglich der Geschichte des Webs, finde ich – das liegt in der Natur der Sache – natürlich Dopplungen zu den Inhalten mit denen ich mich bereits beschäftigt habe, wie z. B. in dem Beitrag »Vision eines Visionärs«.

Die World Wide Web Foundation fasst die grundsätzlichen Ideen des Webs sehr präzise zusammen,1 weshalb ich darauf erneut eingehen möchte.

Grundsätzliche Ideen des Webs

Dezentralisierung

Wichtig ist, dass es keine Erlaubnis benötigt, etwas im Web zu publizieren. Das bedeutet gleichermaßen, dass man auch frei von willkürlicher Zensur und Überwachung sein muss.

Nichtdiskriminierung

Jeder sollte unabhängig von finanziellen Möglichkeiten in der Lage sein am Web teilzuhaben. Dieses Prinzip der Gleichheit ist als Netzneutralität bekannt und die Beibehaltung dieser ist zur Zeit ein großes Thema in den Medien.

Bottom-Up-Design

Das Web wird gemeinsam gebaut und nicht von einer kleinen Gruppe kontrolliert. Jeder kann teilnehmen und experimentieren, um das Web weiter voranzubringen.

Universalität

Jeder sollte in der Lage sein, etwas im Web zu äußern. Das sollte unabhängig von der Hardware, dem Wohnort, der Kultur oder politischen Neigungen möglich sein.

Konsens

Um Universalität zu erreichen, muss ein gemeinsamer Konsens gefunden wird. Jeder kann durch einen transparenten, partizipativen Prozess beim W3C das Web mitgehalten.

Diese Ideen sind sinngemäß von der World Wide Web Foundation übernommen. Die Ideen und deren Umsetzung sollen ermöglichen, dass das Web weiter ein offener Informationsraum für alle bleibt. Dass das Web von niemandem kontrolliert wird und jeder ein Teil davon sein kann, sind enorm wichtige Voraussetzungen, um das Web in seiner offenen Form beibehalten zu können.

Quellen
  1. Vgl. World Wide Web Foundation: »History of the Web«, URL: https://webfoundation.org/about/vision/history-of-the-web/, abgerufen am 3.5.2017.

Meinungsfreiheit, Algorithmen und Fake News

Anlässlich zum 28. Jahrestag des World Wide Webs erscheint ein Brief von Tim Berners-Lee auf der Webseite der Web Foundation mit dem ich mich kurz auseinandergesetzt habe. In den vergangenen 12 Monaten beobachtet er drei kritische Trends, welche es anzupacken gilt, damit sich Web als Werkzeug für die gesamte Menschheit entfalten kann.

Neben dem Verlust über die Kontrolle unserer Daten, sieht er die Möglichkeit falsche Informationen im Netz zu verbreiten und die Undurchschaubarkeit und das Unverständnis über politische Werbung im Web als kritische Punkte.

Anlässlich des 28. Jahrestags des World Wide Webs erscheint ein Brief von Tim Berners-Lee auf der Webseite der World Wide Web Foundation, mit dem ich mich kurz auseinandergesetzt habe.

Seine ursprüngliche Vorstellung, dass das World Wide Web eine offene Plattform ist, die es jedem ermöglicht von überall Informationen auszutauschen oder über geografische und kulturelle Grenzen hinweg zusammenzuarbeiten, hat sich seiner Auffassung nach in vielerlei Hinsicht verwirklicht. In den vergangenen 12 Monaten beobachtet er jedoch drei kritische Trends, welche es anzupacken gilt, damit sich das Web als Werkzeug für die gesamte Menschheit entfalten kann.1

Neben dem Verlust über die Kontrolle unserer Daten, sieht er die Möglichkeit falsche Informationen im Netz zu verbreiten und die Undurchschaubarkeit und das Unverständnis über politische Werbung im Web als kritische Punkte.

Die Herausgabe unserer Daten gegen kostenlosen Content ist bereits ein viel diskutiertes Thema. Der Begründer des Webs sieht die Problematik zum einen darin, dass die Daten in Nirgendwo verschwinden und für uns unsichtbar sind. Zum anderen hätten wir Vorteile, wenn wir selbst darüber entscheiden könnten, wann und mit wem sie geteilt werden.2
Als weiteren Kritikpunkt sieht er, dass Regierungen Unternehmen nötigen, um jeden unserer Schritte verfolgen zu können und entwickeln Gesetze, die unser Recht auf Privatsphäre verletzen.3
In meinem Beitrag »Cyberspace als neue Heimat des Geistes« bezweifele ich bereits John Perry Barlows Vorstellung, dass wir unsere Meinung frei äußern können ohne in Schweigen oder Konformität gezwungen zu werden. In einigen Ländern ist die freie Meinungsäußerung nach wie vor sehr gefährlich und selbst in einem vermeintlich liberalen Land wie Deutschland gibt es gehäuft Diskussionen über Meinungsfreiheit und Zensur im Netz. Die nicht vorhandene Konformität sehe ich vor allem durch den entstehenden gesellschaftlichen Druck, wenn Inhalte weit gestreut werden können.
Berners-Lee empfindet vor allem die Tatsache, dass Bürger beobachtet werden als sehr abschreckend auf die freie Meinungsäußerung. Das verhindert, dass das Internet als freier Raum genutzt wird, um wichtige sensible Gesundheitsprobleme, Sexualität oder Religion zu erkunden.4 Dass das World Wide Web nicht frei als Informationsquelle genutzt werden kann bzw. nur mit der Sorge im Hinterkopf, dass jeder Schritt gespeichert wird, verletzt den Ursprungsgedanken des Webs, welches als freier Informationsraum konzipiert wurde.

Der zweite Punkt, den Tim Berners-Lee anspricht, steht aus meiner Sicht dem dritten Punkt sehr nah.
Basierend auf immer besseren Algorithmen werden uns auf Social-Media-Seiten und Suchmaschinen Seiten angezeigt, die uns höchstwahrscheinlich gefallen werden. Pro Klick verdienen die Unternehmen Geld und generell können sich dadurch auch Fake News wie ein Lauffeuer verbreiten. Durch den Einsatz von Data Science oder Bots kann dieses System perfektioniert und mit schlechten Absichten ausgenutzt werden.5
Während ich Nachrichten im Social Media außen vor lasse, möchte ich auf die Schwierigkeit eingehen, welche sich aus meiner Sicht bei Suchmaschinen ergibt. Unabhängig davon welche Suchmaschine man nutzt – primär wird Google wohl die Maschine der Wahl sein –, steckt ein gewinnorientiertes Unternehmen dahinter. Dass die Alphabet Inc. mit ihren Angeboten Geld verdienen möchte, sehe ich generell als nicht allzu problematisch an und daher kann man die Schaltung von Anzeigen bei Google oder die Bevorzugung einzelner Webseiten nicht ankreiden. Nichtsdestotrotz sehe ich das Unternehmen nicht nur in Bezug auf die Speicherung von Daten als kritisch an. Auch die Ausbreitung ihrer Angebote in sämtliche Lebensbereiche finde ich bedenklich, da dadurch sehr viele verschiedene Daten an einer Stelle gespeichert werden und ein ganzheitliches Bild der Menschen abzeichnet. Doch das Hauptproblem liegt nicht darin, dass Alphabet Geld verdienen möchte und das mit einer stetigen Verbesserung ihrer Algorithmen und Angebote auch schafft. Das Problem liegt meiner Ansicht nach in der aktuellen Alternativlosigkeit. Keine Karte zeigt besser den Stau und Alternativrouten an, als Google Maps und wer bietet umsonst eine Suchmaschine an, die bestrebt ist immer bessere Ergebnisse zu liefern? Welche Alternative gäbe es, alle Webinhalte in einer Suchmaschine zu durchforsten, ohne dass irgendjemand am Ende der Leitung Profit daraus schlägt? Sei es finanzieller Natur oder ein staatliches Interesse. Ich spreche mich nicht dafür aus, dass das Alphabet-Universum weiter wachsen soll, indem man sich zurücklehnt und das Ganze akzeptiert. Sämtliche Versuche meinerseits andere Suchmaschinen, Karten oder Kalender zu nutzen scheiterten jedoch mangels guter Alternativen.

Der letzte kritische Trend, den Berners-Lee in seinem Brief aufgreift, setzt sich mit der politischen Werbung im World Wide Web auseinander. Allein bei den US-Wahlen 2016 sind 50.000 verschiedene Anzeigen auf Facebook aufgetaucht. Berners-Lee nennt den Fakt, dass die meisten Menschen Informationen von nur wenigen Plattformen nutzen und die politischen Kampagnen auf Grundlage der persönlichen Daten individualisiert werden können. Neben tatsächlicher Information können auch Fake News so einfach verbreitet werden, dass unterschiedliche Personen jeweils unterschiedliche Aussagen vorfinden.6
Die Verbreitung von Fake News war rundum die US-Wahl ein brisantes Thema und Trump selbst nennt bis dahin als seriös geltende Medienunternehmen Fake Media. Meinem Empfinden nach nutzen Amerikaner soziale Netzwerke noch exzessiver als wir es in Deutschland tun, was die Netzwerke für das Verbreiten von Fake News absolut beliebt macht. Und wenn man den ganzen Tag von Fake News liest, wer weiß schon, was am Schluss wirklich Fake News sind? Wenn ich von zehn unterschiedlichen – bis dahin unbekannten – Nachrichtenunternehmen jeweils dieselbe Nachricht angezeigt bekomme: Glaube ich es irgendwann oder bin ich tatsächlich resistent? Was erstmal wie ein schlechter Witz klingt, kann aus der Ferne aber leider nicht wirklich nachvollzogen oder bewertet werden.

Tim Berners-Lee sieht die Probleme als sehr komplex an und weiß, dass die Lösung nicht einfach sein wird. Erste Ansätze sieht er darin mit den Web-Unternehmen zusammenzuarbeiten, damit ein faires Maß an Datenkontrolle entstehen kann. Zudem sieht er den Kampf gegen die Überwachungsgesetze der Regierung als sehr wichtig. Weiter muss gegen Fehlinformationen vorgegangen werden, in dem »Pförtner« wie Google und Facebook ermutigt werden, sich weiter für die Bekämpfung des Problems einzusetzen, um die Bildung zentraler Organe, die darüber entscheiden was wahr und was falsch ist zu vermeiden. Die Transparenz der Algorithmen ist außerdem essenziell, um zu verstehen wie wichtige Entscheidungen, die unser Leben beeinflussen, gemacht werden.7

Alles in allem sehe ich die kritische Entwicklung ähnlich und das spiegelt auch die Themen wider, über die häufig in den Medien berichtet wird. Beruhigend ist, dass durch den Brief zumindest das Gefühl entsteht, dass dort Leute an einer wichtigen Stelle sitzen, die sich um die Lösung solcher Probleme bemühen. Als einzelner ist das ohne Boykott nur schwierig und nach sämtlichen Datenskandalen hält der Aufschrei ohnehin nur für kurze Zeit an. Bis zum nächsten.

Quellen
  1. Vgl. Berners-Lee, Tim, World Wide Web Foundation: »Three challenges for the web, according to its inventor«, Stand: 12.3.2017, URL: https://webfoundation.org/2017/03/web-turns-28-letter/, Absatz 1, abgerufen am 28.4.2017.
  2. Vgl. Ebd., Absatz 3.
  3. Vgl. Ebd.
  4. Vgl. Ebd., Absatz 4.
  5. Vgl. Ebd., Absatz 3.
  6. Vgl. Ebd., Absatz 5.
  7. Vgl. Ebd., Absatz 6.

HyperCard – Lokales Äquivalent zum Web

In der Episode »Hypercard Maker« von Computer Chronicles aus dem Jahr 1987 stellen Bill Atkinson und Dan Winkler das Hypertext-System HyperCard vor. Das World Wide Web erinnert mich in einigen Eigenschaften stark an HyperCard, weshalb ich das System näher kennenlernen möchte.

In der Episode »Hypercard Maker« von Computer Chronicles aus dem Jahr 1987 stellen Bill Atkinson und Dan Winkler das Hypertext-System HyperCard vor. Zusammen haben sie den Software-Baukasten innerhalb von Apple entwickelt, welcher 1987 veröffentlicht wurde. HyperCard ist eins der ersten funktionierenden Hypermedia-Systeme.

Das World Wide Web erinnert mich in einigen Eigenschaften stark an HyperCard, weshalb ich das System näher kennenlernen möchte.

HyperCard ist ein Informationssystem und besteht aus einzelnen Karten, welche Texte, Grafiken oder Buttons darstellen können. Die Buttons können dabei unter anderem zu weiteren Informationen führen, Anrufe tätigen oder Töne abspielen.1 Das wichtige ist laut Bill Atkinson, dass die Karten sowohl Informationen als auch Interaktionen beinhalten können.2

Die einzelnen Karten werden als »Stacks« gruppiert, die man über Floppy-Disks mit anderen teilen kann.3 Es gibt jedoch auch die Möglichkeit, eigene zu kreieren.4 Die mitgelieferten Templates, »Art Ideas« oder z. B. Button-Librariers unterstützen den Nutzer dabei, eigene Karten und Stacks anzulegen.5

Die Informationen können thematisch organisiert und die Verbindungen zwischen den Karten völlig frei definiert werden.6 So kann man beispielsweise auch Grafiken miteinander verbinden, indem man Buttons auf bestimmte Teile der Grafik legt und zur nächsten Karte mit dem gleichen Inhalt verlinkt. Als Beispiel zeigt Bill Atkinson eine Karte mit einer Pferdekutsche, die bei einem Klick auf das Rad wiederum auf die nächste Karte, die ein Rad enthält, wechselt.7 Durch diese freie Organisation, lassen sich Informationen laut Atkinson sehr eng miteinander verbinden. Auch To-Do-Listen mit Terminen und der Verlinkung zu der dazugehörigen Adresse werden als Beispiel genannt.8

Wichtig ist laut Dan Winkler, dass man für die Arbeit mit HyperCard keine Programmierkenntnisse benötigt, außer man möchte die Buttons selbst modifizieren. Möglichkeiten wären hier z. B. visuelle oder auditive Effekte.9 Sonst ist der unerfahrene Nutzer aber auch in der Lage, Buttons über die Benutzeroberfläche einzubauen.10 Für die Programmierung von Buttons wird die Sprache Apple HyperTalk benutzt. Über eine Box, die an das Terminal erinnert, können in dieser Sprache beispielsweise Kalkulationen oder Kommandos abgefeuert werden.11

HyperCard erinnert mich wie anfangs schon erwähnt sehr an die Struktur des World Wide Webs. Zwar ist es kein offenes System, doch die freie Organisation der Informationen fällt mir primär auf. Wie Tim Berners-Lee Ansatz, alles mit allem zu verlinken, kann man auch in HyperCard – innerhalb des Systems – alles mit allem verlinken. Zudem erklärt Atkinson, dass es eine besondere Home Card gibt, die aus allen Stacks heraus auf die Home-Seite führt. Von dort navigiert man wieder um in die Inhalte, wie z. B. das Adress­buch.12
Das wäre zumindest begrifflich sehr nah an Webseiten, da es auch dort Startseiten gibt. Weiter könnte man es mit den nativen Browser-Startseiten, die bei einigen Browsern die favorisierten Seiten anzeigen, vergleichen. Durch die lokale Speicherung und Anzeige der persönlichen Stacks, erinnert es mich auch sehr stark an den Schreibtisch auf dem Rechner.
Durch Atkinsons Präsentation einer Karte mit Keyboard und klickbaren Tasten, welche Töne erzeugen,13 wird auch deutlich, dass schon ein stückweit an Mini-Anwendungen innerhalb der Karten/Webseiten gedacht wurde, welche im World Wide Web erst später mit JavaScript verwirklicht wurden.

Abschließend kann ich mir vorstellen, dass HyperCard durchaus etwas ähnliches wie das World Wide Web hätte werden können, wenn das System komplett geöffnet worden und die Karten über das Netz verfügbar gewesen wären.

Quellen
  1. Vgl. Public Broadcasting Service: »Computer Chronicles«, »Hypercard Maker«, URL: https://archive.org/details/CC501_hypercard, TC: 00:04:45–00:05:06, abgerufen am 13.4.2017.
  2. Vgl. Ebd., TC: 00:06:12–00:06:40.
  3. Vgl. Ebd., TC: 00:05:08–00:05:34.
  4. Vgl. Ebd., TC: 00:06:44–00:07:03.
  5. Vgl. Ebd., TC: 00:11:08–00:11:56.
  6. Vgl. Ebd., TC: 00:07:58–00:08:55.
  7. Vgl. Ebd.
  8. Vgl. Ebd., TC: 00:07:05–00:07:50.
  9. Vgl. Ebd., TC: 00:10:14–00:10:56.
  10. Vgl. Ebd., TC: 00:09:50–00:10:14.
  11. Vgl. Ebd., TC: 00:09:03–00:09:44.
  12. Vgl. Ebd., TC: 00:06:12–00:06:40.
  13. Vgl. Ebd., TC: 00:05:42–00:06:08.
  14. Abbildungen
    1. Titelbild: Macintosh Repository: »HyperCard 2.2«, URL: https://www.macintoshrepository.org/2328-hypercard-2-2, abgerufen am 13.4.2017.
    2. Eigener Screenshot; Public Broadcasting Service: »Computer Chronicles«, »Hypercard Maker«, URL: https://archive.org/details/CC501_hypercard, TC: 00:04:54, abgerufen am 13.4.2017.

Die Master-Arbeit: Fokussierung

Zu Beginn meines Master-Studiums habe ich mich unter anderem mit der Frage auseinandergesetzt, inwiefern sich das Web auf gestalterischer und kultureller Ebene verändert hat. Nachdem ich nun lange Zeit breit recherchiert und mich auch mit völlig anderen Bereichen auseinandergesetzt habe, möchte ich mich nun wieder fokussieren und mein Thema eingrenzen.

Zu Beginn meines Master-Studiums habe ich mich unter anderem mit der Frage auseinandergesetzt, inwiefern sich das Web auf gestalterischer und kultureller Ebene verändert hat. Nachdem ich nun lange Zeit breit recherchiert und mich auch mit völlig anderen Bereichen auseinandergesetzt habe, möchte ich mich nun wieder fokussieren und mein Thema eingrenzen.

Vor kurzem habe ich begonnen mich inhaltlich und grafisch näher mit der Entwicklung des Webs von Beginn an auseinanderzusetzen (Evolution der Webästhetik »). Diesen Weg möchte ich weitergehen und einen visuellen Weg finden, meine Ergebnisse zu präsentieren. Dabei kann ich mir zum einen eine Ausstellung, zum anderen eine interaktive Ausstellung oder Weberzählung vorstellen.

Ein erster praktischer Ansatz ist die Sammlung diverser UI-Elemente, welche ich katalogisiert darstellen möchte. Ich stelle mir vor, dass so die Entwicklung visuell greifbarer wird. Zudem habe ich bereits erste Gestaltungsmuster erkannt, welche den kulturellen Weg sowie das veränderte, allgemeine Verständnis des Webs deutlich zeigen. Weitere Gedanken und Ideen – sowohl in Bezug auf Theorie als auch Praxis – möchte ich noch reifen lassen und für mich selbst prüfen.

Im Galopp zur nächsten Information

Auf Basis der »Unabhängigkeitserklärung des Cyberspace« möchte ich einen weiteren Einblick über John Perry Barlow erhalten. Dabei bin ich auf den Podcast TWiT.tv von Leo Laporte aus dem Jahr 2010 gestoßen. Gemeinsam mit Tom Merritt spricht er in »TWiT Live Specials 43: Live With John Perry Barlow« mit dem Bürgerrechtler und Songtexter John Perry Barlow über die »Electronic Frontier Foundation«, die Freiheit im Internet sowie die Unabhängigkeitserklärung selbst. Leider wird letzteres eher angeschnitten als wirklich besprochen, so dass ich aus dem Podcast keinen wirklichen Benefit für meine Arbeit ziehen kann. Nichtsdestotrotz äußert Barlow interessante Gedanken, welche ich kurz dokumentieren möchte.

Nach der Behandlung der »Unabhängigkeitserklärung des Cyberspace« möchte ich einen weiteren Einblick über John Perry Barlow erhalten. Dabei bin ich auf den Podcast TWiT.tv von Leo Laporte aus dem Jahr 2010 gestoßen. Gemeinsam mit Tom Merritt spricht er in »TWiT Live Specials 43: Live With John Perry Barlow« mit dem Bürgerrechtler und Songtexter John Perry Barlow über die Electronic Frontier Foundation, die Freiheit im Internet sowie die Unabhängigkeitserklärung selbst. Leider wird letzteres eher angeschnitten als wirklich besprochen, so dass ich aus dem Podcast keinen wirklichen Benefit für meine Arbeit ziehen kann. Nichtsdestotrotz äußert Barlow interessante Gedanken, welche ich kurz dokumentieren möchte.

In Bezug auf die Unabhängigkeitserklärung und Regierung verfestigt er seine Meinung, dass man zu einem großen Schöpfer der Umgebung wird, in der man selbst geformt wird. Seinem Empfinden nach, sind die meisten innerhalb der Regierung unter anderen Umständen geformt worden als die Leute, die die meiste Zeit virtuell verbringen.1

Weiter merkt er an, dass es durch z. B. Wikipedia möglich geworden ist, dass man für die meisten Dinge, für die es eine Wahrheit gibt, auch eine Wahrheit kennen kann. Nach ihm ist die Voraussetzung, wie wir Wahrheit und Realität verstehen, Dinge einer maximalen Wahrnehmung auszusetzen und dann einen gemeinsamen Konsens zu finden. Speziell bei Wikipedia muss er daher keinen Zweifel daran haben, dass eine Antwort nicht stimmt. Was er nicht berücksichtigt hatte ist, dass viele Leute die Wahrheit nicht kennen wollen oder sogar glücklich sind vorsätzlich falsche Informationen zu streuen, weil es ihnen hilft.2
Zudem ist er überzeugt davon, dass wir besser darin werden, schlechte und gute Informationen unterscheiden zu können. Momentan (2010) sieht er uns noch als kulturelles Äquivalent eines 13 1/2-jährigen.3

Twitter hält er nicht für ein nützliches, revolutionäres Tool, da eine Revolution eine Ausdauer von Absichten, Verbindungen und konzeptioneller Integrität benötigt. Das setzt voraus, dass man eine große Aufmerksamkeitsspanne hat, welche es in Twitter so nicht gibt.4 Das Internet spielte laut ihm dennoch eine fundamentale Rolle dabei, dass Obama gewählt wurde. Seine Administration hätte es aber nicht auf eine nützliche Art und Weise genutzt, weil noch keiner weiß, wie das geht. Wir wären noch am Beginn und müssen das alles noch herausfinden.5 Aus heutiger Sicht kann man sich spätestens seit der Wahl Trumps sicher sein, dass hier schon einiges hinzugelernt wurde.

Dennoch glaubt er an eine Umgebung, in der jeder etwas sagen möchte, auch etwas sagen kann. Und jeder, der zuhören möchte, auch zuhören kann. Darin hat sich seine Vision vom Internet in den letzten 25 Jahren nicht geändert und die Leute können selbst aussortieren, was sie hören wollen und was nicht.6

Gegen Ende des Gesprächs erzählt Barlow von seiner Mutter, welche damit startete, dass die schnellste Möglichkeit an Informationen zu kommen die war, ein Pferd im Galopp zu reiten. Es endete damit, dass sie die ganze Zeit E-Mails schrieb. Daran kann man die tiefgreifende Transformation in der Informationstechnologie erkennen und wenn sie nun Geschichten erzählte, war die Technologie unsichtbar. Da es um das Gespräch ging und nicht um das Telefon.7

Abschließend ist es schade, dass kaum weitere Gedanken im Bezug auf die Unabhängigkeitserklärung zu hören waren. Nichtsdestoweniger war es ein spannender Podcast, da ich Barlow zum ersten Mal sprechen sehen habe und es großartig ist, was für weise Aussagen er mit seiner jahrelangen Erfahrung und dem vielen Wissen über das Web trifft.

Quellen
  1. Vgl. Barlow, John Perry, TWiT Netcast Network: »TWiT Live Specials 43: Live With John Perry Barlow«, Stand: 21.10.2010, URL: https://www.youtube.com/watch?v=c2U-6tHE3Wg, TC: 00:05:40–00:06:06, abgerufen am 17.4.2017.
  2. Vgl. Ebd., TC: 00:07:55–00:09:00.
  3. Vgl. Ebd., TC: 00:13:05–00:13:22.
  4. Vgl. Ebd., TC: 00:14:18–00:14:50.
  5. Vgl. Ebd., TC: 00:18:22–00:18:40.
  6. Vgl. Ebd., TC: 00:41:30–00:41:55.
  7. Vgl. Ebd., TC: 00:42:40–00:43:20.

Cyberspace als neue Heimat des Geistes

Am 8.2.1996 veröffentlicht John Perry Barlow die »Unabhängigkeitserklärung des Cyberspace« (A Declaration of the Independence of Cyberspace) als Reaktion auf den »Telecomunications Act of 1996« in den USA. Seine ideelle Vorstellung stellt noch heute eine utopische Welt dar, welche nichtsdestotrotz wünschenswert wäre.

Am 8.2.1996 veröffentlicht John Perry Barlow die »Unabhängigkeitserklärung des Cyberspace« (A Declaration of the Independence of Cyberspace ») als Reaktion auf den »Telecomunications Act of 1996« in den USA.

Unabhängig davon, dass dieses Gesetz in seinen Inhalten massiv kritisiert wurde, geht es Barlow meinem Verständnis nach generell um die Nichteinmischung des Staats in den »Cyberspace«. Diese Nichteinmischung bzw. unrechtmäßige Kontrolle spielte in meinem Beitrag »Die Verformung der Gesellschaft« eine Rolle, weshalb die Unabhängigkeitserklärung interessant für meine inhaltliche Recherche ist.

Cyberspace als neue Heimat des Geistes

In seiner Erklärung richtet er sich gezielt an die Regierungen der industriellen Welt und grenzt sich gleichzeitig von ihnen ab. Er kommt aus dem Cyberspace, der neuen Heimat des Geistes.1 Er betont, dass es dort keine gewählte Regierung gibt und fordert, dass der globale soziale Raum frei bleiben muss. Die Regierung habe nicht das moralische Recht, die Menschen in diesem Raum zu beherrschen.2

Regierung unerwünscht

Weiter klärt er, dass die Regierung weder »uns« noch »unsere« Welt im Cyberspace kennt und dieser nicht innerhalb ihrer Grenzen liegt.3 Diesen Punkt halte ich für sehr wichtig, da ich es für sehr fragwürdig halte, einen Bereich kontrollieren und beherrschen zu wollen, den man nicht kennt und dessen Beschaffenheit sich grundsätzlich von der bekannten Welt unterscheidet.4 Doch, auch wenn das Web im Jahr 1996 vielen fremd war und auch noch heute in seiner kompletten Daseinsform undurchsichtig und unüberschaubar ist, verstehe ich das grundsätzliche Interesse der Regierung keinen rechtsfreien Raum entstehen zu lassen. Vor allem heutzutage, wenn sich die Welt im Web mit der außerhalb verbindet und zu einer Welt verschmilzt.
Hier spricht mich der Ansatz Barlows an, dass es sich grundsätzlich nicht um einen rechtsfreien Bereich handeln soll. Doch die Frage wie sich das World Wide Web in seinen Regeln und Gesetzen selbst und durch die Menschen in ihm regulieren soll, halte ich für sehr schwierig. Immerhin ist das Problem bis heute nicht gänzlich gelöst.

Barlow stellt klar, dass es sich beim Web nicht um ein öffentliches Bauprojekt handelt, sondern dass es durch kollektives Handeln wächst.5
Diese »autonom« entstandene Welt, ist nur durch Aktivitäten der Cyberspace-Bewohner gewachsen.
Die Regierung hat »weder an großartigen und sich häufenden Gesprächen teilgenommen, noch den Reichtum der Marktplätze im Web aufgebaut. Sie kennt weder die Kultur, Ethik oder ungeschriebene Codes, die diese Gesellschaft bereits ordnet«6.
Er wirft der Regierung vor, dass sie dem Cyberspace nicht vorhandene Probleme nachsagt, um legitimiert handeln zu können. Aus seiner Sicht gibt es viele Probleme jedoch nicht und er weist erneut darauf hin, dass sie selbst richten werden und ein eigener Gesellschaftsvertrag entstehen wird.7

Die Gedanken sind frei

Er beschreibt den Cyberspace als Raum, der aus »Transaktionen, Beziehungen und Gedanken besteht, die wie eine stehende Welle im Netz unserer Kommunikation angeordnet sind«8. Er solle von jedem betreten werden können, »ohne Privilegien oder Vorurteile durch Rasse, wirtschaftliche Macht, militärische Stärke oder Geburtsort«9. Es soll ein Raum entstehen, in dem jeder seine »Überzeugungen ausdrücken kann, ohne Angst davor zu haben, in Schweigen oder Konformität gezwungen zu werden«10.
Diese beiden Absätze finde ich in zweierlei Hinsicht fragwürdig und schwierig. Der Geburtsort ist sehr wohl ausschlaggebend, da das World Wide Web bis heute noch nicht flächendeckend verbreitet ist. Die nötige Infrastruktur fehlt vielerorts, so dass die dort lebenden Menschen nicht an dieser offenen Welt teilnehmen können.
Zum anderen wird der Teil der Gesellschaft, der offenen Zugang besitzt, sehr wohl in eine Konformität gedrängt. Soziale Netzwerke waren zu Zeiten Barlows noch nicht in der heutigen Form vorhanden, doch im Grundgedanken sicher schon als Vorstellung präsent. Auch damals gab es schon Newsgruppen, in denen ein Austausch möglich war.
Zwar kann die eigene Meinung aus technischer Sicht veröffentlicht werden. Aus sozialer Sicht besteht jedoch der Druck gesellschaftstaugliches zu äußern und seine persönliche Selbstvermarktung voranzutreiben. Auf der Suche nach Likes wird eventuell nur das gepostet, was die meisten Daumen verspricht und alles fragwürdige besser nicht geschrieben. Extreme Meinungen werden in kleinen und großen Shitstorms abgestraft. Das kann natürlich nicht pauschal behauptet werden, mein Eindruck ist aber, dass weitestgehend sehr gut überlegt wird, was geschrieben und welches Bild gepostet wird. Auch ohne World Wide Web wird man nicht überall und jedem seine Meinung aufdrücken, doch durch den vergrößerten Rezipientenradius im Web, können eigene Aussagen sehr weitreichende Auswirkungen haben. Luciano Floridi (Erkenntnisse und Eindrücke: Luciano Floridis Buch »Die 4. Revolution« ») geht noch einen Schritt weiter und spricht davon, dass unser soziales Selbst durch Soziale Medien geformt wird und unsere Identität beeinflusst.

Bit – Bit – Bit

John Perry Barlow hebt in seiner Erklärung weiter hervor, dass die rechtlichen Begriffe für Eigentum, Ausdruck, Identität, Bewegung und Kontext nicht für den Cyberspace gelten, da sie auf Materie basieren.11 Auch die Identität hat keinen Körper, weshalb keine physische Ordnung möglich ist. Die Ordnung, die bestenfalls im World Wide Web entsteht, basiert auf der Goldenen Regel.12
Er wirft der Regierung vor mit dem »Telecommunications Reform Act« die eigene Verfassung zurückzuweisen und die Träume von Jefferson, Washington und Co. zu beleidigen.13 Die Regierung hätte Angst vor den eigenen Kindern, die als Ureinwohner in dieser Welt leben, in denen sie selbst immer Einwanderer bleiben werden. In dieser Welt ist alles gleichgeschaltet: Empfindungen, Ausdrucksformen, alles ist ein nahtloses Ganzes, das aus der globalen Konversation von Bits besteht. Metaphorisch drückt er so aus, dass sie die Luft, die sie erstickt nicht von der Luft trennen können, auf der dessen Flügel schlagen.14 Er hält einigen Ländern, darunter Deutschland, Frankreich und die USA, vor, den Virus der Freiheit bekämpfen zu wollen, ist sich aber sicher, dass das in einer Welt voller Bits nicht funktionieren wird.15

Unerschöpflicher Rohstoff

Für einen sehr wichtigen Punkt halte ich, dass er sich dagegen erhebt, dass Ideen gleichermaßen wie andere Industrieprodukte wie z. B. Roheisen gehandelt werden. Aus seiner Sicht könne im Cyberspace all das, was der menschliche Geist erschaffen hat, kostenlos und unbegrenzt reproduziert und ohne Kosten verteilt werden. Dafür würde es keine Fabriken mehr benötigen.16
Das halte ich dahingehend für sehr wichtig, dass heutzutage auf Basis einer guten Idee ganze Leben verändert werden können. Zwar waren auch schon vor dem World Wide Web Erfindertum und Ideenreichtum ungemein wichtig. Doch heute hat jeder mit Zugang zum Web die Möglichkeit, seine Ideen weit zu verbreiten. Im Gegensatz zu herkömmlichen Rohstoffen ist der Geist zudem unerschöpflich.

Diese Unerschöpflichkeit und Grenzenlosigkeit sieht Barlow im Cyberspace. Unabhängig davon, dass die materiellen Körper regiert werden, möchte er die Souveränität des Geistes aufrechterhalten. Der Geist, der sich frei macht von der physischen Welt und sich über den ganzen Planeten verbreitet, so dass die Gedanken nicht eingefangen werden können.17 Er wünscht sich einen Raum, welcher humaner und fairer ist, als die Welt, welche die Regierungen vorher geschaffen haben.18

Grenzenlose Utopie

Die »Unabhängigkeitserklärung des Cyberspace« halte ich für einen sehr wichtigen Abschnitt innerhalb meiner Recherche. Sie zeigt sehr deutlich, welche Euphorie über das World Wide Web im Jahr 1996 vorherrschte und wie groß der Wunsch danach war, eine geistige Plattform zu haben, welche alle physischen Grenzen durchbricht. Ein Raum, der sich unaufhaltsam verbreitet und jedem die Möglichkeit geben soll, sich frei zu entfalten. Ein neues Medium, in dem bestenfalls alle Menschen gleichgeschaltet und verbunden sind. Frei von staatlicher Kontrolle als ideelles Paralleluniversum.
Aus heutiger Sicht treffen die Vorstellungen nur zum Teil zu und schränken sich wiederum durch technische Möglichkeiten ein. Zwar ist es technisch möglich Ideen zu verbreiten, gleichzeitig gibt es Mittel, Inhalte zu zensieren. Das fängt bei großen Staaten an, die komplette Plattformen wie Facebook sperren und geht im kleinen weiter, wenn einzelne Inhalte blockiert werden. Noch immer findet man bei Staaten, die die Kontrolle nach wie vor übernehmen wollen, unzählige Fragezeichen in Bezug auf diverse Themen. Selbst in Deutschland, wo man grundsätzlich sehr liberal lebt, stellt sich nach Hass-Tiraden im Netz die Frage nach Meinungsfreiheit und Zensur.

Noch immer hängt das World Wide Web zu sehr an nationalen Grenzen, welche den tatsächlichen geistigen Fluss aufhalten. Meiner Empfindung nach entsteht genau hier das Hauptproblem: Während das World Wide Web sämtliche Schranken durchbricht, sind die nationalen Grenzen nach wie vor in Stein gemeißelt. Unabhängig davon, ob es nun um Steuern oder geltende AGBs geht – die Zuständigkeiten sind unklar, die Grauzonen werden genutzt und Angebote werden in den Markt gespült, um anschließend zäh und langwierig bekämpft zu werden. Daher ist meine Theorie, dass solche Probleme erst bekämpft werden können, wenn das World Wide Web sein Pendant in der realen Welt findet: Ein grenzenloser Planet mit Gesetzen, die überall gleichermaßen gelten – mit Menschen, deren Meinung überall gleichermaßen akzeptiert wird. Eine Welt außerhalb des Cyperspace, die der ideellen Vorstellung von John Perry Barlow gleichkommen mag. Eine grenzenlose Utopie über dessen Kontrolle dann noch immer gestritten werden würde.

Quellen
  1. Vgl. Barlow, John Perry: »A Declaration of the Independence of Cyberspace«, Stand: 8.2.1996, URL: https://www.eff.org/cyberspace-independence, Absatz 1, abgerufen am 13.4.2017.
  2. Vgl. Ebd., Absatz 2.
  3. Vgl. Ebd., Absatz 3.
  4. Vgl. Ebd.
  5. Vgl. Ebd.
  6. Ebd., Absatz 4.
  7. Vgl. Ebd., Absatz 5.
  8. Ebd., Absatz 6.
  9. Ebd., Absatz 7.
  10. Ebd., Absatz 8.
  11. Vgl. Ebd., Absatz 9.
  12. Vgl. Ebd., Absatz 10.
  13. Vgl. Ebd., Absatz 11.
  14. Vgl. Ebd., Absatz 12.
  15. Vgl. Ebd., Absatz 13.
  16. Vgl. Ebd., Absatz 14.
  17. Vgl. Ebd., Absatz 15.
  18. Vgl. Ebd., Absatz 16.
Abbildungen
  1. Titelbild: ESO/IDA/Danish 1.5 m/Gendler, R.; Ovaldsen, J-E.; Thöne, C.; Feron, C.: »Carina Nebula«, Stand: 3.12.2009, via Wikimedia Commons, abgerufen am 13.4.2017, Lizenz: CC BY-SA 4.0.

Verfassung für das digitale Zeitalter

Anlässlich des 800. Geburtstags der Magna Carta, haben 3.000 Jugendliche aus der ganzen Welt Klauseln erarbeitet, welche aus ihrer Sicht für eine Verfassung des digitalen Zeitalters wichtig sind. The British Library stellt die zehn wichtigsten Bedingungen vor, welche bei einer Abstimmung durch über 30.000 Stimmen aus letztendlich 500 Klauseln gewählt wurde.

Anlässlich des 800. Geburtstags der Magna Carta, haben 3.000 Jugendliche aus der ganzen Welt Klauseln erarbeitet, welche aus ihrer Sicht für eine Verfassung des digitalen Zeitalters wichtig sind. Wie ich in meinem vorherigen Beitrag »Digitale Magna Carta« angekündigt habe, wollte ich mich auf die Suche nach den Ergebnisse machen und sie für meine Arbeit dokumentieren.

The British Library stellt die zehn wichtigsten Bedingungen vor, welche bei einer Abstimmung durch über 30.000 Stimmen aus letztendlich 500 Klauseln gewählt wurde.1

Web We Want

Web We Want ist ein globaler Zusammenschluss aus Einzelpersonen und Gruppen, die sich für die Erhaltung des offenen Webs einsetzen dessen Feinde unter anderem Zensur und Überwachung sind. Mit dem Hintergrund des Zusammenschlusses wird die digitale Verfassung – gefolgt von den Klauseln – mit »The Web We Want Will …« eingeleitet.

Die zehn wichtigsten Klauseln

  1. Unternehmen dürfen das Web nicht kontrollieren und Regierungen nicht unser Recht auf Informationen beschränken.
  2. Es muss Redefreiheit vorherrschen.
  3. Das Web muss in allen Ländern frei von staatlichen Zensoren sein.
  4. Es darf keine Form von staatlicher Zensur zugelassen werden.
  5. Jeder, der sich Zugriff auf das Web wünscht, soll es auch nutzen können.
  6. Es muss frei von Zensur und Massenüberwachung sein.
  7. Der gleichberechtigte Zugang zu Wissen, Informationen und aktuellen News aus der Welt muss gesichert sein.
  8. Die Freiheit zu Sprechen muss gewährleistet sein.
  9. Es darf nicht durch die Regierung zensiert werden.
  10. Persönliche Informationen und Vorlieben, sollten nicht für Geld verkauft werden dürfen. Falls das doch geschieht, muss es das Unternehmen/die Website transparent kommunizieren.

Resümee

Leider tauchen Bedingungen mehrfach auf, was sicher daran liegt, dass aus 500 Einsendungen gewählt wurde. Da 3.000 Jugendliche Vorschläge eingesendet haben, müsste bereits eine Vorauswahl getroffen worden sein. Ich hätte es vorgezogen, dass hier noch präziser ausgewählt worden wäre. Somit hätte vermieden werden können, dass ganze vier Regeln von Zensur handeln, während dadurch sicher andere wichtige Inhalte verloren gingen. Vorausgesetzt, dass die doppelten Inhalte durch andere ersetzt werden, hört sich die digitale Verfassung für mich aber zunächst vernünftig an.

Quellen
  1. Vgl. The British Library: »Magna Carta for the digital age 2015«, URL: https://www.bl.uk/my-digital-rights/magna-carta-2015/, abgerufen am 4.4.2017.

Digitale Magna Carta

Durch meine bisherige Recherche bin ich auf den Artikel »An online Magna Carta: Berners-Lee calls for bill of rights for web« im The Guardian aufmerksam geworden.
Eine Online Magna Carta hält Tim Berners-Lees für notwendig, um die Unabhängigkeit des Mediums sowie der Nutzer weltweit zu schützen und zu verfestigen. Die digitale Verfassung könnte dabei von den Menschen selbst erarbeitet werden.

Durch meine bisherige Recherche bin ich auf den Artikel »An online Magna Carta: Berners-Lee calls for bill of rights for web« im The Guardian aufmerksam geworden.
Eine digitale Verfassung hält Tim Berners-Lees für notwendig, um die Unabhängigkeit des Mediums sowie der Nutzer weltweit zu schützen und zu verfestigen.1 Die digitale Verfassung könnte dabei von den Menschen selbst erarbeitet werden.2

Im begleitenden Video, weist er nachdrücklich darauf hin, dass wir nun nach 25 Jahren World Wide Web über das nächste viertel Jahrhundert nachdenken müssen. Dafür müssen wir unter anderem dafür Sorgen, dass sich die Grundsätze auf dem das Web basiert, etablieren. Darunter fallen Themen wie das Web als offenes Medium oder die Privatsphäre. Für die Demokratie ist außerdem die Frage wichtig, wie man seine Stimme erheben und seine Werte vor der Regierung vertreten kann, wenn man keinen Internetzugang hat.3

Berners-Lee ist weiter der Auffassung, dass wir keine offene Regierung, keine gute Demokratie, kein gutes Gesundheitssystem, keine vernetzten Gemeinschaften und keine kulturelle Vielfalt haben können, bevor wir kein offenes Web besitzen, bei dem wir uns keine Sorgen mehr darüber machen müssen, was an der Hintertür passiert.4 Anwälte und Politiker müssten das Programmieren verstehen, um tatsächlich zu verstehen, was mit Computern alles gemacht werden kann.5

Zudem ist er überzeugt davon, dass der Vorschlag für die Web-Verfassung auch die Auswirkungen von Urheberrechtsgesetzen und kulturell-gesellschaftlichen Themen rund um die Ethik der Technologie untersuchen sollte.6

In meinem Beitrag »Die Verformung der Gesellschaft« habe ich mich schon ansatzweise mit der Problematik auseinandergesetzt, dass das grenzenlose Web den nationalen Grenzen und Gesetzen gegenübersteht. Eine globale Verfassung könnte das Problem lösen. Bisher konnte ich mir jedoch nicht vorstellen, wie diese utopische Vorstellung aussehen könnte.
Laut Berners-Lee sei das wichtigste, dass die Leute für das Web kämpfen und begreifen, was für einen Schaden es hätte, wenn das Web zerstückelt werden würde. Nationale Gesetze bräuchten wir zwar nach wie vor, jedoch dürfen wir das Netz nicht in nationale Silos zerteilen.7
Dieser Ansatz hilft mir dabei, eine Vorstellung davon zu bekommen, wie das Problem lösbar wäre. Ich kann mir eine digitale Verfassung vorstellen, die ähnlich wie das Web selbst, als breites Netz über den nach wie vor vorherrschenden nationalen Gesetzen liegt.

Über eine weitere Suche, hab ich bereits erste Ergebnisse gefunden. Anlässlich zum 800. Geburtstag der Magna Carta, haben junge Menschen im Jahr 2015 bereits gemeinsam eine digitale Magna Carta erarbeitet. Die Öffentlichkeit konnte über die Regeln abstimmen, welche ich in einem weiteren Beitrag bearbeiten werde.

Quellen
  1. Vgl. Kiss, Jemima: »An online Magna Carta: Berners-Lee calls for bill of rights for web«, Stand: 12.3.2014, URL: https://www.theguardian.com/technology/2014/mar/12/online-magna-carta-berners-lee-web, Absatz 3, abgerufen am 27.3.2017.
  2. Vgl. Ebd., Absatz 4.
  3. Vgl. Ebd., Begleitendes Video, TC: 00:0044–00:01:14.
  4. Vgl. Ebd., Absatz 5.
  5. Vgl. Ebd., Absatz 13.
  6. Vgl. Ebd., Absatz 9.
  7. Vgl. Ebd., Absatz 18.

How much wood would a woodchuck chuck?

Als Unterstützung für meine weitere Recherche, möchte ich mich nun auf die technische Entwicklung des Webs konzentrieren. Als Grundlage dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee. In »Vision eines Visionärs« gehe ich näher auf Tim Berners-Lees Vorstellung des Webs ein, weshalb ich sie hier außen vor lassen möchte. An dieser Stelle möchte ich mich nur auf die technischen Fakten konzentrieren, welche ich im Buch finde und sie lediglich auflisten.

Als Unterstützung für meine weitere Recherche, möchte ich mich nun auf die technische Entwicklung des Webs konzentrieren. Als Grundlage dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee. In »Vision eines Visionärs« gehe ich näher auf Tim Berners-Lees Vorstellung des Webs ein, weshalb ich sie hier außen vor lassen möchte. An dieser Stelle möchte ich mich nur auf die technischen Fakten konzentrieren, welche ich im Buch finde und sie lediglich auflisten.
Eine weitere Recherchequelle ist »A Little History of the World Wide Web« vom W3C, welche zum Teil zusätzliche Punkte enthält.

1980

ENQUIRE

Software-Projekt von Tim Berners-Lee aus dem Jahr 1980, welches schon erste Ansätze des World Wide Webs beinhaltet. ENQUIRE steht für »Enquire Within upon Everything«.1 Einzelne Informationen waren als »node« – als Knoten – abgelegt; neue konnte man durch eine Verlinkung des alten Knotens erstellen. Eine Information konnte man nur dann finden, wenn man die Suche von der Startseite aus beginnt. Links waren jeweils am Ende eines Knotens. Das System enthielt bereits interne und externe Links – externe jedoch nur in eine Richtung.2 Die Programmiersprache war Pascal, welche auf dem Betriebssystem »SINTRAN-III« von Norsk Data lief.3

1984

Tangle

Nachdem Tim Berners-Lee im September 1984 ans CERN zurückkehrt, schreibt er in seiner Freizeit ein weiteres Programm namens »Tangle«, um seine Idee in Bezug auf »Verbindungen« weiterzuführen, welche in seiner Vorstellung immer besonders hohen Stellenwert hatten. In einer extremen Sicht könnte man seiner Ansicht nach die ganze Welt nur aus Verbindungen bestehend sehen. Der Computer speichert dabei Informationen nur als Sequenz von Buchstaben, so dass die Verbindung der Buchstaben das wichtige ist. Wenn sich eine bestimmte Buchstaben-Sequenz wiederholt,4 erschafft Tangle einen neuen Knoten, die für diese Sequenz steht. Sollte diese Sequenz erneut auftauchen, verlinkt Tangle nur auf den ursprünglichen Knoten, anstatt sie erneut abzuspeichern. Tim Berners-Lee hatte die Idee auf diese Art und Weise eine Enzyklopädie zu erstellen, welche Fragen auf einzelne Knoten herunterbricht und eine Antwort liefert. Während Tangle die Frage »How much wood would a woodchuck chuck« noch verarbeiten konnte, lieferte eine weitere komplexere Frage eine Endlosschleife aus »How much wood would a woodchuck chuck if a woodchuck chuck wood chuck chuck chuck wood wood chuck chuck chuck …«. Da das Debuggen unendlich kompliziert gewesen wäre, fasste Berners-Lee das Programm nie wieder an.5

ENQUIRE

Neue Version von ENQUIRE mit ausschließlich internen Links. Jedes Netz war damit limitiert. Diese Einschränkung war für ihn eine sehr wichtige Erkenntnis.6

RPC

Um die Kommunikation zwischen Computern und Netzwerken zu vereinfachen, schrieb Berners-Lee ein RPC-Programm (remote procedure call).7

Bis 1988

Hypertext-Ansatz

Ansatz, dass sein System so wenig Regeln wie möglich besitzen sollte, damit jegliche Informationen ins System fließen können, ohne dass die Entwickler ihre Arbeit grundsätzlich überarbeiten müssen. Letztendlich wählt Berners-Lee Hypertext dafür.8

1988

Proposal

Mike Sendall, Tim Berners-Lees Boss, bat ihn um eine Ausarbeitung der Idee.9

TCP/IP

Das Hauptproblem war letztendlich, eine Basis zu schaffen, auf der verschiedene Computer mit verschiedenen Betriebssystemen miteinander kommunizieren können.10

Viele Physiker nutzten das VAX/VMS-Betriebssystem und DECnet Kommunikations-Protokolle, Unix nutzte dagegen Internetprotokolle. Berners-Lee favorisiert die Protokolle TCP/IP. Die Unix-Welt nutzt sie bereits und VAX-Welt könnte sie übernehmen.11
Adaption des RPC-Adress-Schemas, um Dateien zu adressieren und abzurufen.

1989

12.3.1989: »Information Management: A Proposal«

Dokument, dass das World Wide Web als globales, non-lineares Hypertext-System innerhalb von CERN vorstellt.12 Die Vorstellung des Informationssystems zielt unter anderem darauf ab, den Verlust von Informationen innerhalb der Organisation zu verhindern. Er präsentiert das Systems als große Hypertext-Datenbank mit Links, welche automatisch analysiert werden könnten.13

Grafik aus »Information Management: A Proposal«I
Grafik aus »Information Management: A Proposal«I

1990

Keine Reaktion

Keine Reaktion auf seine Ausarbeitung bis er sie im Mai 1990 nochmal David Williams (Boss von Mike Sendall) gab und sie erneut auf Eis gelegt wurde.14

Ideen zur Namensgebung

Mesh oder Information Mesh, MOI für »Mine of Information« oder TIM für »The Information Mine«. Letztere könnten zu egozentrisch wirken und Tim Berners-Lee entschied sich für »World Wide Web«.15

HT

Auf der Suche nach einem charakteristischen Akronym entschied er sich für »HT«. Jedes Programm, das ins System involviert war, sollte mit diesen Buchstaben starten.16

European Conference on Hypertext Technology

Besucht zusammen mit Robert Cailliau, einem alten CERN-Veteran, die Konferenz, um die Idee vorzustellen. Ian Ritchie und Leute von Owl Ltd. stellten ein Produkt namens »Guide« vor. Das Original von Peter Brown, das an der Universität von Southampton entstanden ist, sah im Grunde wie Tim Berner-Lees Vision aus.17 Es brachte alle Eigenschaften mit sich, nur das Internet fehlte. Er versuchte die Zuständigen zu überreden, es an das Internet zu schließen, aber sie waren von der Idee nicht überzeugt. Auch die anderen Teilnehmer konnten nicht vom World Wide Web überzeugt werden.18

Code des World Wide Webs

Tim Berners-Lee beginnt im Oktober damit, den Code für das World Wide Web auf dem NeXT zu schreiben:
· Web Client
· Hypertext Transfer Protocol (HTTP)
· Universal Resource Identifier (URI)
· Hypertext Markup Language (HTML)
· Web Server (nxoc01.cern.ch – Next, Online Controls, 1) – Alias: info.cern.ch
· Erste Hypertext Webseite mit Spezifikationen zu HTTP, URI, HTML und alle projektbezogenen Informationen

Der Client war Mitte November fertig und hieß »WorldWideWeb«, welcher ab Dezember mit HTML funktionierte. Bis dahin jedoch nur auf dem NeXT.18 HTML wurde dabei an SGML (Standard Generalized Markup Language) angelehnt – eine Sprache, die bereits bei einigen Dokumentations-Communities bevorzugt wurde.19
Bestehende Internetprotokolle wie z. B. NNTP oder FTP waren Berners-Lee zu langsam, weshalb er HTTP entwickelte.20
Um andere Systeme mit einzuschließen wurde der kleinste gemeinsame Nenner gesucht: Alle hatten die Tastatur als Eingabegerät und konnten ASCII produzieren. Der auf das wesentliche heruntergebrochene Browser hieß »line-mode Browser« und wurde an das Terminal angelehnt, welches jeweils eine Zeile zeigt.21
Via FTP stellte Tim Berners-Lee eine Verbindung zu Nachrichtenartikel und Newsgruppen im Internet her. So waren Inhalte aus dem Internet umgehend verfügbar.22

Merry Christmas

Tim Berners-Lee und Robert Cailliau hatten jeweils den Browser/Editor WorldWideWeb auf ihrem NeXT installiert, welche am Weihnachtstag 1990 über das Internet via info.cern.ch kommunizieren konnten.23

1991

Telefonbuch von CERN

Das Web ist noch nicht weit genug, um es als ultimatives Dokumentations-System zu verbreiten. Erstes kleines Ziel: Telefonbuch von CERN.24

Dokumentation auf info.cern.ch

Fortführung der Dokumentation auf info.cern.ch. Jede technische Entscheidung basiert auf der Idee, dass es ein Informationsraum sein sollte, der alle umfasst und einschließt.25 Sprich auch von jedem Computer und Betriebssystem zugänglich sein sollte.

Veröffentlichung WorldWideWeb

Im März 1991 wurde das Program WorldWideWeb innerhalb von CERN veröffentlicht. Jedoch nur limitiert an die Nutzer von NeXT Computern.26

Hypertext at CERN

Ausarbeitung »Hypertext at CERN«.27

Veröffentlichung

Im August veröffentlich Tim Berners-Lee drei Dinge: das WorldWideWeb für NeXT, einen line-mode Browser sowie den grundlegenden Server.28

comp.infosystems.www

Start von comp.infosystems.www als Newsgruppe zum Informationsaustausch.29

Telnet-Protokoll

Öffentlicher Telnet-Server auf info.cern.ch. Telnet ist ein Protokoll, wodurch ein Nutzer eine interaktive Kommandozeilen-Session öffnen konnte. Dadurch gelangten Menschen ins Web, welche keinen Browser installieren konnten.30

WorldWideWeb-Browser in C

Der Browser WorldWideWeb wurde erneut in der Sprache C geschrieben, um den Transport zu vereinfachen.31

Libwww

Libwww als Bibliothek – Veröffentlichung des webspezifischen Codes.32

Zwei Gateways

Installation von zwei Gateways zum Support-System VAX/VMS und WAIS.33

Mailing-Liste für technische Diskussionen

Start der Online-Mailing-Liste www-talk@info.cern.ch für technische Diksussionen.34

Hypertext 91’

Hypertext 91’ im Dezember. Das Projekt wird vorgestellt, findet jedoch kaum Zuspruch.35

1992

Erwise

Im April wird der Browser »Erwise« der Helsinki University of Technology für Unix mit dem Betriebssystem X-Windows veröffentlicht.36

ViolaWWW

Im Mai wird der Browser »ViolaWWW« von Pei Wei für Unix veröffentlicht.37

Samba

Entwicklung eines Webbrowser Samba für Macintosh von Tim Berner-Lees Kollegen.38

URL

Aus URI (universal resource document) wurde URL (uniform resource locator).39

MidasWWW

Tony Johnson entwickelt den Browser »MidasWWW« für X.40

1993

Es gab etwa 50 bekannte Server und die Browser Erwise, ViolaWWW und MidasWWW waren für X-Windows verfügbar, Samba für Mac.41

Diverse Browser

Dave Raggett entwickelt den Browser »Arena«.42

Die University of Kansas schreibt einen text-basierten Hypertext-Browser namens »Lynx«, der es als screen mode Browser erlaubt, durch das Dokument zu scrollen. Lynx 2.0 wurde als Web-Browser im März veröffentlicht43 und ist der älteste Browser, der noch immer in Betrieb ist.44

Marc Andreessen veröffentlicht im Februar den Browser »Mosaic« für X.45

Tom Bruce schreibt den Browser »Cello« für Microsofts Windows, welcher im März veröffentlicht wird. Erstmals konnten Windows-Nutzer das Web in verschiedenen Farben und Schriften sehen.46

Das freie World Wide Web

Am 30.4.1993 gab CERN das Web-Protokoll und den Code zur Nutzung frei.47 Dieser Tag wird heute als Geburtstag des freien World Wide Webs angesehen.

Veröffentlichung von Mosaic für UNIX, Windows und Mac im September.48

1994

Internet in a Box

Tim O’Reilly kündigt das Produkt »Internet in a Box« an, welches das World Wide Web in Privathaushalte bringen soll. Das Produkt wird jedoch überflüssig, da nun viele Internet-Service-Provider ihre Arbeit aufnahmen.49

Navipress

Navisoft Inc. veröffentlicht einen Browser namens »Navipress« für den PC und Mac.50

Netscape Navigator 1.0

Gründung des Unternehmens Mosaic Communications Corp. –, später Netscape –51, welches im Oktober desselben Jahres den Browser »Mozilla« auf den Markt bringt.52 Die kommerzielle Version wird im Dezember über das Internet herausgegeben und zu »Netscape Navigator« umbenannt. Der Browser ist mit Windows, X Window und Macintosh kompatibel.53

Woodstock of the Web

Erste internationale WWW-Konferenz – auch »Woodstock of the Web« genannt – im Mai.54 Hier entstand das Konzept von VRML (Virtual Reality Modellen Language).

W3C

Gründung des W3C.55

1995

Hardware mit Browser

Im April kündigt Compaq an, seine PCs mit dem Navigator auszustatten. Damit wird erstmals ein Browser direkt mit der Hardware ausgeliefert.56

Java

Im Mai wird die Programmiersprache Java eingeführt. Die Sprache vereinfacht es in vielerlei Hinsicht Inhalte veröffentlichen. So wird von nun an beispielsweise weniger Arbeitsspeicher beim Endnutzer benötigt, um Inhalte anzusehen. Sie können nämlich direkt im Webbrowser angezeigt werden.57

AOLpress

AOL kauft das Unternehmen Navisoft, welches Navipress entwickelt hatte. Das Produkt heißt von nun an AOLpress.58

Internet Explorer

Der Internet Explorer wird im August zusammen mit Windows 95 veröffentlicht.59

1996

Browser kommen und gehen

Netscapes Navigator 2.0 kommt auf den Markt.60

AOLpress stirbt, während AOL nun den Internet Explorer nutzt.61

PICS

PICS (Platform for Internet Content Selection) wird im März als mögliches Filter-Werkzeug für Webinhalte veröffentlicht.62

Amaya

Das W3C entwickelt ab 1996 den experimentellen Browser »Amaya«.63

1997

RDF

Ab 1997 erste Konzeption von RDF (Resource Description Framework) mit dem letztendlichen Ziel maschinenlesbare Daten für das semantische Web zu erhalten.64

1998

Open Source Policy

Netscape veröffentlicht im Januar den kompletten Quellcode seines Browsers.65

XML

XML (Extensible Markup Language) wird im Februar vom W3C veröffentlicht, um SGML abzulösen. XML ist die Basis von Sprachen wie HTML.66

DOM

DOM (Document Object Model) wird als Standard des W3C eingeführt.67

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 1.
  2. Vgl. Ebd., S. 10.
  3. Vgl. Ebd., S. 11.
  4. Vgl. Ebd., S. 12.
  5. Vgl. Ebd., S. 13.
  6. Vgl. Ebd., S. 15.
  7. Vgl. Ebd., S. 14.
  8. Vgl. Ebd., S. 15.
  9. Vgl. Ebd., S. 17.
  10. Vgl. Ebd., S. 17.
  11. Vgl. Ebd., S. 19.
  12. Vgl. Ebd., S. 21.
  13. Vgl. Ebd.
  14. Vgl. Ebd., S. 22.
  15. Vgl. Ebd., S. 23.
  16. Vgl. Ebd.
  17. Vgl. Ebd., S. 26.
  18. Vgl. Ebd., S. 27.
  19. Vgl. Ebd., S. 29.
  20. Vgl. Ebd., S. 41.
  21. Vgl. Ebd., S. 39.
  22. Vgl. Ebd., S. 30.
  23. Vgl. Ebd.
  24. Vgl. Ebd.
  25. Vgl. Ebd., S. 32.
  26. Vgl. Ebd., S. 33.
  27. Vgl. Ebd., S. 45.
  28. Vgl. Ebd., S. 46.
  29. Vgl. Ebd.
  30. Vgl. Ebd., S. 47.
  31. Vgl. Ebd.
  32. Vgl. Ebd., S. 48.
  33. Vgl. Ebd., S. 50.
  34. Vgl. Ebd.
  35. Vgl. Ebd.
  36. Vgl. Ebd.
  37. Vgl. Ebd., S. 56.
  38. Vgl. Ebd.
  39. Vgl. Ebd., S. 58.
  40. Vgl. Ebd., S. 62.
  41. Vgl. Ebd., S. 64.
  42. Vgl. Ebd., S. 67.
  43. Vgl. Ebd.
  44. Vgl. Ebd., S. 68.
  45. Vgl. »Lynx (web browser)« in: »Wikipedia, the free encyclopedia«, Stand: 26.2.2017, URL: https://en.wikipedia.org/wiki/Lynx_(web_browser), abgerufen am 20.3.2017.
  46. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 69.
  47. Vgl. Ebd.
  48. Vgl. Ebd., S. 74.
  49. Vgl. Ebd., S. 76 f.
  50. Vgl. Ebd., S. 80.
  51. Vgl. Ebd., S. 81.
  52. Vgl. Ebd., S. 82.
  53. Vgl. Ebd., S. 96.
  54. Vgl. Ebd., S. 97.
  55. Vgl. Ebd., S. 85.
  56. Vgl. Ebd., S. 93.
  57. Vgl. Ebd., S. 103.
  58. Vgl. Ebd., S. 104.
  59. Vgl. Ebd., S. 105.
  60. Vgl. Ebd., S. 108.
  61. Vgl. Ebd., S. 112.
  62. Vgl. Ebd.
  63. Vgl. Ebd., S. 113.
  64. Vgl. Ebd., S. 119.
  65. Vgl. Ebd., S. 181.
  66. Vgl. Ebd., S. 118 f.
  67. Vgl. Ebd., S. 119.
  68. Vgl. Ebd., S. 168.
Abbildungen
  1. CERN, O‘Luanaigh, Cian: »World Wide Web born at CERN 25 years ago«, Stand: 8.4.2014, URL: https://home.cern/about/updates/2014/03/world-wide-web-born-cern-25-years-ago, abgerufen am 20.3.2017.

Die Verformung der Gesellschaft

In einem weiteren Beitrag über das Buch »Weaving the Web: The Original Design and Ultimate Destiny of the World« von Tim Berners möchte ich mich mit der gesellschaftlichen Bedeutung des World Wide Webs befassen. Dabei geht es mir momentan nicht darum, einen Einblick in sämtliche Einzelheiten zu geben, sondern grobe Eckpfeiler für meine weitere Recherche zu definieren. Die Recherche bezieht sich dabei vor allem auf die Jahre zwischen den Anfängen und der geplatzten Dotcom-Blase im Jahr 2000.

In einem weiteren Beitrag über das Buch »Weaving the Web: The Original Design and Ultimate Destiny of the World« von Tim Berners-Lee möchte ich mich mit der gesellschaftlichen Bedeutung des World Wide Webs befassen. Dabei geht es mir momentan nicht darum, einen Einblick in sämtliche Einzelheiten zu geben, sondern grobe Eckpfeiler für meine weitere Recherche zu definieren. Die Recherche bezieht sich dabei vor allem auf die Jahre zwischen den Anfängen und der geplatzten Dotcom-Blase im Jahr 2000.

Die Veröffentlichung des WorldWideWeb

Das »WorldWideWeb«-Programm (Browser) wurde im März 1991 erstmals innerhalb CERNs veröffentlicht, wobei nur Personen mit NeXT Computern Zugang hatten.1 Ursprünglich war das Web nicht für den privaten Gebrauch oder für Einzelunternehmen entwickelt. Während es zunächst für ein besseres Informationsmanagement innerhalb CERNs nützlich sein sollte, machten später auch Universitäten, Forscher und große Unternehmen davon Gebrauch.2
Meinem Eindruck nach waren die Anfänge ein regelrechter Kampf darum, die Wichtigkeit des WWW zu vermitteln. Ob schriftliche Ausarbeitungen oder die Präsentation auf einer Konferenz namens Hypertext im Dezember 1991: Durchweg schien sich die Begeisterung in Grenzen zu halten. Zum einen vermute ich, dass das Verständnis für diese Art von Informationsraum noch nicht weit genug ausgeprägt war – auch heute würde es uns schwerfallen, uns auf dem Papier ein Medium vorzustellen, das die nächsten Jahrzehnte maßgeblich verändern und umkrempeln könnte. Vor allem, wenn noch weitere nicht ausgereifte Systeme miteinander konkurrieren. Zum anderen war die Nutzung noch immer sehr beschränkt. Erst im August 1991 veröffentlicht Berners-Lee das WorldWideWeb für NeXT, einen Line-Mode Browser sowie den elementaren Server außerhalb von CERN.3 Selbst die Nutzung dieser Angebote war längst nicht intuitiv und einfach.

Erschwerter Zugang

Das Web verbreitet sich begrenzt in der Hypertext Community, doch obwohl es durch einen Telnet-Zugang grundsätzlich für Millionen von Menschen zugänglich gewesen wäre, hapert es an – aus heutiger Sicht – kleinen Problemen: Es war einfacher sich ab Oktober 1991 über das Telnet-Protokoll in die Kommandozeile eines anderen Computers innerhalb CERNs einzuwählen, als selbst einen Browser zu installieren. Nur langsam verbreitet sich das Web weiter und wird von Menschen rund um den Globus wahrgenommen. Das wichtigste war laut Berners-Lee, dass die Menschen, die das Web sahen und die unbegrenzten Möglichkeiten verstanden, damit begannen Server aufzusetzen und Informationen zu publizieren. Netterweise bekam er zu Beginn noch Nachrichten, wenn ein neuer Server aufgesetzt wurde.4

Cleverness schlägt Vermögen

Eine dringende Notwendigkeit war die Entwicklung eines tauglichen, systemübergreifenden Browsers, der nicht nur das Lesen von Informationen, sondern auch das Editieren zulässt. Ansätze lieferten 1992 die Browser Erwise (April), ViolaWWW (Mai) oder später Samba (Dezember). Letztendlich war kein Browser wirklich vollkommen oder systemunabhängig. Das führte zum Problem, dass den Menschen das Werkzeug fehlte, um wirklich gut zusammenarbeiten zu können. Das Web wurde zunehmend zu einem Medium, welches das Publizieren eher zulässt als eine vernünftige Zusammenarbeit. Das ironische, was Berners-Lee darin sah, war die Tatsache, dass unzählige Intranets entstanden. Solche zusammenzuschließen war jedoch der ursprüngliche Antrieb, welches das Bedürfnis nach einem ganzheitlichen Netz überhaupt entstehen ließ.5 Erst mit der Erscheinung von Browsern, wurden in immer kürzeren Abständen neue Server aufgesetzt. Ein Server über Rom während der Renaissance beeindruckt den Begründer dabei besonders. In Form eines virtuellen Museums inspiriert es viele weitere Webseiten – auch solch’ beeindruckende Veröffentlichungen begünstigten den Aufstieg des Webs.6

Nachdem im Februar 1993 die erste Version des Browsers Mosaic verfügbar war, gründete der Mitentwickler Marc Andreessen zusammen mit Jim Clark Mosaic Communications Corp. (später Netscape).7 Zunächst wird im Oktober 1994 der Browser Mozilla veröffentlicht8 und am 15.12.1994 die kommerzielle Version, die zwischenzeitlich zu Navigator 1.0 umbenannt wurde.

Das Besondere an der Veröffentlichung: Netscape veröffentlicht den Browser frei verfügbar über das Internet anstatt ihn einzutüten und zu verschicken. Zudem sind zwei weitere Ansätze wichtig: Zum einen ist die Veröffentlichung einer Beta-Version – an der hunderte Nutzer unentgeltlich weiterarbeiten und Verbesserungsvorschläge senden können – bis dahin nicht alltäglich. Zum anderen ist das Vermarktungs-Modell neu, etwas frei im Web anzubieten und erst nachträglich, durch z. B. andere Produkte oder Werbung auf der Startseite, Geld zu verdienen. Innerhalb weniger Monate nutzten die meisten Menschen im Web diesen Browser.9 Damit schlägt er zunächst den Internet Explorer, der erst später im August 1995 zusammen mit Windows 95 veröffentlicht wurde.10

Das Web kommt im Privaten an

Immer mehr Menschen nutzen das World Wide Web und schon zu Beginn des Jahres 1994 zeichnete sich ab, dass es zunehmend wahrgenommen wird. Allein von März bis Dezember 1993 stiegen die Webverbindungen innerhalb des Internets von 0,1 auf 2,5 %.11 Auch die Zugriffe auf info.cern.ch verzehnfachten sich in den ersten Jahren. Waren es im Sommer 1991 noch 100 pro Tag, betrug die Zahl der Aufrufe schon 10.000 im Sommer 1993.12 Im Jahr 1994 übersteigt zudem die Zahl der kommerziellen Nutzer die der wissenschaftlichen Nutzer, bei einer gesamten Zahl von rund drei Millionen Internet-Rechnern.13

Umso wichtiger war es nun, das WWW so einfach wie möglich zugänglich zu machen. Tim O’Reilly entwickelte dabei das Produkt »Internet in a Box«, welches den privaten Nutzer dabei unterstützen sollte, zu Hause Zugang zu erhalten. Es wurde jedoch überflüssig, da nun viele Internet-Service-Provider mit auf den Zug sprangen und den Eintritt als Komplettpaket ermöglichten. Dass Software und Service nun kommerzialisiert angeboten wurden, war ein bedeutender Schritt, da viele Menschen kein Interesse an der Nutzung haben würden, wenn sie nicht sicher sein konnten, dass alles Nötige von einem Unternehmen inklusive Support angeboten wird.14

Scheitern nicht ausgeschlossen

Trotz der wachsenden Zahl der Nutzer gab es schon 1993 erste Anzeichen dafür, dass das Web sich in einzelne Fraktionen aufteilt: In kommerzielle und akademische, freie und kostenpflichtige. Das würde Tim Berners-Lee ursprünglichem Ansatz widersprechen, ein universell zugängliches Hypertext-Medium für den Informationsaustausch zu sein.15 Auch 1994 hätte das Web laut ihm noch immer verschwinden oder von einem anderen System ersetzt werden können, noch immer hätte es zersplittert oder sein Wesen so sehr verändern können, dass es nicht mehr als universelles Medium existiert.16 Ein wichtiger Schritt war hier, dass Tim Berners-Lee das Web nicht sich selbst überlassen und beispielsweise mit monetärem Vorteil jeden Job seiner Wahl angenommen hat. Sondern sich weiter für seine Vision eingesetzt hat. Das W3C zu gründen und aus ihm heraus – gänzlich konzentriert auf die Sache – zu agieren, war hier ein wichtiger Schritt.17 Das Web selbst füllte sich zunehmend mit den verschiedensten Menschen, Organisationen und Unternehmen und das Konsortium würde gleichermaßen gemischt aufgestellt sein. Es sollte das »Web des Lebens« aufrechterhalten.

Money, Money, Money!

Ein weiterer entscheidender Einschnitt war der Börsengang von Netscape im August 1995. Nach nur einem Tag an der Börse war das Unternehmen 4,4 Milliarden Dollar wert und Ende 1996 verzeichnete das Unternehmen Einnahmen von 346 Millionen Dollar. Auf einen Schlag war die Botschaft klar: Das Web ist ein bedeutender Markt geworden, auf dem sich viel Geld verdienen lässt.18

Häufig wurde Tim Berners-Lee mit der Frage konfrontiert, ob ihn das sauer machen würde, dass man nun für einige Web-Angebote Geld zahlen müsste. Für ihn war die Community, die für freie Software sorge zwar fundamental und er sieht sie als Basis der Kreativität. Doch gleichermaßen sah er die partielle Kommerzialisierung als wichtigen Meilenstein für den Erfolg des Webs, ohne die das ganze Konzept nicht aufgegangen wäre. Um ein universelles Medium zu werden, musste es jede Informationen und Verlinkung zulassen. Das bedeutet, dass man kommerzielle Angebote nicht einfach ausschließen durfte.19 Zudem sieht er die Universalität auf jeder Ebene, die auch in der realen Welt existiert. Es musste auf verschiedenen Wegen mit verschiedenen Gruppen verschiedener Größen an verschiedenen Orten des täglichen Lebens funktionieren. Ob zu Hause, im Büro, Schulen, Kirchen, Ländern, Kulturen, etc. Informationen müssten jede soziale Grenze durchbrechen können.20 Dementsprechend war auch die Sorge, dass der bislang von Akademikern als offen und frei verstandene Informationsraum, von Spam-Mails und Werbung überflutet wird zwar verständlich, aber unbegründet.21

Ein Brösel des Kuchens

Während im Jahr 1996 bereits die erste Botschaft des »großen Geldes« versandt wurde, wurden die meisten Dinge noch immer von purer Aufregung und Euphorie angetrieben. Erst 1998 wurde das Web zum Schauplatz des großen Geschäfts und rückte auch in das Interesse der Regierung. Es wuchs der Wunsch das Web zu kontrollieren und jeder mischte sich ein, wo er nur konnte. Gegen Microsoft lief ein Kartellverfahren, der Wert der Internetfirmen stieg und es gab den sogenannten »Kampf der Portale« von Mammut-Webseiten wie Yahoo!, Dienstleister wie AOL oder Anbietern von Inhalten wie Disney.22 Jeder wollte das größte Stück des Kuchens abhaben. Vor allem die steigenden Marktwerte, der starke Expansionsdrang von Unternehmen und überhöhte Gewinnerwartungen führten letztlich 2000 zum Zerplatzen der großen Internetblase. Erwartungen wurden nicht erfüllt, Unternehmen waren nicht profitabel genug oder gingen bereits in Insolvenz. Während viele Kleinanleger und überschaubare Unternehmen zu viel Verluste einstrichen, steckten Teile der »New Economy« diesen Absturz jedoch weg und erreichten ganz neue Aufmerksamkeit. Dazu gehören beispielsweise amazon, eBay oder Google.

Kampf der Moral

Während die Unternehmen, um ihren Platz im Web kämpften, stemmten sich verschiedenste Gruppen – sei es mit religiösen Hintergrund oder z. B. Elterninitiativen – gegen verwerfliche oder schädliche Inhalte im Web.23
Es gab zwar verschiedene Ansätze das Problem zu lösen, doch zum einen stellte sich die Frage nach der Legitimität von Zensur.24 Zum anderen hätte eine Filterung von beispielsweisen pornographischen Inhalten teilweise auch dazu geführt, dass ungewollt andere Inhalte wie z. B. Informationen über Sexualerziehung oder Brustkrebs verbannt worden wären. Ohnehin sind Betrug und Kinder-Pornographie auch im realen Leben strafbar25 – dementsprechend müssten Gesetze nach Handlungen beschrieben werden, nicht in Bezug auf eine einzelne Technologie.26

Verformte Gesellschaft

Natürlich musste sich das Konsortium durchaus über die Auswirkungen auf die Gesellschaft, welche durch das Web geformt wird, Gedanken machen.27 So schreibt Berners-Lee, dass wir alle sicherstellen müssen, dass die Gesellschaft, die wir mit dem Web aufbauen, die von uns beabsichtigte ist. Weiter, dass sie in vielen ethischen, rechtlichen und sozialen Fragen zurückbleiben kann, wenn sich die Technologie zu schnell entwickelt.28 Letztendlich war es aber Aufgabe der Technologie bzw. des Mediums, technische Mechanismen anzubieten und nicht sozialpolitisch zu agieren. Technologie muss losgelöst davon sein, die Welt beherrschen zu wollen.29 Das betrifft unter dem Strich viele weitere Bereiche wie z. B. die Meinungsfreiheit, Privatsphäre oder geistiges Eigentum.30

Um die Gesellschaft zu schützen, sollten wir zudem vorsichtig sein, Dinge zu tun, nur weil sie möglich sind. Die Tatsache, dass es sehr kostengünstig machbar wäre, über politische Fragen im Web abzustimmen, bedeutet nicht, dass wir zwingend von einer repräsentativen zur direkten Demokratie wechseln müssen.31

Ferner hält Berners-Lee es für wichtig, dass das Web Parallelität zulässt. Das menschliche Gehirn übertrifft den Computer in seiner Parallelverarbeitung und auch die Gesellschaft löst die Probleme parallel. Jeder sollte daher in der Lage sein, Arbeiten zu veröffentlichen und zu kontrollieren, wer Zugang zu dieser erhält. Es sollte dabei keine Struktur oder Beschränkungen geben, die irgendeine Form von Idee ausschließt.32
Weiter können viele soziale Prozesse besser maschinell durchgeführt werden: Die Computer sind stets verfügbar, ohne Vorurteile und ohnehin würde keiner diese Systeme verwalten wollen.33

Abschließend ist es aus heutiger Sicht keine Überraschung, dass die Gesellschaft massiv vom World Wide Web verformt wurde. Unternehmen und Nationen wurden zuvor durch geographische Grenzen gebildet und das Web hat uns aus dem zwei-dimensionalen Raum katapultiert.34 Entfernungen sind nichtig geworden und die gesellschaftlichen Probleme sind zum Teil sicher andere geworden.
Doch obwohl wir nun von fast drei Jahrzehnten World Wide Web sprechen, scheinen viele Probleme, die Tim Berners-Lee schon 1999 beschreibt, nach wie vor zu bestehen. Noch immer herrschen riesige Diskussion über Datenschutz und Privatsphäre, noch immer landen unzählige illegale Inhalte im World Wide Web und noch immer – oder durch die Masse gerade jetzt – ist es unmöglich Inhalte zu »kuratieren«. Die weiteren Fragen, die daraus entstehen sind die, wer überhaupt das Recht hätte Inhalte zu zensieren oder wie Rechte generell durchzusetzen sind. Nimmt man Facebook als bekanntes Beispiel, wird einem bewusst, wie schwierig die Lage zu sein scheint. Grundrechte wie das »Briefgeheimnis« werden völlig missachtet und in vielen weiteren Punkten handelt Facebook entgegen dem deutschen Gesetz. Zum einen ist es ein massives Problem, dass das Web international ist, während es nichtsdestotrotz geographische Grenzen mit Gesetzen für diesen begrenzten Raum gibt. Zum anderen ist fraglich, wie solche limitierten Gesetze durchsetzbar wären. Als extremste Form könnte Facebook in Deutschland nicht verfügbar sein bis sich die Plattform an die Gesetze hält und die Rechte der Bürger anerkennt. Doch der Aufschrei wäre groß und ein Argument wäre, dass man immerhin selbst entscheiden kann, ob man Rechte abtritt – was wir immerhin tagtäglich tun. Noch immer scheint es so, als könnte man die Probleme, die im World Wide Web auftauchen, nicht in den Griff kriegen. Zudem ist es aus meiner Sicht so gut wie ausgeschlossen sämtliche Straftaten zu verhindern und auszuschließen. Immerhin ist das Web nicht mehr nur ein Spiegel der Gesellschaft, sondern ein Werkzeug, das wir nicht nur nutzen, sondern durch dass sich unser komplettes Leben verändert hat. Ein Werkzeug, das längst nicht nur ein Medium ist, in das wir bewusst eintauchen, sondern ein täglicher Begleiter. Das uns ständig umgibt und dessen Grenzen zur »realen« Welt verschwinden. Ein großer Kosmos informationeller Entitäten, dessen gesamtes Dasein grundsätzlich überdacht werden müsste.

Auf dieser Basis entstand mein ursprünglicher Titel »Digitale Primaten«. Zwar gehören auch Menschen zu den Primaten, aber im allgemeinen Sprachgebrauch klingt Primaten etwas rückständig. Aus meiner Sicht hinken wir noch immer der Technologie hinterher und sollte sie sich weiter so schnell entwickeln – was ich vermute – wird der Abstand größer und größer. Daher gilt es, so schnell wie möglich Lösungen zu finden, um das Zusammenleben zwischen Mensch und Maschine anzunähern und mit so wenig Hürden wie möglich zu gestalten.

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 4.
  2. Vgl. Ebd., S. 45.
  3. Vgl. Ebd., S. 46.
  4. Vgl. Ebd., S. 48.
  5. Vgl. Ebd., S. 56 f.
  6. Vgl. Ebd., S. 59.
  7. Vgl. Ebd., S. 82.
  8. Vgl. Ebd., S. 95.
  9. Vgl. Ebd., S. 99.
  10. Vgl. Ebd., S. 108.
  11. Vgl. Ebd., S. 80.
  12. Vgl. Ebd., S. 75.
  13. Vgl. »Chronologie des Internets« in: »Wikipedia, Die freie Enzyklopädie«, Stand: 3.3.2017, URL: https://de.wikipedia.org/w/index.php?title=Chronologie_des_Internets&oldid=173334077, abgerufen am 9.3.2017.
  14. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 80 f.
  15. Vgl. Ebd., S. 76.
  16. Vgl. Ebd., S. 83.
  17. Vgl. Ebd., S. 84 f.
  18. Vgl. Ebd., S. 106.
  19. Vgl. Ebd., S. 107.
  20. Vgl. Ebd., S. 164.
  21. Vgl. Ebd., S. 107.
  22. Vgl. Ebd., S. 124.
  23. Vgl. Ebd., S. 124.
  24. Vgl. Ebd., S. 113.
  25. Vgl. Ebd., S. 135 f.
  26. Vgl. Ebd., S. 131.
  27. Vgl. Ebd., S. 110.
  28. Vgl. Ebd., S. 123.
  29. Vgl. Ebd., S. 137.
  30. Vgl. Ebd., S. 124.
  31. Vgl. Ebd., S. 174.
  32. Vgl. Ebd., S. 203.
  33. Vgl. Ebd., S. 172.
  34. Vgl. Ebd., S. 200.
Abbildungen
  1. Titelbild: Foto von Geni: »Photo of the NeXTcube used as the first web server. The label reads ›This machine is a server. DO NOT POWER IT DOWN!!‹. On display at the science museum london.«, Stand: 13.1.2015, via Wikimedia Commons, abgerufen am 13.3.2017, Lizenz: CC BY-SA 4.0 oder GFDL.

In Pieces: Hinter den Kulissen

Bereits Mitte letzten Jahres habe ich das Projekt »In Pieces« vorgestellt. Seitdem möchte ich mich etwas näher mit dem technischen Hintergrund auseinandersetzen, da mich das Projekt nachhaltend begeistert hat und ich es sehr interessant finde, dass es basierend auf CSS umgesetzt wurde.

Bereits Mitte letztens Jahres habe ich die interaktive Ausstellung »In Pieces« von Bryan James vorgestellt. Damals hatte ich fälschlicherweise noch den Titel »Species in pieces« verwendet.
Seitdem möchte ich mich etwas näher mit dem technischen Hintergrund auseinandersetzen, da mich das Projekt nachhaltig begeistert hat und ich es sehr interessant finde, dass es basierend auf CSS umgesetzt wurde.

Neben der Dokumentation, die auf der Projektseite selbst zu finden ist, bin ich auf »The Making Of ›In Pieces‹: Designing an Interactive Exhibition With CSS Clip Paths« auf Smashing Magazine gestoßen. Hier erklärt Bryan James ausführlich seine Vorgehensweise und auf welche Probleme er während des Prozesses gestoßen ist. Da die Dokumentation sowie das Making Of sehr detailliert sind, möchte ich den technischen Hintergrund nicht einfach wiedergeben, sondern lediglich die für mich spannenden Punkte herausgreifen.

Die Outlines des Pfeilgiftfrosches in Illustrator
Die Outlines des Pfeilgiftfrosches in IllustratorI

Zunächst finde ich es erstaunlich, dass die Polygone aus denen die Tiere zusammengesetzt sind mit der CSS-Eigenschaft clip-path generiert wurden. Ich bin mehr Designerin als Entwicklerin, so dass mir das breit gefächerte Verständnis fehlt. Jedoch war meine Vermutung die, dass mit SVG-Grafiken gearbeitet wurde, die dann via Code verändert und bewegt werden. Zur Erstellung der Formen stellt Bryan James das Tool Clippy » vor. Mit dieser Browseranwendung können eigene sowie vorgefertigte Masken ausgewählt werden. Der dazugehörige Code erscheint dabei direkt am unteren Rand des Browsers. Schade finde ich, dass man den Code nicht direkt im Browser ändern kann, um die erstellte Form selbst noch einmal im Detail zu ändern. Zwar ist ein klickbares Logo von Codepen zu sehen, dessen Sinn erschließt sich mir aber leider nicht ganz, da sich nichts ändert oder öffnet. Davon abgesehen, ist es aber ein einfaches, schönes Tool, um visuell die Formen zu erstellen. Den Code kann man nachträglich immerhin selbst ändern, so dass ich das nicht als sehr großen Nachteil empfinde.

Als weitere spannende Lösung stellt James eine Funktion vor, die ermöglicht die prozentualen Werte eines Punktes auszulesen. Er nutzt eine PNG-Datei als Unterstützung und durch einen Klick wird ein Fenster mit den Daten des jeweiligen Punkts zum Kopieren ausgegeben. Die Funktion ist im Making Of zu finden.

Aus grafischer bzw. konzeptioneller Sicht finde ich es zudem überraschend, dass die 30 Tiere jeweils aus etwa 30 Polygonen bestehen. Das war mir im Vorfeld nicht bewusst bzw. habe ich nicht darauf geachtet.

Eine weitere bemerkenswerte Herangehensweise sehe ich in der Maskierung von Bildern mit Zahlen durch die Polygone als Hilfestellung. Eine simple Methode, um die Ränder der Formen hervorzuheben, um sie anschließend zueinander passend zu verändern. So können feine Linien vermieden werden, die zwischen den Gebilden entstehen, wenn sie exakt aufeinander liegen.

Visuell ansprechend finde ich außerdem den von ihm verwendeten und erwähnten Schimmer-Effekt. Generell bin ich kein Fan von Schimmern, Schatten oder beispielsweise Verläufen. Doch der Einsatz im Web kann bei dosierter Anwendung sehr reizvoll sein. Im Vergleichsbild seiner Grafiken sieht man deutlich, dass sie durch den Schimmer-Effekt sehr viel hochwertiger wirken.

Schlussendlich finde ich es großartig, dass Bryan James das Projekt und den Prozess so ausführlich dokumentiert. Einen Einblick in die Arbeitsweise und die Problemlösungen machen deutlich, wie das große Ganze Schritt für Schritt und Hürde für Hürde gewachsen ist. Dass die Arbeit beinahe wegen zu großer Probleme beendet wurde, motiviert zudem sich an mancher Stelle weiter durchzubeißen. Denn das Ergebnis finde ich nach wie vor so imposant, dass es Mut macht dem ein oder anderen Hindernis zu trotzen. Zudem inspiriert mich die interaktive Ausstellung so sehr, dass ich mich nun mit mehr technischem Verständnis, selbst an einer erstmaligen Gestaltung durch Polygone versuchen möchte.

Abbildungen
  1. James, Bryan: »The Making Of ›In Pieces‹: Designing an Interactive Exhibition With CSS Clip Paths«, Stand: 2.6.2015, URL: https://www.smashingmagazine.com/2015/06/the-making-of-in-pieces/, abgerufen am 2.3.2017.

CSS–Animationen als Grundlage

Da ich mich auch auf technischer Ebene weiterentwickeln möchte, will ich die Zeit innerhalb meines Masters nutzen, um mich näher mit CSS-Animationen auseinanderzusetzen. Ich sehe in ihnen riesiges, gestalterisches Potenzial und bin überzeugt davon, dass es sich auszahlen wird, mehr darüber zu wissen.

Da ich mich auch auf technischer Ebene weiterentwickeln möchte, will ich die Zeit innerhalb meines Masters nutzen, um mich näher mit CSS-Animationen auseinanderzusetzen. Ich sehe in ihnen riesiges, gestalterisches Potenzial und bin überzeugt davon, dass es sich auszahlen wird mehr, darüber zu wissen. Zum einen sprechen mich dezente Animationen von Typografie oder grafischen Elementen sehr an. Zum anderen finde ich es großartig, dass Objekte komplett durch Code entstehen und animiert werden können. Bei meiner Recherche bin ich bereits auf gute Beispiele auf CodePen gestoßen, die mir als erste Grundlage dienen sollen. Ich habe mir für die ersten Versuche zwei Beispiele ausgesucht, die sich in Komplexität sehr unterscheiden. Beides sind nur Grafiken auf einer Farbfläche, jedoch scheint »Submarine with CSS« auf den ersten Blick sehr viel weniger komplex als der BB-8 zu sein.

Submarine with CSS von Alberto Jerez: CodePen »
Star Wars BB-8: Pure CSS Animation, Single Dev, 8Bit von Udith Ishara Madusanka: CodePen »

Abbildungen
  1. Titelbild: Eigener Screenshot; Jerez, Alberto: »Submarine with CSS«, URL: https://codepen.io/ajerez/pen/EaEEOW, abgerufen am 3.3.2017.

A is for Albert

»A is for Albert» von Studio Lovelock ist ein kleines Nebenprojekt, dass alle Buchstaben des Alphabets in Form einer Buchstabiertafel darstellt. Ich finde das Projekt grafisch ansprechend, was auch der Hauptgrund dafür ist, dass es in meiner Dokumentation auftaucht

»A is for Albert« von Studio Lovelock ist ein kleines Nebenprojekt, dass alle Buchstaben des Alphabets in Form einer Buchstabiertafel darstellt. Jeder Buchstabe erhält ein passendes Wort, meiner Recherche nach jedoch unabhängig von der tatsächlichen Buchstabiertafel der englischen Sprache. Die Buchstaben werden durch grafische Grundformen dargestellt und durch eine kurze Animation zusammengebaut.

A is for Albert | Studio Lovelock
Die Buchstaben K und LII

Ich finde das Projekt grafisch ansprechend, was auch der Hauptgrund dafür ist, dass es in meiner Dokumentation auftaucht. Inhaltlich ist es selbstverständlich überschaubar und liefert – außer möglicherweise für Kinder – keinen Mehrwert. Ich finde Nebenprojekte dieser Art nichtsdestotrotz gut und wichtig. Zum einen motivieren sie beispielsweise mit Technologie und Grafik zu experimentieren. Zum anderen machen mir selbst die inhaltlich einfachsten Webseiten Freude, insofern sie ansprechend umgesetzt sind.

Abbildungen
  1. Titelbild: Eigener Screenshot; Studio Lovelock: »A is for Albert«, URL: http://www.aisforalbert.com/, abgerufen am 28.2.2017.
  2. Eigener Screenshot; Studio Lovelock: »A is for Albert«, URL: http://www.aisforalbert.com/, abgerufen am 28.2.2017.

Struktureller Aufbau des Webs und die Koexistenz von Mensch und Maschine

Nach meiner ersten Auseinandersetzung mit Tim Berners-Lees Buch, möchte ich im folgenden weiteren Gedanken nachgehen. Dabei geht es unter anderem um den Aufbau des Webs, welchen ich vor allem strukturell näher betrachten möchte. Zudem finde ich den Ansatz eines universellen Informationsraums, in dem Mensch und Maschine harmonisch koexistieren sehr faszinierend.

Nach meiner ersten Auseinandersetzung mit Tim Berners-Lees Buch (Die Vision eines Visionärs »), möchte ich im folgenden weiteren Gedanken nachgehen. Dabei geht es unter anderem um den Aufbau des Webs, welchen ich vor allem strukturell näher betrachten möchte. Zudem finde ich den Ansatz eines universellen Informationsraums, in dem Mensch und Maschine harmonisch koexistieren sehr faszinierend.

Hypertext als non-lineare Grundlage

Während das Internet grundsätzlich nur das infrastrukturelle Fundament für das World Wide Web bildet, basiert die Kernidee des World Wide Webs auf Hypertext. Laut Berners-Lee war seine Aufgabe lediglich beides zu »verheiraten«.1 Nachdem es zuvor schon ähnliche Konzepte gab, wurde der Begriff Hypertext im Jahr 1965 von Ted Nelson geprägt. Zum einen schrieb Ted Nelson von »Literarischen Maschinen«: Von Computern, die dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren.2 Zum anderen ist an dieser Stelle wichtig zu wissen, dass es sich bei Hypertext um einen dynamischen Text handelt, dessen einzelne Bestandteile durch Querverweise vernetzt sind. Dieser enzyklopädische Ansatz ist fundamental für die Entwicklung des World Wide Webs und sein non-lineares Format.

Auf Grundlage dieser Struktur, entwickelt Tim Berners-Lee den Vorläufer des World Wide Webs »Enquire«, das auf Knoten (Nodes) basiert, die – der Reihe nach – miteinander verlinkt sind. Er vergleicht das Software-Projekt mit dem menschlichen Gehirn, welches gleichermaßen netzartig funktioniert und zufällige Assoziationen zulässt.3 Dabei sind die Verbindungsmöglichkeiten unbegrenzt und zuvor nicht berücksichtigte Verbindungen können sichtbar werden.4 Diese Unbeschränktheit ist eine Voraussetzung dafür, dass das Web als universelle Resource dienen kann.5

Hyperspace

Laut Tim Berners-Lee ist das Web kein physisches »Ding«, sondern ein Raum in dem Informationen existieren können.6 An späterer Stelle nennt er diese Hypertext-Umgebung »Hyperspace«.7 Es war essenziell, dass Berners-Lee etwas schafft, das keine komplette Umstrukturierung der vorherigen Arbeit sowie Umformatierung sämtlicher Daten verlangt. Ihm war wichtig ein System zu kreieren, welches für jeden akzeptabel ist und mit so wenig wie möglich Regeln bzw. Beschränkungen auskommt.8 Denn nur dann, wenn Menschen selbst in der Lage sind Informationen einzuspeisen und Informationen zu verbinden,9 kann dieser universelle Informationsraum entstehen. Und nur was in diesem Informationsraum besteht, ist von informationellem Wert. Das »World Wide Web Consortium« selbst handelt dabei nach der Maxime, dass alles, was nicht in diesem Hyperspace – im Web – vorhanden ist, nicht exitierst.10

Das erinnert mich zum einen an Luciano Floridis Blick auf die Infosphäre (Zwischen Realität und Fiktion »), welche jedoch auch Menschen als informationelle Wesen mit in diese Sphäre aufnimmt. Zum anderen an Felix Stalders Betrachtung des raumzeitlichen Horizonts (Neuer Raum – neue Zeit: Neu denken »). Stalder beschreibt dabei, dass alles, was nicht »hier« ist, unerreichbar und alles, was nicht »jetzt« ist, verschwunden ist.
Zudem sehe ich in Bezug auf die netzartige Struktur einen Zusammenhang zu Marshall McLuhan, welcher von der Auflösung von Raum und Zeit spricht, sowie die Veränderung unserer westlich geprägten, sequentiellen Denkweise voraussagt (Das globale Dorf – Raum, Zeit und Dynamik »). Hier sehe ich vor allem das World Wide Web als einschneidendes Medium, welches als non-lineares Format unsere Gewohnheiten grundsätzlich verändert. Hier fände ich spannend, inwiefern nachfolgende Generationen non-linear geprägt werden. Meine Generation (Jahrgang 1986) ist noch sehr sequentiell aufgewachsen und in das Medium Web reingewachsen. Zudem halte ich unsere aktuelle Lebenswelt noch immer für sehr linear ausgelegt.

Human-Computer-Interaction und die Verschmelzung zu einem großen Informatiosnraum

Um das World Wide Web nicht nur als Medium zu sehen, in das man »einsteigen« kann, ist die Zugänglichkeit enorm wichtig. Für Berners-Lee war der Zugang noch sehr umständlich und so hatte er schon damals Ideen, welche für uns heute eine Selbstverständlichkeit sind. Mehrere Minuten warten bis der Computer hochgefahren ist, um sich dann über die Telefonleitung ins Netz einzuwählen, nahm einfach viel zu viel Zeit in Anspruch. Er träumte davon, dass Computerbildschirme immer erreichbar sind, wenn man sie benötigt und hatte die Idee von sofortiger und ständiger Verfügbarkeit.11 Er hat bereits damals die Vorstellung, dass der Computer ein ständiger Begleiter und gutes Werkzeug darstellt, um aufkommende Ideen sofort festzuhalten und sie nicht zu verlieren.12 Zwar gibt es noch immer Leute, die weder Smartphone noch Daten-Flat besitzen, doch im Großen und Ganzen ist genau dieser Fall eingetreten. Das Smartphone ist als kleiner Pocket-Computer ständiger Begleiter vieler, die an den meisten Orten auch durchgehend online sind. Das ist auch die Onlife-Erfahrung von der Floridi spricht (Von Loops und der Hyper-Realität »): Die Unterscheidung von on- und offline wird es zukünftig kaum noch geben.

Eine weitere Selbstverständlichkeit ist, dass Technologie heute zunehmend transparenter wird. Das sieht Berners-Lee als Voraussetzung für den intuitiven Umgang mit ihr. Er denkt diese Transparenz jedoch noch weiter: Computer und Netzwerke sollten seiner Ansicht nach völlig aus dem Weg gehen, da es letztendlich unwichtig ist, wo Information gespeichert wird. Die Daten und die Werkzeuge, um auf sie zuzugreifen sollten unabhängig voneinander sein – er nennt das das Konzept der Ortsunabhängigkeit. Ob Hypertext oder lokaler Ordner – beides sind für ihn gleichermaßen Informationen. Er ist auch der Meinung, dass Dateinamen verschwinden müssen und jede Datei eine andere Art von URL erhalten sollte.
Weiter kann er sich vorstellen, dass URLs komplett verschwinden und man nur noch Hyperlinks sieht.13

Diesen Ansatz halte ich für spannend sowie in seiner Argumentation richtig. Eine Vorstellung davon wie das aussehen könnte, habe ich jedoch nicht. Hierfür müsste sich die komplette Ordnerstruktur auflösen, an der wir in unserer analogen Denkweise festhalten. Grundsätzlich wäre dieser Ansatz genau der richtige, um Daten nicht selbst vorzusortieren, sondern diese Arbeit den »Verbindungen« und einer anderen Art der Kategorisierung zu überlassen. Jedoch stelle ich mir die Sortierung insofern schwierig vor, dass beispielsweise bei der grafischen Arbeit auf lokale Daten zugegriffen werden muss. Zum einen werden dabei nicht alle möglichen Suchergebnisse über dieses Thema oder den Kunden benötigt, zum anderen ist hier eine zeitliche Abfolge in der Dateistruktur sehr wichtig. Zudem kann ich mir vorstellen, dass sich die grafische Nutzeroberfläche, die sehr intuitiv angelegt ist, dadurch grundlegend ändert.

Der Begründer des World Wide Webs sah das Web selbst noch nicht als universellen Informationsraum an. Daten sind auf verschiedenste Art und Weise getrennt voneinander gespeichert und oft nicht in Beziehung gesetzt. Hier kommt das semantische Web ins Spiel, welches auch als Web 3.0 bezeichnet wird. Dabei geht es darum, maschinenlesbare Formate zu nutzen, um den Algorithmen zu ermöglichen, nicht nur stichwortartige, sondern auch kontextuale Zusammenhänge erschließen zu können. Als grundlegenden Baustein nennt er RDF, das Resource Description Framework, das auf XML basiert und logische Aussagen über Dinge trifft. Er nennt das Beispiel, dass durch logische Schlussfolgerungen maschinell erkannt werden kann, dass »Mittlere Tagestemperatur« dasselbe wie »Tagesdurchschnittstemperatur« bedeutet. Das Marktforschungsunternehmen Gartner vermutet in einer Präsentation aus dem Jahr 2007, dass 2017 die meisten Webseiten mit einer Form von semantischem Hypertext ausgestattet sind.14 Inwieweit das semantische Web tatsächlich da ist, kann ich momentan aber weder beurteilen noch sicher herausfinden.

Das semantische Web wird uns dabei helfen, die unzähligen Informationen aus dem World Wide Web zu filtern – ohne maschinelle Hilfe wäre das für uns Menschen zwischenzeitlich unmöglich. Tim Berners-Lee ist davon überzeugt, dass der Computer uns bei der Lösung großer analytischer Probleme helfen wird und hält es für wichtig, dass das Web den Menschen dabei unterstützt, sowohl intuitiv als auch analytisch zu sein. Unsere Gesellschaft benötigt beide Funktionen.15
Zudem ist er sich sicher, dass die Menschheit durch die Zusammenarbeit mit Maschinen nur profitieren kann. Er nennt das World Wide Web als Ort, wo Mensch und Maschine in einer idealen, kraftvollen Mischung koexistieren werden.16
Diese Ansicht teil auch Michael Dertouzos in seinem Vorwort. Er glaubt entgegen vieler Menschen, die davon überzeugt sind, dass Technologie uns entmenschlicht, dass sie ein untrennbares Kind der Menschheit ist. Mensch und Maschine müssen für echten Fortschritt Hand in Hand gehen, ohne dass einer als Diener des anderen handelt.17
Mit dieser Thematik habe ich mich bereits in »Die 4. Revolution« befasst und auch ich bin überzeugt davon, dass wir mit der richtigen Nutzung der jeweils stärkeren Potenztiale eine völlig neue Entwicklungsstufe erreichen und eine wunderbare Koexistenz von Mensch und Maschine führen können.

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 6.
  2. Vgl. Ebd., S. 5.
  3. Vgl. Ebd., S. 10.
  4. Vgl. Ebd., S. 3.
  5. Vgl. Ebd., S. 99.
  6. Vgl. Ebd., S. 36.
  7. Vgl. Ebd., S. 206.
  8. Vgl. Ebd., S. 15.
  9. Vgl. Ebd., S. 201.
  10. Vgl. Ebd., S. 163.
  11. Vgl. Ebd., S. 158 f.
  12. Vgl. Ebd., S. 159 f.
  13. Vgl. Ebd.
  14. Vgl. Gartner Report: »Finding and Exploiting Value in Semantic Web Technologies on the Web« 2007, in: Herman, Ivan: »What is being done today?«, Stand: 14.12.2009, URL: https://www.w3.org/2009/Talks/1214-Darmstadt-IH/Applications.pdf, S. 3, abgerufen am 18.2.2017.
  15. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 201.
  16. Vgl. Ebd., S. 158.
  17. Vgl. Ebd., S. IX.

Vision eines Visionärs

Zur Recherche über die Entwicklung des World Wide Webs dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee, dem Begründer höchstpersönlich. Der Name Tim Berners-Lee ist fest mit dem World Wide Web verwoben, doch wie viel Anteil er tatsächlich an der Entwicklung dieses Mediums besitzt, wird mir erst jetzt bewusst. Er ist nicht der gewürdigte Mann, der am Ende einer langen Kette von Prozessen steht. Er ist der Mann, der mit einer großartigen und weltveränderten Vision am Anfang, in der Mitte und am Ende dieser Kette Platz nimmt.

Zur Recherche über die Entwicklung des World Wide Webs dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee – dem Begründer höchstpersönlich. Der Name Tim Berners-Lee ist fest mit dem World Wide Web verwoben, doch wie viel Anteil er tatsächlich an der Entwicklung dieses Mediums besitzt, wird mir erst jetzt bewusst. Er ist nicht der gewürdigte Mann, der am Ende einer langen Kette von Prozessen steht. Er ist der Mann, der mit einer großartigen und weltveränderten Vision am Anfang, in der Mitte und am Ende dieser Kette Platz nimmt.
In seinem Idealbild eines universellen, »einzigen, globalen Informationsraums«1 ist alles potenziell mit allem verbunden.2 Er liebte die Vorstellung davon, dass »ein Stück Information wirklich nur dadurch definiert wird, womit und wie es verbunden ist«3. Aus seiner Sicht können dadurch völlig neue Relationen entstehen und Dinge zusammenkommen, die zuvor keine sichtbare Gemeinsamkeit hatten.4 Laut des Vorworts von Michael Dertouzos, dachte Tim Berners-Lee das Web als Medium, das in diesem gigantischen Informationsnetz menschliches Wissen und menschlichen Verstand kodifizieren würde.5

Generell begeistert ihn daran nicht nur die Idee, dass unzählige Informationen für jeden zugänglich sind, sondern auch, dass jeder daran teilhaben und sich selbst einbringen kann. Diese Begeisterung teilt er mit Ted Nelson, der schon zuvor von einer utopischen Gesellschaft geträumt hatte, in der alle Informationen von Leuten geteilt werden können, die sich auf Augenhöhe begegnen.6 Das Internet, das es längst vor dem World Wide Web gab, lässt zwar den Austausch von Daten zu. Für einen Laien sind die Hürden jedoch zu groß, um sich wirklich daran beteiligen zu können.7 Daher ist es für Berners-Lee eine Grundvorraussetzung, dass das Erstellen von Inhalten und Verlinkungen nicht nur machbar, sondern so einfach wie möglich ist. Zusätzlich setzt er voraus, dass das System komplett dezentralisiert aufgebaut sein muss, so dass ein Nutzer mit dem nötigen Equipment sofort und ohne Zugangserlaubnis »mitmachen« kann.8 Diese Dezentralisierung des Systems bedeutet für ihn zeitgleich, dass keine hierarchischen Strukturen vorherrschen dürfen und es niemanden gibt – weder eine Person noch eine Gruppe –, der das World Wide Web unter seine Kontrolle bringt.9

Ursprünglich dachte Berners-Lee an ein Web, dass das »reale«, nicht-virtuelle Leben widerspiegelt. Eine ungeahnte Folge ist die, dass Menschen durch das Web völlig neue Aktivitäten gefunden hatten. Sie fingen an zu schreiben oder zu malen, obwohl sie das zuvor nicht getan haben. Dadurch, dass sich das Web zum primären Raum für viele Aktivitäten etabliert hat, rät er dazu vorsichtig zu sein, um weiter eine gerechte und faire Gesellschaft zu ermöglichen.10

In seinem Buch zitiert der Begründer des Webs zudem eine Rede des südafrikanischen Vizepräsidenten, da er selbst seine Mission nicht besser in Worte fassen hätte können. Thabo Mbeki ruft dazu auf, die neue Technologie dafür zu nutzen sich selbst zu ermächtigen, sich über die Wahrheit der eigenen ökonomischen, politischen und kulturellen Situation zu informieren und sich selbst eine Stimme zu geben, die die ganze Welt hören kann.11

Diese Worte beschreiben wunderbar, wie dieses neue Medium als Werkzeug eines jeden genutzt werden kann. Zudem bin ich Tim Berners-Lee nicht einfach nur dankbar für ein Medium, das unser aller Leben bestimmt. Ich bin begeistert, wie er Schritt für Schritt das World Wide Web nach seiner Vorstellung gebaut hat. Ein Visionär, dessen damaliges finales »Werk« nicht nur das Endergebnis einer langen Evolution ist, sondern von Beginn an als Vision in seinem Kopf umherschwirrte.

Quellen
  1. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 4.
  2. Vgl. Ebd., S. 1.
  3. Ebd., S. 13.
  4. Vgl. Ebd., S. 37.
  5. Vgl. Ebd., S. VIII.
  6. Vgl. Ebd., S. 5.
  7. Vgl. Ebd., S. 18.
  8. Vgl. Ebd., S. 16.
  9. Vgl. Ebd., S. 80.
  10. Vgl. Ebd., S. 165.
  11. Vgl. Ebd., S. 102.

Technologie als Basis gestalterischer Möglichkeiten

Das World Wide Web ist noch jung und viele Technologien sind noch immer nicht ausgereift. Neue stehen dagegen schon in den Startlöchern und ich bin gespannt, wie sich einige Fragen zukünftig nochmal völlig neu stellen werden.

Innerhalb des Video-Tutorials »Learning HTML5 Video« auf lynda.com erläutert Tom Green in »A short history of web video« die Entwicklung von Videos im Web seit Mitte der 90er Jahre. Während schon nach 1995 die ersten Medienschnipsel in Form von Soundtracks oder Audio-Broadcasts ins Netz gelangten, kam das Video-Format erst zwischen 1996 und 2000 an.1 Sämtliche Unternehmen versuchten anschließend einen geeigneten Video-Player anzubieten und die für mich persönlich bekannteste Lösung war letztendlich ein Plug-In für den Adobe Flash Player.

Laut einer Statistik innerhalb des Artikels »Bye Bye Flash« von Mathias Brandt, nutzten 2011 immerhin noch 50 % aller Webseiten Flash.2

Fakten dieser Art finde ich insofern wichtig, dass ich es immer wieder erstaunlich finde, wie kurz die Geschichte des Webs ist und was tatsächlich erst in den letzten Jahren möglich wurde. Sich das immer wieder ins Gedächtnis zu rufen und seine eigene Denkweise dahingehend zu schärfen, finde ich essenziell, um ein Bewusstsein dafür zu entwickeln, wie sich das Web grafisch, inhaltlich und kulturell verändert hat und verändern könnte. Sämtliche Inhalte nehmen wir als selbstverständlich wahr, obwohl es die Technologie nach wie vor nicht zulässt, alle Inhalte völlig plattformunabhängig zu entwickeln. Je größer die technischen Möglichkeiten sind, umso befreiter kann man auch gestalten, selbst wenn dadurch kreative Umwege in den Hintergrund geraten könnten. Auf der anderen Seite werden die technischen Möglichkeiten auch auf das Bedürfnis der Schaffenden angepasst und evolviert. Daher gehe ich davon aus, dass sich das World Wide Web in den nächsten Jahren noch einmal massiv verändern wird. Zum einen kann man mit immer weniger Einschränkungen das Medium an sich noch besser nutzen, zum anderen stehen schon neue Technologien in den Startlöchern. Vor allem die Verbreitung von Voice Interfaces oder WebVR sehe ich als sehr spannend an, da sich hier die Frage nach grafischen Benutzeroberflächen nochmal völlig neu stellen könnte.

Quellen
  1. Vgl. Green, Tom: »Learning HTML5 Video«, »A short history of web video«, URL: https://www.lynda.com/HTML-tutorials/Up-Running-HTML5-Video/135356-2.html, TC: 00:00:10–00:02:30, abgerufen am 2.2.2017.
  2. Vgl. Brandt, Mathias: »Bye Bye Flash«, Infografik, URL: https://de.statista.com/infografik/3798/flash-nutzung-von-webseiten/, abgerufen am 2.2.2017.

Interaktive Karten mit Leaflet

In »Interaktive Karten« habe ich mich mit Lösungen für Karten auseinandergesetzt, die innerhalb von WordPress umsetzbar sind. In der weiteren Recherche möchte ich mich mit drei weiteren PlugIns bzw. Libraries auseinandersetzen.

In »Interaktive Karten« habe ich mich mit Lösungen für Karten auseinandergesetzt, die innerhalb von WordPress umsetzbar sind. In meiner weiteren Recherche fiel das angekündigte PlugIn »wp google maps« direkt raus, da mir die Möglichkeiten doch sehr begrenzt schienen.

Leaflet Map für WordPress sowie die ursprüngliche Library leaflet.js sind weiterhin interessant für mich. Für Leaflet spricht vor allem die Tatsache, dass es eine weit verbreitete Library ist. Das halte ich mit Blick auf den Support oder auch die Arbeit in der Community für ein sehr wichtiges Kriterium.
Zufällig bin ich bereits auf PlugIns für Leaflet.js gestoßen, die Ansätze meiner Ideen beinhalten. So z. B. Leaftlet.Instagram und Leaflet.Photo. Ersteres platziert Fotos aus dem Instagram-Stream direkt in der Karte, zweiteres platziert sie mithilfe von Geotagging. Während Smartphone-Fotos normalerweise schon getaggt sind, trifft das auf Bilder, die mit einer analogen oder digitalen Kamera ohne GPS-Empfänger gemacht wurden, nicht zu. Hier möchte ich noch recherchieren, ob die Metadaten nachträglich geändert werden können, so dass sie als getaggt zählen.

Die Informationen zu leaflet.js sowie deren Funktionen sind sehr umfangreich. Ich habe noch immer keine endgültige Wahl getroffen, jedoch möchte ich mich zwischen leaflet.js und WP Google Map Pro entscheiden. Die abschließende Entscheidung richtet sich nicht danach, wie umfangreich die Tools sind, sondern nach der Frage inwieweit meine Kompetenz ausreicht. Leaflet setzt im Vergleich sehr viele Kenntnisse voraus. An diesem Punkt stehe ich aber regelmäßig vor der Frage, inwiefern ich mich ausschließlich auf das Design konzentrieren und wie weit ich mich im Bereich Webentwicklung weiterentwickeln möchte.

Evolution der Webästhetik

Nach wie vor interessiere ich mich sehr für die Webästhetik der 90er Jahre – den Anfängen des World Wide Webs. Daher möchte ich mich mit der Ästhetik der einzelnen Jahre auseinandersetzen. In Frage kommen dabei zum einen Webseiten, die heutzutage populär sind, sowie Plattformen, die früh gegründet wurden und dadurch immerhin teilweise verwertbares Material liefern. Bei meiner Arbeit ist mir dabei nicht nur die Ästhetik der 90er Jahre wichtig, sondern wie sie sich – z.B. technisch und kulturell bedingt – verändert hat.

Nach wie vor interessiere ich mich sehr für die Webästhetik der 90er Jahre – den Anfängen des World Wide Webs. Daher möchte ich mich mit der Ästhetik der einzelnen Jahre auseinandersetzen. In Frage kommen dabei zum einen Webseiten, die heutzutage populär sind, sowie Plattformen, die früh gegründet wurden und dadurch immerhin teilweise verwertbares Material liefern. So wurde Facebook beispielsweise erst im Jahr 2004 gegründet, ist jedoch aus der heutigen Welt nicht mehr wegzudenken.

Wie bei meiner begonnen »Web-Analyse« bildet die Grundlage die Wayback Machine von archive.org ». Durch erste Recherchen vermute ich, dass sich nicht allzuviel Material von vor 1995 finden lässt. Im gleichen Zuge möchte ich mich meine eigenen Webseiten von geocities ausfindig machen. Hier hoffe ich auf das Projekt »One Terabyte of Kilobyte Age«.

Bei meiner Arbeit ist mir dabei nicht nur die Ästhetik der 90er Jahre wichtig, sondern wie sie sich – z. B. technisch und kulturell bedingt – verändert hat. Als ersten Schritt möchte ich eine Sammlung sämtlicher UI-Elemente erstellen, um auf dieser Grundlage weiter zu forschen.

Exkurs: WebSockets

Das Websocket-Protokoll dient der Kommunikation zwischen Client (Browser) und dem Server. Mit einem kurzen Exkurs möchte ich die wesentlichen Punkte verstehen. Sollte ich es innerhalb meines Masterprojekts benötigen, macht jedoch eine Kooperation aus meiner Sicht am meisten Sinn.

Das Websocket-Protokoll dient der Kommunikation zwischen Client (Browser) und dem Server. Die bidirektionale Kommunikation ermöglicht es, die Daten in Echtzeit abzurufen, da der Server nicht erst auf eine Anfrage reagiert, sondern im ständigen Austausch steht.

Durch ein Tutorial »WebSockets (using Socket.io) Tutorial #2 – Creating an Express App« versuche ich die Nutzung sowie die Funktionsweise besser zu verstehen. Die Installation über node.js wird hier zwar ausführlich erklärt, jedoch merke ich schnell, dass es mein Interesse tief in die Programmierung einzusteigen schnell übersteigt.

Ich bin grundsätzlich motiviert, das Thema auch von Entwicklerseite zu verstehen, doch möchte ich meine Prioritäten an anderer Stelle setzen. Da ich mir sicher bin, dass das nicht mein beruflicher Alltag der Zukunft sein wird, reicht es mir an dieser Stelle, die Funktionsweise von websockets im Wesentlichen zu verstehen. Sollte ich es innerhalb meines Masterprojekts benötigen, macht eine Kooperation aus meiner Sicht am meisten Sinn.

Interaktive Karten

Zur Zeit setze ich mich mit der Darstellung und Umsetzung interaktiver Karten auseinander, die man innerhalb von WordPress umsetzen kann. Dafür recherchiere ich PlugIns, die man möglicherweise verwenden kann.

Zurzeit setze ich mich mit der Darstellung und Umsetzung interaktiver Karten auseinander, die man innerhalb von WordPress umsetzen kann. Meine favorisierten PlugIns sind bisher WP Google Map Pro sowie Mapify.it.
In naher Zukunft möchte ich die Open-Source-Lösung Leaflet, wp google maps sowie Leaflet Map für WordPress genauer unter die Lupe nehmen.

Wichtig sind mir neben der individuellen Gestaltung der Karte, die Inhalte, die man bereits der Karte selbst entnehmen kann. Zum Beispiel möchte ich die Möglichkeit haben, ausgewählten Orten Bildergalerien hinzufügen zu können. Bisher habe ich keine eigenen Erfahrungen mit den PlugIns sammeln können, auf den ersten Blick scheint WP Google Map Pro aber sehr viel umfangreicher als Mapify zu sein. Zwar besitzt Mapify laut Beschreibung von Haus aus die Funktion Galerien anzuzeigen. Auf der anderen Seite kann man bei WP Google Map Pro unter anderem mit dem PlugIn ACF arbeiten, womit man theoretisch Galerien sowie unzählige andere Inhalte anzeigen lassen kann. Zudem werden Custom Post Types unterstützt, mit denen ich zur Unterscheidung der einzelnen Inhalte sehr gerne arbeite.

Die Darstellung kann bei letzterem durch snazzymaps beeinflusst werden, während man bei Mapify eigene Karten – ganz egal welcher Art – einbauen kann. Zwar besitzt WP Google Map Pro unzählige Funktionen von Routenführung über Street View bis zu den genannten Custom Post Types. Beim Testen der Demos fällt mir die Bedienung der Mapify-Karte jedoch deutlich einfacher, da sie sich mehr nach zeitgemäßen Web anfühlt. Man kann sicher auch die WP Google Map Pro mit mehr Dynamik ausstatten, jedoch möchte ich bei meiner aktuellen Recherche ausschließlich die Möglichkeiten in Betracht ziehen, die von Haus aus gegeben und in der Demo zu sehen sind.

Grundsätzlich gefällt mir das PlugIn WP Google Map Pro mit Blick auf die Funktionen deutlich besser. Einzig die Bedienbarkeit missfällt mir, so dass ich hier noch kein eindeutiges Ergebnis für mich gefunden habe. Diese Punkte werde ich im Vergleich mit den anderen oben genannten Lösungen besonders beachten und letztendlich werden mir wohl – trotz kostenpflichtiger PlugIns – nur ein Test und die eigene Erfahrung, die ich damit sammeln werde, weiterhelfen.

Abbildungen
  1. Titelbild: Eigener Screenshot; WP Google Map Pro: »Display Maps Using ACF (Advanced Custom Fields)«, URL: https://www.wpmapspro.com/example/maps-with-acf/, abgerufen am 2.1.2017.

Die Kölner Büdchenmap

Als Büdchenhauptstadt hat Köln die kleinen »Du-kannst-hier-alles-Kaufen«-Lädchen in unzähligen Variationen. Sie dienen als Treffpunkt im Veedel und sind fester Bestandteil der Kölner Kultur. Die Büdchenmap soll sie alle zeigen, inklusive dem 100-Meter-Distanz-Regel-Entregler.

Ich bin online, also bin ich. Sehr häufig ist mir bei der Selbstbeobachtung aufgefallen, dass ich mich in meinem Alltag – wie sicher sehr viele Menschen – sehr auf Google verlasse. Ich google das nächste vietnamesische Restaurant, eine Buchhandlung oder suche nach einem Schreibwarenhandel. Wenn ich nicht gerade neu in einer Stadt bin, sind es vor allem die kleinen Lädchen, nach denen ich suche. Wo H&M, MediaMarkt und Co. ist weiß man meist sehr schnell. So traurig es ist: Finde ich etwas nicht bei Google, so gibt es das für mich nicht – außer ich entdecke es durch Zufall oder auf Empfehlung. Selbst, wenn man in Köln im Normalfall kein Büdchen googeln muss, weil man an jeder Ecke ohnehin eins findet, war das der ausschlaggebende Gedanke einer Projektidee: Die Kölner Büdchenmap.

Dabei ist für mich nicht nur die Verortung interessant, sondern auch der visuelle Charme. Die Büdchenmap soll alle Büdchen in Köln auf einer Karte vereinen und jeweils mit einem Foto abbilden. Als Büdchenhauptstadt hat Köln die kleinen »Du-kannst-hier-alles-Kaufen«-Lädchen in unzähligen Variationen. Einzelne Gebäude, in Häuserketten eingegliedert an Hauptstraßen, versteckt im Erdgeschoss von Hochhäusern oder U-Bahnhöfen. Sie sind traditionell, chic, hip, verratzt, geordnet oder chaotisch. Manche von ihnen stehen leer, eine Eiskarte als letztes Zeichen, dass dort mal Leben war.

Bei meiner Recherche bin ich auf »Am Büdche« von Stefan Matthiessen gestoßen. Das Fotoprojekt zeigt Büdchen auf einer Karte, visuell jedoch anders als ich es mir vorstelle. Sie sind nur als Marker gesetzt, während ich mir eine einzige Karte mit allen Informationen vorstelle. Ein möglicher Zusatz könnte das Einzeichnen von Distanzen sein. In Köln wird gemunkelt, dass eine Stadtverordnung besagt, dass man nur mit einer Mindestdistanz von 100 Metern zu Einrichtungen wie z. B. Schulen öffentlich trinken darf. Im Hinblick darauf könnte die eingezeichnete Distanz die erlaubten Trinkflächen anzeigen.

Karte des Projekts »Am Büdche«I
Karte des Projekts »Am Büdche«I

Stefan Matthiessen beschreibt das »Büdche« weiter als Lebensmittelpunkt im Veedel.1 Diesen Gedanken hatte ich auch dahin gehend, dass das Büdchen einen analogen Treffpunkt darstellt, den man trotz aller digitaler Transformation nicht in der digitalen Welt nachbilden kann. Eine besondere Atmosphäre und ein spezieller Charme mit einer bunten Mischung Menschen.

In den nächsten Wochen werde ich mich entscheiden, ob das mein Masterprojekt werden könnte. Auf der einen Seite halte ich die Idee nämlich für großartig, auf der anderen Seite könnte sie aber auch zu plump sein. Manchmal sind es jedoch die einfachen Dinge.

Quellen
  1. Vgl. Matthiessen, Stefan: »Am Büdche«, Über das Projekt, URL: http://www.ambuedche.de/projekt-am-buedche/, abgerufen am 29.12.2016.
Abbildungen
  1. Eigener Screenshot; Matthiessen, Stefan: »Am Büdche«, Karte, URL: http://www.ambuedche.de/projekt-am-buedche/, abgerufen am 29.12.2016.

Sketchisketch

Erst seit kurzem arbeite ich mit der SketchApp, welches bei mir – wie sicher bei vielen – Photoshop im Bereich Interface Design ablöst. Mit dem Tool arbeitet es sich nicht nur sehr viel effizienter, sondern vor allem die Webnähe sehe ich als eindeutigen Vorteil. Momentan sehe ich SketchApp klar vorne, jedoch frage ich mich, wie schnell und gut Adobe mit XD nachziehen wird.

Erst seit kurzem arbeite ich mit der SketchApp, welches bei mir – wie sicher bei vielen – Photoshop im Bereich Interface Design ablöst. Mit dem Tool arbeitet es sich nicht nur sehr viel effizienter, sondern vor allem die Webnähe sehe ich als eindeutigen Vorteil. Während man in Photoshop Ebene für Ebene anlegt, bearbeitet und im schlechtesten Fall später wieder Ebene für Ebene ändern muss, hält SketchApp einige Ansätze bereit, durch die die Arbeit sehr viel schneller zu erledigen ist.

So gibt es beispielsweise »Textstile«, die sehr nah am CSS sind. Damit kann man Stile für Elemente wie z. B. h1, h2, etc. anlegen und ihnen zuordnen. Vor allem im Hinblick auf spätere Abänderungen sieht man hier den großen Fortschritt gegenüber Photoshop.

Auffallend ist auch, dass die komplette Bearbeitungsleiste direkt auf die Arbeit im Web schließen lässt. So gibt es Borders, Shadows, Spacing oder Opacity. Alles Begriffe, die so auch im CSS auftauchen. Zwar können diese Eigenschaften auch in Photoshop angelegt werden, aber allein schon der Begriff »Kontur« anstelle von Border zeigt, dass die Software nicht primär für Interface Design entwickelt wurde, sondern nach der Ära von fireworks eher dafür missbraucht wurde.

Die Symbole sind für mich der größte Entwicklungsschritt. Man kann zentral Symbole anlegen, die zum einen dafür sorgen, dass man gewisse »Templates« für bestimmte Gestaltungselemente hat. Zum anderen können mit den Symbolen beispielsweise Zustände angelegt werden. Während man in Photoshop Zustände händisch oder maximal noch mit Ebenenstilen angelegt hatte, um sie dann umzustellen, kann man das bei SketchApp via DropDown ändern. Einmal richtig angelegt, kann ein Zustand z. B. Stück für Stück auf active oder inactive (oder jede Begrifflichkeit der Wahl) gestellt werden.

SketchApp arbeitet sehr eng mit Invision zusammen, was vor allem im Bezug auf Prototyping sehr hilfreich ist. So können die einzelnen Artboards bei Invasion hochgeladen werden und zu einem klickbaren Prototypen zusammengeschustert werden.

Insgesamt hat die Software auch eine ganze Reihe von guten PlugIns, die die Arbeit immens erleichtern. Allein schon PlugIns, die den Export für den Entwickler – inklusive assets – ermöglichen, helfen nicht nur der reibungslosen Übergabe, sondern auch dem Entwickler bei der späteren Arbeit.

Abschließend halte ich SketchApp für einen großen Fortschritt im Bereich Interface Design und bin sehr gespannt, ob Adobe XD das Ruder nochmal herumreißen kann. Im Moment scheint mir ersteres vorne zu liegen, doch bleibt es abzuwarten, was Adobe – mit sicher etwas mehr Budget – auf den Tisch zaubert.
Nach anfänglichen Umstellungsschwierigkeiten, habe ich doch sehr schnell in die Software gefunden und bin jeden Tag froh darüber, wie sehr meine Arbeit von SketchApp profitiert. Jetzt wenn man die Software kennt, fragt man sich, wieso es nicht schon viel früher diesen logischen Schritt gab.

UX Foundations: Research

Normalerweise finden Tutorials oder Kurse keinen Platz in meiner Dokumentation. Der Kurs »UX Foundations: Research auf lynda.com macht dabei eine Ausnahme, da er thematisch interessant für meinen Master sein könnte.

Normalerweise finden Tutorials oder Kurse keinen Platz in meiner Dokumentation. Der Kurs »UX Foundations: Research« auf lynda.com macht dabei eine Ausnahme, da er thematisch interessant für meinen Master sein könnte. Zu Beginn des Masters war es unsere große Aufgabe herauszufinden, was es überhaupt bedeutet zu forschen und uns selbst Methoden zu erarbeiten. Dafür habe ich mich zum einen mit dem Buch »101 Design Methods« sowie mit einzelnen Methoden im Fokus, z. B. den »Personas«, auseinandergesetzt.

Hier möchte ich nicht weiter auf bestimmte Methoden eingehen, sondern lediglich unkommentiert drei große Unterscheidungen festhalten, die Amanda Stockwell im Kurs trifft: quantitativ vs. qualitativ, Verhalten vs. Einstellung und moderiert vs. unmoderiert.

Die erste Kategorie ist sicher eine der bekannteren, da dies zwei große Unterscheidungsmerkmale in der Forschung sind. Quantitative Forschung zielt dabei auf numerische Daten, während die qualitative keine numerischen Daten hervorbringt. Beispiele für eine quantitative Vorgehensweise sind A/B-Tests oder Umfragen, die nicht meinungsbasiert sind. Die qualitative Seite fragt dabei nach dem Warum: Warum präferieren Nutzer das eine Produkt gegenüber dem anderen? Diese Art ist sehr stark von Subjektivität und Emotionen geprägt. Usability Tests oder Interviews sind Beispiele hierfür. Eine Kombination könnte in einer Umfrage stattfinden, wenn offene und geschlossene Fragen gestellt werden.1

Die zweite Unterscheidung zwischen Verhalten und Einstellung ist für mich die interessantere. Während bei ersterem Nutzer beobachtet werden und deren Verhalten bewertet wird, ist die Einstellung eine Frage der Meinung. Das bedeutet aber auch, dass Vorsätze oder Wünsche stark vom tatsächlichen Verhalten abweichen können, was wiederum keine zufriedenstellenden Ergebnisse für den Research im Bezug auf die Einstellung ergibt.
Ethnographische Studien, A/B Tests oder Eye-Tracking werden beispielsweise für das Verhalten, Umfragen oder Präferenztests für die Einstellung verwendet. Für letzteres wäre z. B. auch die Fragestellung nach den »Top XY« zuständig und wichtig. Das wäre über die Fragestellungen der Verhaltensforschung nicht abrufbar.2

Die letzte, eher uninteressante, Unterscheidung ist die zwischen moderierter und unmoderierter Forschung. Das bedeutet, wie vermutet werden kann, ob einzelne Methoden persönlich angewandt werden oder der Nutzer z. B. nur alleine einen Fragebogen ausfüllt.3

Quellen
  1. Vgl. Stockwell, Amanda: »UX Foundations: Research«, »2. Types of Research«, »Qualitative vs. quantitative research«, URL: https://www.lynda.com/User-Experience-tutorials/UX-Research-Fundamentals/439418-2.html, TC: 00:00:00–00:02:44, abgerufen am 14.12.2016.
  2. Vgl. Ebd., »Behavioral vs. attitudinal research«, TC: 00:00:00–00:01:50.
  3. Vgl. Ebd., »Moderated vs. unmoderated research«, TC: 00:00:00–00:01:38.

Präsentation IV

In meiner Präsentation stelle ich nicht nur das 2. Semester vor, sondern gebe auch einen oberflächlichen Überblick des 1. Semesters. In diesem Beitrag verweise ich auf die einzelnen Themen und Projekte.

In meiner Präsentation stelle ich nicht nur das 2. Semester vor, sondern gebe auch einen oberflächlichen Überblick des 1. Semesters. In diesem Beitrag verweise ich auf die einzelnen Themen und Projekte. Bei Bezugnahme auf Autoren mache ich hier keine Quellenangaben. Die Quellen sind im jeweiligen Beitrag angegeben.

Analyse grafischer Veränderungen

Im 1. Semester hatte ich im Großen und Ganzen zwei Schwerpunkte. Zum einen die Analyse der grafischen Veränderungen von Webseiten seit den 90er Jahren. Basierend auf Screenshots habe ich dabei die verändernden Text-Bild-Verhältnisse, sowie Interaktionen untersucht.
Das ist dahingehend sehr spannend, dass sich das Web und die Gestaltung durch neue technologische Möglichkeiten verändert haben, aber auch durch die Gesellschaft bzw. durch deren Nutzung und Ansprüchen stark beeinflusst wurden.
Web-Analyse: google.de seit 2001 »

Veränderte Internetnutzung

Mit der Nutzung des Internets beschäftigen sich auch die ARD-ZDF-Onlinestudien, mit denen ich mich auseinandergesetzt habe. Die Umfragen gibt es seit ca. 15 Jahren.
Nutzung von Bewegtbild (ARD/ZDF-Onlinestudie) »
Die Nutzung des Internets unterwegs (ARD/ZDF-Onlinestudie) »

Die Studien sind wiederum wichtig für meinen 2. Schwerpunkt, in dem es um Erzählformen geht bzw. um die Fragestellungen, welche neuen Erzählformen durch neue Medien entstehen können.

Netzkunst

Eine Erzählform, die oft nicht als solche wahrgenommen wird, ich aber sehr spannend finde, ist die Netzkunst. Aus meiner Sicht besitzt sie eine spezielle Ästhetik und arbeitet sehr mit dem Medium selbst. Es wird nicht einfach als zu füllender Platz missbraucht, sondern das Medium und die Technik selbst werden zum Teil der Erzählung gemacht. So z. B. die Frames bei Olia Lialinas »My boyfriend came back from war!«
Olia Lialinas »My boyfriend came back from the war!« »

Zusätzlich finde ich Künstler spannend, die im Netz mit dem Netz arbeiten wie z. B. Addie Wagenknecht. Sie hat generell kritische Arbeiten und eine Arbeit ist beispielsweise ein Diskurs zwischen webbasierten Erfahrungen (lolcatz, memes, gifs) und historisch geschlossenen Systemen, welche die physische Welt regieren. Das Internet ist nach ihr demokratischer Natur, aber kein demokratisches Medium. Sie stellt zudem fest, dass wir mehr auf die Bildschirme als aus unseren Fenstern schauen.
Von Dildodrohnen und lolzcat »

Trans- und crossmediale Erzählungen

Des Weiteren habe ich mich mit trans- und crossmedialen Erzählungen beschäftigt. Darunter auch »about:kate«, welche mit user-generated content und 2nd-Screen-Anwendungen gearbeitet hat.
About:Kate – »Wann haben Sie bemerkt, dass Sie nicht mehr wissen, wer Sie sind?« »

Film und Game

Mit »Fort McMoney« habe ich mich im Bereich Dokumentarspiel auseinandergesetzt. Es enthält viele Cut scenes, spielerisch erlangt man hier neues Wissen. Generell ist Gamification ein wichtiges Thema, denn das Spiel wird als neues Leitmedium angesehen.
Als Erzählform finde ich es an sich spannend, jedoch hat nicht jeder Interesse sich mühevoll durch einen Film oder das Spiel zu spielen.
Das Doku-Game »Fort MyMoney« von David Dufrense »

In Bezug auf die Kombination Film-Game habe ich eine Ausstellung im Filmmuseum Frankfurt besucht: »Film und Games. Ein Wechselspiel«, die genau diesen Aspekt beleuchtet. Schon Ende der 80er beeinflussen sich Game und Film gegenseitig, heutzutage verschmelzen die Medien noch mehr.
»Film und Games. Ein Wechselspiel.« im Filmmuseum Frankfurt

Neben dieser temporären Ausstellung im Filmmuseum, halte ich die allgemeine für sehr interessant. Vor allem mit Blick auf Geräte zur Wiedergabe von Bildern oder für die Erzeugung von Bewegtbildern. Teilweise erinnern sie an heutige Geräte. Generell hatte ich mich bereits mit Augmented und Virtual Reality beschäftigt. Hier hatte ich die Überlegung, ob nicht sogar eine Transformation aus dem Digitalen ins Analoge zu schaffen ist.
Mechanische GIF: Das Giphoscope »

Natürliche Art der Erzählung

Am Ende des 1. Semesters war meine Erkenntnis, dass sich alles Richtung »natürliche Art der Erzählung« entwickelt. Ähnlich wie vor der Schrift als alles noch dynamischer war. Dazu habe ich Parameter aufgestellt, welche solche Erzählungen erfüllen müssten:
Rückbesinnung auf eine natürliche Art der Erzählung »

Projekte: Eye-Tracking-Demo und Giphy-Experiment

In Bezug auf transparente Schnittstellen, entwickelte ich mit zwei Medientechnikern in einer sehr kurzen Zeit eine Eye-Tracking-Demo. Der einzige Anspruch war zu zeigen, was möglich ist. Das Thema »Mystery« war dabei nicht unbedingt meins, jedoch fand ich es spannend, an so einem Projekt mitzuarbeiten. Die großen Fragen waren, was geht und was nicht, was ist grafisch umsetzbar und wo sind die Grenzen.
Das verlassene Haus »

Des Weiteren habe ich mein Giphy-Experiment vorgestellt:
Erstes Experiment mit der giphy-Bibliothek »

Eine weitere Projektidee ist eine Erzählung zu entwickeln, die automatisch bebildert wird. Das widerspricht Byung Chul Hans These, dass Wissen narrativ und Informationen additiv sind. Von daher ist es aus meiner Sicht grundsätzlich nicht möglich, Narrationen automatisiert aus Daten zu generieren. Jedoch ist meine Überlegung die, eine Narration mit genauem Rahmen und exakten Parametern für Daten zu schaffen, um sich einer automatisch bebilderten Erzählung anzunähern.

Eine weitere Idee, die aus dem Giphy-Experiment entstanden ist, ist eine personalisierte Bildsprache zu entwickeln. Dabei müsste der große Datenpool auf dem eigenen Rechner genau getaggt und beschrieben oder zukünftig per Bilderkennung analysiert werden. Die eigene Sprache wird bei dieser Idee in Bilder übersetzt.

Loop-Erzählungen

Eine Loop-Erzählung mithilfe von giphy z. B. als Rauminstallation zu erarbeiten wäre ein weiterer Ansatz.
Dieser Ansatz ist meiner These aus dem 1. Semester, nämlich dass wir durch die Schrift sequentiell denken, sehr nahe. Wir sind als Europäer im Gegensatz zu orientalischen Ländern sehr linkshemisphärisch geprägt. Insgesamt denken wir sehr in Kausalitäten und alles hat einen zeitlichen Aufbau. McLuhan spricht davon, dass wir zunehmend in einer Welt der Gleichzeitigkeit leben und die Zeit aufgehört hat und der Raum verschwunden ist. Durch Loop-Erzählung wäre die Positionierung aufgelöst – es gäbe keinen klaren Zeitpunkt. Die Geschichte würde sich nach und nach – non-linear – erschließen.
Das globale Dorf – Raum, Zeit und Dynamik
Von Loops und der Hyper-Realität »

Interface und Interaction Design

Momentan sind all diese Ansätze auf Eis gelegt, um mich neu zu orientieren. Insgesamt finde ich nämlich sowohl das Web an sich als auch Medieninstallationen sehr spannend. Es wäre auch eine Kombination beider Medien denkbar.

Daher habe ich mich zunächst wieder darauf konzentriert, Beispiele für Weberzählungen zu finden.
Für das schönste Beispiel halte ich Species in Pieces: Eine interaktive Ausstellung »: Species in Pieces (Projekt) »

Des Weiteren habe ich mich mit Interaction Design beschäftigt. So z. B. mit Conversational User Interfaces, welche teilweise die graphischen Benutzeroberflächen ersetzen sollen. Zudem find ich den Ansatz der emphatischen Interaktion interessant, welcher sich darauf konzentriert, inwiefern Rückmeldungen für den Menschen wichtig und sinnvoll sind. Ein schönes Beispiel fand ich hier das eines Baggerfahrers, der jahrelang Bagger fährt und plötzlich eine Fernbedienung bekommt. Hier muss durch Rückmeldung wieder eine Verbindung zum Material aufgebaut werden.
CUI – Conversational User Interface »
Natural User Interface – Die unsichtbaren Schnittstellen »
Empathische Interaktion »

Medieninstallation

Abschließend stelle ich zwei Installationen von Markus Kison vor. Eine davon ist »Pulse« dessen Zentrum ein Gummiobjekt ist, das auf dessen acht Seiten die Grundemotionen des Menschen darstellt. Die Daten kommen dabei via APIs n Echtzeit aus WordPress-Blogs.
»Pulse« von Markus Kison »
»Touched Echo« von Markus Kison »

Der momentane Stand ist der, dass ich große Motivation habe eine Medieninstallation zu bauen, die in irgendeiner Form auf Echtzeitdaten zurückgreift. Dafür werde ich weiter recherchieren, um genaueres über Technologie und Medienechnik zu erfahren.

Abbildungen
  1. Titelbild: Studio SML: Projekte – Deutsches Filmmuseum Frankfurt, Änderung zum Zweck der Präsentation meiner Recherche: Headline sowie Quellenangabe, abgerufen am 30.1.2016.

API – application programming interface

Zur weiteren Recherche mache ich einen kurzen Exkurs zum Thema API. Das »application programming interface« interessiert mich vor allem in Hinblick auf eine Nutzung von Daten in Medieninstallationen.

Zur weiteren Recherche mache ich einen kurzen Exkurs zum Thema API. Das »application programming interface« interessiert mich vor allem in Hinblick auf eine Nutzung von Daten in Medieninstallationen. Markus Kisons Projekt »Pulse« dient mir dabei als ursprüngliche Inspiration.

Grundsätzlich sind APIs Schnittstellen, die es ermöglichen, dass zwei Einheiten miteinander kommunizieren. Auf eine Anfrage erhält man über die API eine Antwort vom jeweiligen Server. Die Seite www.programmableweb.com gibt dabei einen guten Überblick, was APIs sind, aber auch einen ausführlichen Einblick, welche Anbieter solche Schnittstellen bereitstellen. Viele der bekannten APIs wie z. B. die Facebook oder Twitter API sind sogenannte Rest Apis – Rest steht dabei für representational state transfer.
Für mich sind vor allem Echtzeit-Daten interessant, da die Nutzung für eine Medieninstallation hier am spannensten ist. So könnten abstrakte Daten in einer Installation verständlich visualisiert werden.

Wie das im Detail funktioniert konnte ich leider noch nicht herausfinden, bin jedoch auf die weiteren Ressourcen streamdata.io, »WebSockets – Methods for Real-Time Data Streaming« und socket.io gestoßen. Ob mir das letztendlich weiterhilft, muss ich in den kommenden Wochen recherchieren und klären.

Real-Time Data Streaming

Eine weitere Möglichkeit des Real-Time Data Streaming bietet die Verwendung von WebSockets. Hier liefert Steve Schwartz einen guten, ersten Einblick.

Ein weiterer Fund in meiner Recherche bezüglich verwendbarer Technologien für eine Medieninstallation sind WebSockets. Neben der Tatsache, dass man das Wort mal gehört hat, sind mir WebSockets in ihrer Funktion gänzlich unbekannt. Eine auf den ersten Blick gute Zusammenfassung veröffentlicht Steve Schwartz auf seiner Seite, die ich zu Recherchezwecken durcharbeiten möchte: WebSockets.
Eine mögliche Engine könnte auf folgender Seite zu finden sein: socket.io.

application programming interface

Nach wie vor recherchiere ich bezüglich der Form und möglichen Technologie einer Medieninstallation . Während Markus Kisons Projekt »Pulse« unter anderem auf Processing und einer WordPress.com-API, stoße ich auch bei der Recherche regelmäßig auf die Verwendung von APIs, um Echtzeit-Daten auszulesen. Hierzu möchte ich in der kommenden Zeit weiterarbeiten und -recherchieren.

Nach wie vor recherchiere ich bezüglich der Form und möglichen Technologie einer Medieninstallation (Formsuche »). Während Markus Kisons Projekt »Pulse« unter anderem auf Processing und einer WordPress.com-API, stoße ich auch bei der Recherche regelmäßig auf die Verwendung von APIs, um Echtzeit-Daten auszulesen. Zwar ist mir die grundsätzliche Bedeutung und Nutzung von APIs bekannt, jedoch habe ich noch keine Erfahrung damit, in welcher Form sie in den eigenen Code eingearbeitet werden und in welcher Form, die Information wieder – aus technischer Sicht – ausgegeben werden kann. Aus diesem Grund möchte ich mich hier in der nächsten Zeit in die Nutzung von APIs einarbeiten, um solche möglicherweise in meinem Projekt nutzen zu können. Als erste, interessante Quelle finde ich folgende Seite, die eine kleine Übersicht über Real-Time-APIs liefert: Real Time APIs. Mit dieser Seite möchte ich mich erstmal grundsätzlich über diverse APIs informieren, um dann selbst mit den ersten zu experimentieren.

Die Sonnenfabrik

Im Rahmen eines Blockseminars waren wir mit der Hochschule in der Julia Stoschek Collection, Düsseldorf. Die aktuelle Ausstellung ist Number Thirteen.

Im Rahmen eines Blockseminars waren wir mit der Hochschule in der Julia Stoschek Collection, Düsseldorf. Die aktuelle Ausstellung ist Number Thirteen.

Obwohl ich Medieninstallationen spannend finde, überzeugt mich diese Ausstellung voller Medieninstallationen nicht. Ohne die Installationen verurteilen zu wollen, da es innerhalb von 1-2 Stunden natürlich schwierig ist einen Zugang zu den Werken zu kriegen und Hintergründe zu erfahren, fällt mein persönliches Urteil schlecht aus.
Einzig »In mere spaces all things are side by side I« von Morehshin Allahyari innerhalb des Ausstellungsteils »Missed Connections« zog mich in den Bann. Das Projekt setzt sich mit der Limitierung von Technologie in Entwicklungsländern auseinander und zeigt einen Chatverlauf, welcher das Scheitern einer Beziehung abbildet. Das Scheitern ist der schlechten Zugänglichkeit zum World Wide Web zuzuschreiben, da eine vernünftige Kommunikation unmöglich wird.
»Factory of the sun« von Hito Steyerl zeigt eine dystopische Vorstellung, bei der Menschen zukünftig tanzen, um Licht zu erzeugen. Insgesamt wurde mir dieses Werk zu groß angepriesen und der Raum unnötigerweise als Holodeck verkauft.

Möglicherweise liegt dieses Urteil an den Werken selbst, möglicherweise an meinem Verständnis bzw. teils Unverständnis für die Kunst. Ich schätze absolut Design-Arbeiten mit künstlerischem Einfluss. Jedoch missfallen mir im generellen Arbeiten, die man ohne das Lesen der Beschreibungstexte nicht mal annähernd versteht.

Murmelbahn fürs Change Management

Für ein großes Unternehmen im Ruhrgebiet, bauen wir eine Murmelbahn in der Größe mehrere dutzend Quadratmeter. Tüfteln, streichen, sägen, schleppe, stellen, schrauben, … großer Spaß!

Wie bereits angekündigt, habe ich die Möglichkeit, bei einer Installation von milkmonkey mitzuarbeiten. Zum einen, um selbst einen Einblick in die Prozesse und Arbeit zu erhalten, zum anderen natürlich, um meine Arbeitsweise zu zeigen, da z. B. häufig im Team oder handwerklich gearbeitet wird.

Wir haben eine Murmelbahn in der Größe mehrerer dutzend Quadratmeter für ein großes Unternehmen im Ruhrgebiet gebaut, welche die Veränderungen und Prozesse im Betrieb darstellen sollte. Die Bahn unterstützt die Mitarbeiter dabei, diese zu verstehen und sich ihnen anzunähern. Alles in allem habe ich nur die letzten drei Tage mitgearbeitet und war bei der ersten konzeptionellen Phase nicht dabei. Im zweiten Werkelteil hieß es jedoch auch tüfteln, streichen, sägen, schleppen, stellen, schrauben, brechen, kleben und ich habe wieder einmal bemerkt, wie glücklich tagelanges, handwerkliches Arbeiten doch macht. Großer Spaß!

Ursprung der Codes: Die gesprochene Sprache

Die westliche Kultur befindet sich im großen Umbruch, ausgelöst durch die Fortschritte der Technologie. Veränderte Koden, verändern unsere Art zu denken grundlegend. Wie sieht die Zukunft aus?

In meinen vorherigen Beiträgen »Das globale Dorf – Raum, Zeit und Dynamik« sowie »Von der Kultur, die statisch wurde« setzte ich mich bereits mit der Tatsache auseinander, dass die Linearität das Denken in unserem Kulturkreis maßgeblich beeinflusst hat. Meine abschließende Erkenntnis war die, dass sich diese Linearität aufzulösen scheint und unsere Lebenswelt weniger festgezurrt und dynamischer wird.
Sicher wird die Zukunft unserer Kultur durchweg von Algorithmen bestimmt, die sehr wohl eindeutig sind. Jedoch wird das Denken des Menschen sehr viel flexibler sein und grundlegend verändert werden.

Vilém Flusser bringt in Bezug darauf beispielsweise vor, dass wir »nicht mehr Daten zu lernen haben, sondern das zweckmäßige Speichern, Abberufen und Variieren von Daten. Nicht mehr das Repertoire, sondern die Struktur von Systemen. Dieses Prozessieren von Daten, das bisher von der Notwendigkeit der Datenerwerbung gebremst war, heißt ›Kreativität‹, und es ist daher mit einer wahren Explosion der menschlichen Kreativität zu rechnen«1.

Dieser Ansatz Flussers ist vor 30 Jahren schätzungsweise revolutionär, heute im Jahr 2017 sind wir schon mitten im Umbruch. Die Denkweise in unserem Kulturkreis wird bereits auf das Verstehen von Strukturen getrimmt, während wir wissen, dass wir beispielsweise nichts mehr zwingend auswendig lernen müssen. Alles ist abrufbar, die Suchmaschine Google ist nur ein beispielhaftes Werkzeug hierfür. Man muss nicht mehr die Information selbst kennen, es genügt zu wissen, wie wir sie abrufen können. Diesen Ansatz habe ich bereits in diversen Beiträgen verfolgt und halte ihn nach wie vor für eine der grundlegendsten Veränderung unserer Zeit. Dieser Fortschritt der Technologie, unterstützt weiter die Aussage Flussers, dass jede Revolution technisch ist.2 Nicht irgendeine Ideologie, sondern die Technik veränderte unsere Lebenswelt und unser Denken in den letzten Jahrzehnten entscheidend.

Eine weitere maßgebliche Veränderung wird laut Flusser durch die Veränderung der Koden ausgelöst: »Die Veränderung wäre tiefgreifend, weil unser Denken, Fühlen, Wünschen und Handeln, ja sogar unser Wahrnehmen und Vorstellen, in hohem Grad von der Struktur jenes Codes geformt werden, in welchem wir die Welt und uns selbst erfahren. Wir sind ›westliche Menschen‹, weil unsere ›forma mentis‹ von der Linearität des alphanumerischen Codes ausgebildet wurde. Sollten unsere Kinder und Enkel die Welt und sich selbst mittels anders strukturierter Codes (etwa mittels technischer Bilder wie Fotos, Filme und Fernsehen, und mittels Digitalisation) erfahren, dann wären sie anders in der Welt als wir es sind, und als es unsere Vorfahren waren«3. Dieser Aussage möchte ich ein weiteres Zitat zur Auseinandersetzung hinzufügen: »Nun verfügen wir, seit Urzeiten, über einen Code, nämlich über die gesprochene Sprache, welcher diese Aufgabe leistet«4.

Koden dienen grundsätzlich der Kommunikation, aus meiner Sicht unabhängig davon, ob zwischen Menschen oder Menschen und Maschinen. In »Conversational User Interfaces« und »Natural User Interfaces – Die unsichtbaren Schnittstellen« sehe ich daher Ansätze, die seine Denkweise nicht nur bestätigen, sondern weit darüber hinaus gehen. Zudem werden Voice User Interfaces (VUI) immer populärer. Mit VUIs erhalten wir meiner Ansicht nach nicht nur eine zusätzliche Art der Mensch-Maschine-Kommunikation, sondern wir kommen zurück zum ursprünglichen Code – der gesprochenen Sprache.
Insgesamt drängt sich mir hier die Frage auf, wie zukünftige User Interfaces aussehen könnten, wenn sie denn überhaupt noch »aussehen«. Amazons Alexa oder Apples Siri sind nur zwei Beispiele für ein sprachgesteuertes Gerät bzw. sprachgesteuerten Assistenten. Während Siri auch visuell reagiert, existiert Alexa ausschließlich auf der auditiven Ebene. Unter dem Strich können Alexa und Siri alle Fragen gestellt werden.
Mein Problem damit ist momentan noch das, dass ich mir nicht vorstellen kann, wie eine Welt basierend auf Audio Interfaces aussehen könnte. Nach meinem Verständnis müsste man zumindest wissen, welche Informationen vorhanden sind, um die entsprechende Antwort zu erhalten. Ein reines Stöbern oder zufälliges auf Informationen stoßen wären damit ausgeschlossen. Daher stellt sich die nächste Frage, inwiefern Audio Interfaces tatsächlich andere Interfaces ersetzen und ob sie nur als zusätzliche Variante dienen könnten.

Quellen
  1. Röller, Nils; Wagnermaier, Silvia (Alle Hg.): »absolute Vilém Flusser«, Freiburg 2003, S. 171.
  2. Vgl. Ebd., S. 157.
  3. Ebd., S. 71.
  4. Ebd., S. 74.
Abbildungen
  1. Titelbild: Lecourt, Pierre: »Amazon Echo«, abgerufen am 7.11.2016, Lizenz: CC BY-NC-SA 2.0.

Gegen das Absolute

Inwieweit wird es in Zukunft noch das Absolute geben? Ist alles relativ und im stetigen Wandel? Bleibt alles ein langer Prozess?

»absolute Vielem Flusser«, herausgegeben von Nils Roller und Silvia Wagnermaier, enthält neben Essays von Villem Flusser unter anderem ein Gespräch zwischen dem Medienphilosophen und Florian Rötzer aus dem Jahr 1991. Ein Zitat Flussers halte ich dabei für besonders interessant: »Mir gefällt das Wort ›virtuell‹ gar nicht, weil es unter anderem viele Macho-Konnotationen hat. Da es keine nicht-virtuelle Realität gibt, da Realität nur ein Grenzbegriff ist, dem wir uns nähern und den wir nie erreichen können, kann ich von alternativen Weisen des Erreichen von Realität sprechen.«1

Diesen Gedanken finde ich insofern spannend, da häufig der Unterschied zwischen nicht-virtueller und virtueller Realität gemacht wird. In meinem Beitrag »Erkenntnisse und Eindrücke: Luciano Floridis Buch ›Die 4. Revolution‹« beschäftigte ich mich bereits in Bezugnahme auf Luciano Floridi mit der Unterscheidung dieser zwei Zustände. Floridi, dessen Buch jedoch grob 35 Jahre später erschien und somit eine ganz anderen Perspektive besitzt, spricht davon wie innerhalb der Infosphäre Virtuelles und Nicht-Virtuelles verschwimmen.2 Unter anderem deshalb, da die vermeintliche Wirklichkeit auch von Menschenhand geschaffen ist.3

Diese Ansicht Floridis konnte ich voll und ganz nachvollziehen. Nun erscheint mir Flussers Aussage jedoch zunehmend schlüssiger. Zwar hatte Flusser damals sicher nicht die leiseste Ahnung, was das World Wide Web und die Technologie im generellen noch mit sich bringen werden. Doch entspricht diese Ansicht viel mehr der heutigen Lebenswelt, die noch weniger als früher in schwarz und weiß aufzuteilen ist. Weiter fordert er im gleichen Gespräch, dass wir immer relative Begriffe haben und uns abgewöhnen müssen, mit absoluten Begriffen zu arbeiten.4
Dem Absoluten widerspricht auch Dr. Markus Gabriel, der in seinem Buch »Warum es die Welt nicht gibt« klar macht, dass es nicht die eine Welt gibt und sie in Sinnfelder einteilt.

Unabhängig vom World Wide Web, ist es heutzutage nicht nur möglich, sondern auch anerkannt, dass jeder Menschen seinen eigenen Lebens­entwurf verwirklicht. Jeder Mensch hat dabei seine eigenen Sinnfelder, Realitäten und Wahrnehmungen, welche er ohne Umschweife jederzeit wieder ändern oder parallel leben kann. Bei Facebook ist es nun möglich aus über 50 Geschlechtern zu wählen, was bedeutet, dass in unserer Gesellschaft selbst physische Eigenschaften relativ geworden sind. Des Weiteren richtet sich die komplette Industrie danach, den individuellen Bedürfnissen, Lebensentwürfen und Wirklichkeiten gerecht zu werden. Es gibt im Grunde nichts, was man nicht haben oder tun kann.

Es ist noch immer utopisch zu denken, dass absolut jeder alles machen und ausleben kann. Doch spielen frühere, feste Strukturen, sei es in der Familie oder bei den Themen Bildung und Beruf, eine immer kleinere Rolle. Die Strukturen werden aufgebrochen, die Welt wird relativ und das »Virtuelle« gehört genauso zu unserer Realität wie das, was wir im allgemeinen Gebrauch als Nicht-Virtuell ansehen. So gehören algorithmische Maschinen in die gleiche Lebenswelt wie die Natur an sich.

In einem weiteren Gedanken, stellt sich mir die Frage, ob es das Absolute auch im Hinblick auf Designprodukte überhaupt noch geben wird oder alles ein stetiger Prozess bleibt. Zwar sind analoge Flyer nach wie vor fertige Produkte, doch neben sich ohnehin stetig verändernden digitalen Produkten, werden schon viele analoge Produkte mit dem Nicht-Absoluten ausgestattet. Bücher enthalten Links oder Augmented Reality-Inhalte. Manche sind sogar so konzipiert, dass sie stets erweiterbar sind. Aus meiner Sicht sind das nur Hybridmedien, die irgendwann den nächsten Schritt machen werden. Dorthin, wo nichts mehr absolut und in Stein gemeißelt ist. Dieser Ansatz, dass nichts absolut und alles in Bewegung ist, wird mich sicher noch weiter in meiner Masterarbeit begleiten.

Quellen
  1. Rötzer, Florian: »Gespräch mit Florian Rötzer, München 1991« in: Röller, Nils; Wagnermaier, Silvia (Alle Hg.): »absolute Vilém Flusser«, Freiburg 2003, S. 11 f.
  2. Vgl. Floridi, Luciano: »Die 4. Revolution – Wie die Infosphäre unser Leben verändert«, Berlin 2015, S. 9.
  3. Vgl. Ebd., S. 329.
  4. Vgl. Rötzer, Florian: »Gespräch mit Florian Rötzer, München 1991« in: Röller, Nils; Wagnermaier, Silvia (Alle Hg.), »absolute Vilém Flusser«, Freiburg 2003, S. 13.

Formsuche

Nach der Entscheidung, dass mein Master-Projekt möglicherweise eine Medieninstallation werden könnte, lote ich zur Zeit aus, welche Parameter mir bei der Form wichtig sind.

Nach der Entscheidung, dass mein Master-Projekt möglicherweise eine Medieninstallation werden könnte, lote ich zurzeit aus, welche Parameter mir bei der Form wichtig sind. Sehr spannend finde ich Installationen, bei der eine Transformation von virtuellen Inhalten in mechanische Objekte stattfindet. Bestenfalls basieren die Projekte zusätzlich auf theoretischen Inhalten. Vor kurzem habe ich beispielsweise das Projekt »Pulse« von Markus Kison vorgestellt, welches in einem Objekt, die Gefühlswelt von WordPress-Blogs widerspiegelt. Die Arbeit, welche aus meiner Sicht eine hervorragende Kombination aus Technik, digitaler und mechanischer Welt, theoretischer Basis, gesellschaftlicher Komponente und – durch die Offenlegung der Technik – toller Ästhetik ist, inspiriert mich ungemein.

In den nächsten Schritten möchte ich weitere Installationen kennenlernen und auch ihre technische Entwicklung durchleuchten. So kann ich nicht nur einen eigenen Ansatz entwickeln, sondern bestenfalls auch eine grobe Idee bezüglich der technischen Realisierung erhalten.

Gesucht – gefunden.

Wie im Einzelgespräch angekündigt, hat mir Professor Dr. Stefan Asmus ein Treffen mit Alain Yimbou organisiert. Das Gespräch war sehr inspirierend und motivierend und fühlt sich wie ein großer Schritt in die richtige Richtung an.

Wie im Einzelgespräch angekündigt (Entwicklung einer Medieninstallation ») hat mir Professor Dr. Stefan Asmus ein Treffen mit Alain Yimbou organisiert, das heute in den Räumlichkeiten von milkmonkey stattfand. Im Großen und Ganzen war das Gespräch zum ersten Kennenlernen gedacht. Ich habe jetzt einen Einblick in die Vision, die innerhalb der riesigen Räumlichkeiten verwirklicht werden soll und eine Idee davon, welche eigenen Möglichkeiten ich haben werde. Alles in allem war es für mich ein sehr hilfreiches, inspirierendes und motivierendes Gespräch, da ich im Anschluss das Gefühl hatte – so klischeehaft es sich auch anhört –, genau das gefunden zu haben, was ich davor – sogar noch im Bachelor – gesucht habe. Zum einen spielen dabei natürlich sympathische Menschen und tolle Räumlichkeiten eine Rolle, zum anderen das Interesse für ähnliche Themenkomplexe, die sich mit jedem Gespräch erweitern und bereichern können.
Ich bin sehr gespannt, wie sich das nun weiter entwickelt und bin schon jetzt sehr dankbar für den unheimlich wertvollen Tipp von Stefan Asmus und das sehr gute, erste Gespräch mit Alain Yimbou. Möglicherweise kann ich in den kommenden Wochen an einer ersten Medieninstallation mitarbeiten, um einen Einblick in den Entwicklungsprozess zu erhalten.

Entwicklung einer Medieninstallation

In meinem gestrigen Einzelgespräch mit Professor Dr. Stefan Asmus, haben sich unabhängig vom inhaltlichen Schwerpunkt zwei zentrale Punkte herauskristallisiert, die ich hier festhalten möchte.

In meinem gestrigen Einzelgespräch mit Professor Dr. Stefan Asmus, haben sich unabhängig vom inhaltlichen Schwerpunkt zwei zentrale Punkte herauskristallisiert.
Zum einen, dass ich als Master-Projekt möglicherweise eine Medieninstallation entwickeln werde. Zum anderen möchte mich Dr. Stefan Asmus mit dem UX-Designer und Künstler Alain Yimbou vernetzen, der auch an der Hochschule Düsseldorf lehrt und unter anderem in den Bereichen Digitale Transformation, Big Data oder KI forscht.

Wichtig war für mich im Vorfeld des Gesprächs die Vorbereitung (Wiederkehrende Themen, Schlagwörter und Ziele »), die nicht nur das Festhalten des Status quo beinhaltet, sondern auch konkrete Gedanken bezüglich meiner Ziele nach dem Studium zusammenfasst. So dass der Master nicht nur ein weiterer Abschluss sein wird, sondern ein deutlicher Schritt auf dem Weg zum Ziel. Das Gespräch war dabei möglicherweise schon richtungsweisend in Bezug auf mein Abschluss-Projekt.

Wiederkehrende Themen, Schlagwörter und Ziele

Für mein nächstes Einzelgespräch mit Professor Dr. Stefan Asmus bereite ich eine Übersicht vor, die undetailliert zeigt, mit welchen Themen ich mich seit dem 1. Semester beschäftigt habe. Wichtigster Bestandteil ist dabei die Auseinandersetzung damit, welche Themen und Schlagwörter wiederkehrend auftauchen, sowie mein persönliches Ziel für die Zeit nach meinem Master.

Für mein nächstes Einzelgespräch mit Professor Dr. Stefan Asmus bereite ich eine Übersicht vor, die undetailliert zeigt, mit welchen Themen ich mich seit dem 1. Semester beschäftigt habe. Wichtigster Bestandteil ist dabei die Auseinandersetzung damit, welche Themen und Schlagwörter wiederkehrend auftauchen, sowie mein persönliches Ziel für die Zeit nach meinem Master. Da ich in den ersten zwei Semester gefühlt in 1000 Richtungen recherchiert habe, soll mir diese Übersicht dabei helfen, selbst einen Überblick zu bekommen. Dadurch erhoffe ich mir, dass mir klar wird, welche Themen mir tatsächlich am Herzen liegen und welche nur Seitenausläufer sind.

Im Folgenden eine Übersicht der wiederkehrenden Themen, Schlagwörter sowie mein perönliches Ziel.

Wiederkehrende Themen

Webkunst


Abbild der Kultur, Kritik, Trends, Technologie (Umgang mit Medium an sich), Ästhetik

Medienkunst

Visualisierung von virtuellen Vorgängen, spezielle Art der Erzählweise (Technologie)

Erzählung


Primär auf technologischer Ebene: Welche neuen Medien werden wie genutzt? Was ist möglich? Was kann an »Trends« genutzt werden.

Interfaces

Transparente Schnittstellen, neue Art der Kommunikation

Das WWW


Entwicklung, gesellschaftliche Rolle, Veränderung seit Beginn, sowohl durch Technologie als auch durch die Rolle. Welche Technologien kann man für Darstellung nutzen.

Realität–Virtuelle Welt


Verschwimmen der realen und virtuellen Welt, Frage nach Wahrheit, Realität, Fiktion, etc.


Auflösung Zeit/Raum


Rund um Marshall McLuhan, sequentielles Denken, Gleichzeitigkeit.

Mensch–Maschine

Wiederkehrende Schlagwörter

Kultur, Gesellschaft, Technologie, Interfaces, Infosphäre, Web seit Beginn an, Netzkunst, Medienkunst, Realität/Fiktion

Ziel

· GUI-/UI-/UX-Design/Konzeption
· Teilweise auch technischer Part

Neuer Raum – neue Zeit: Neu denken

Das Digitale definiert räumliche und zeitliche Gegebenheiten nicht nur neu, sondern stellt sie gänzlich auf den Kopf. Eine einfache Übertragung von Nicht-Virtuellem ins Virtuelle erfüllt dabei nicht alle Ansprüche. Die Virtuelle Welt muss neu erdacht werden.

In meinem Beitrag »Das globale Dorf – Raum, Zeit und Dynamik« ging es im Zusammenhang mit Marshall McLuhan bereits um die Auflösung von Raum und Zeit. Dort gehe ich schon im Detail auf seine Ausführungen ein.

Nach wie vor fällt es mir schwer, die im orientalischen und asiatischen Raum vorherrschende Denkweise nachzuvollziehen. Während ich als abendländischer und sequentiell denkender Mensch, Information strukturell einordne, führt die Prägung durch die rechte Gehirnhälfte dazu, dass dort Geschehnisse und Prozesse in gleichzeitige Beziehung gesetzt werden.

Zwar war mir durch McLuhan damals schon klar, dass Information unabhängig von Raum und Zeit transportiert werden kann und sich dadurch beide auflösen. Das Buch »Kultur der Digitalität« von Felix Stalder lässt mich jedoch erst jetzt verstehen, inwiefern sich die abendländische Denkweise an die asiatische anpassen wird und was die Auflösung von Zeit und Raum bedeuten kann.

Wörtlich schreibt Felix Stadler folgendes: »Der raumzeitliche Horizont der digitalen Kommunikation ist eine globale, das heißt ortlose Dauergegenwart. Die technische Vision der digitalen Kommunikation ist immer das Hier und Jetzt. Bei verzögerungsloser Informationsübertragung ist alles, was nicht ›hier‹ ist, unerreichbar und alles, was nicht ›jetzt‹ ist, verschwunden«1. Des Weiteren beschreibt er, dass versucht wird eine »endlose globale Gegenwart« herzustellen.2

Diesen Absatz finde ich in zweierlei Hinsicht sehr spannend. Zum einen macht es mir wie bereits erwähnt verständlicher, was die Auflösung von Zeit und Raum bedeuten kann: Zeitliche und räumliche Grenzen werden binnen Millisekunden überwunden, was unserer gewohnten Welt und Physis widerspricht. Zwar bewegen wir uns immer schneller fort, doch die Vision des Beamens, spricht einer ähnlich schnellen Überwindung von Zeit und Raum innerhalb von Millisekunden, bleibt bisher nur eine große Sci-Fi-Utopie.
Zum anderen besteht das Internet aus dem Hier und Jetzt. Neben Stalders genannten Punkten bedeutet das: Vergangene Inhalte spiegeln zwar bedingt eine zeitliche Abfolge wider, aber durch den digitalen Gedächtnisverlust – mit dem ich mich näher in »Die Hypergeschichte« auseinandersetze – bedeutet das nicht zwingend, dass das Internet eine geschichtliche Abfolge anzeigt. Im Gegenteil: Durch Datenverlust (sei es durch Löschung oder Nichtüberführung in neue Technologien), Überspeicherung und Veränderung tritt ein Zustand der Geschichtslosigkeit sowie eine immer währende Gegenwart ein. Im Gegensatz zu meiner damaligen Vermutung bin ich nun überzeugt davon, dass nachfolgende Generationen durchaus eine gewisse geschichtliche Abfolge nachvollziehen können. Damit große Ereignisse und allgemeine Errungenschaften einfach so verloren gehen, müsste sehr viel passieren. Für viel problematischer halte ich es jedoch zwischenzeitlich für Inhalte, die nicht von allgemeiner Wichtigkeit sind. Unabhängig von Content-Art, sei es Firmen-Website, Portfolio oder soziales Netzwerk sehe ich riesige Verluste, wenn diese gelöscht werden. Für uns ist es heute eine einfache Überarbeitung der Website, da man die alte nicht mehr für zeitgemäß oder schön hält. Für die Zukunft bedeutet das ein fehlendes Teil Geschichte. Wenn man bedenkt, dass für die heutige historische Forschung jede Banalität wie z. B. Essbesteck von großer Bedeutung ist, um frühere Zustände zu rekonstruieren, ist dieser Gedanke nicht zu unterschätzen und meiner Meinung nach sogar extrem wichtig.

Abschließend möchte ich noch auf die Bibliothek Europeana zu sprechen kommen, die mir bereits bekannt war und von Stalder kurz angerissen wird. Er führt aus, dass in dem Archiv Schätzungen zu Folge vierzig Millionen Objekte vorhanden sind und insgesamt in den »europäischen Archiven und Museen mehr als 220 Millionen natur- und 260 kulturgeschichtliche Objekte«3 lagern. Zum einen hält er es für problematisch, dass es »schwer festzustellen ist, ob ein bestimmtes Werk, eine entscheidende Referenz fehlen, wenn an seiner oder ihrer Stelle eine Fülle anderer gefunden wird«4. Zum anderen merkt er an, dass sich einzelne Objekte aus ihrer übergeordneten Narration lösen, die das Museum oder Archiv hergestellt haben. Dadurch werden sie zum einen bedeutungsoffener und zudem besteht der einzige Zusammenhang zwischen Suchanfrage und die durch Suchalgorithmen gefundenen Ergebnisse.5
Ersteres hinterfragt die Vollständigkeit. Wird es gelingen alle Objekte digital zugänglich zu machen? Meine persönliche Meinung: Ja. Aus meiner Sicht ist es nur eine Frage der Zeit. Für Probleme, die es in diesem Zusammenhang gibt, z. B. rechtliche Hürden, wird es langfristig eine Lösung geben. Zudem sollte es ein Anliegen aller sein, kulturelle Objekte für alle zugänglich sowie konservierbar zu machen.
Dass sich die Objekte aus ihrer Narration lösen, halte ich für ein viel größeres Problem. Sicherlich kann man einzelne, nicht-virtuelle Gegebenheiten ins Digitale bringen, doch eine komplette Übertragung halte ich für fast unmöglich. So kann man beispielsweise bestimmten Werke auch im Digitalen ihren Platz in bestimmten Sammlungen geben, bei der Übertragung von Orten bin ich jedoch sehr kritisch. Ob ein Werk im Guggenheim-Museum in Bilbao oder im Pariser Louvre steht, macht manchmal durchaus einen Unterschied. Das einfach nur zu wissen, reicht aus meiner Sicht nicht aus. Daher wird es an dieser äußerst Stelle wichtig werden, nicht nur eine einfache Digitalisierung zu vollziehen, sondern eine tatsächliche Transformation. Die Orte Museum und Archiv müssen komplett neu gedacht werden.

Insgesamt hat mich Stalders Buch nicht begeistert, da es mir trotz vorgestellter Struktur teilweise als lose Sammlung sämtlicher digitaler Themen vorkam. Dennoch konnte ich zum einen Antworten auf Fragen finden und zum anderen hat es mich in vielerlei Hinsicht zu neuen Fragen inspiriert. Allein dafür hat sich das Buch zur Recherche definitiv gelohnt.

Quellen
  1. Stalder, Felix: »Kultur der Digitalität«, Berlin 2016, S. 147.
  2. Vgl. Ebd.
  3. Ebd., S. 107.
  4. Ebd., S. 112.
  5. Vgl. Ebd., Berlin 2016, S. 115.

Schöne simulierte Welt

Dass wir Menschen in einer Computersimulation leben, ist kein neuer Gedanke. Durchforscht man das Internet, findet man jahrealte Artikel, die sich mit diesem Themen beschäftigen und es können sogar schon winzig kleine Stücke simuliert werden. Aus diesem Grund war einer meiner Gedanken, diesen Ansatz für mein Master-Projekt zu übernehmen.

Dass wir Menschen in einer Computersimulation leben, ist kein neuer Gedanke. Durchforscht man das Internet, findet man jahrealte Artikel, die sich mit diesem Thema beschäftigen und es können sogar schon winzig kleine Stücke simuliert werden. Aus diesem Grund war einer meiner Gedanken, diesen Ansatz für mein Master-Projekt zu übernehmen. Bisher ist dabei nur eine lose Ideensammlung entstanden, wie diese Welt aussehen könnte.

Der Steigbügel im Ohr – der kleinste Knochen des Menschen – wäre das Herzstück der Simulation. Er ist die Quelle aller Impulse und der Mensch wird unbemerkt über ihn gesteuert. Da die DNA des Affen zu fast 100 % der des Menschen ähnelt sind wir damit – als nicht allzu hoch entwickelte Primaten– einfach nur Affen mit Chips. Als Belohnung für unser Durchhaltevermögen im Spiel des Lebens gibt es Goodies und neu freigespielte Level: So z. B. Aufklärung, Freiheit oder auch einfach nur Facebook und Skype. Systeme wie Facebook oder WordPress-Blogs, generell das World Wide Web, sind interne Spielboards über die sich die Spieler austauschen können. Diese Systeme wurden – verbunden mit einem Riesenhype – nachträglich implementiert. Neben Goodies kann man des weiteren im Level steigen, in der die Spielewelt immer komplexer wird. Man erhält mehr Informationen, ist mehr Gefahren ausgesetzt und das Spiel wird schneller. Die Schwierigkeitskurve steigt. Nach einem GameOver startet man an einer anderen Stelle neu, innerhalb des Spiels wird es in manchen Teilen Wiedergeburt genannt. Durch Fehler im Gesamtsystem kommen die Einwohner der Simulation auf die Spur und werden durch eine Ausschüttung lustiger Gadgets abgelenkt bis das System repariert wird. Ausartende Vergnügen und lustige Memes auf ihren Boards reichen dabei bisher aus. Absurderweise sorgen sich die Teilnehmer über Dinge wie den Datenschutz, obwohl sie selbst aus Programmcode bestehen, den Wissenschaftler geschrieben haben und ihnen somit nicht gehört.

Diese ersten Ideen sind noch nicht ausgereift, bieten mir jedoch eine Grundlage für weitere Recherchen und Überlegungen. Zusätzlich möchte ich mich mit den Theorien des Parallel- und Blockuniversums sowie des Multiversums beschäftigen.

Leben in der Matrix

Leben wir in einer simulierten Realität? Ein beeindruckender Gedanke, der niemals zu Ende gedacht werden kann.

Durch den Artikel »Geheime Forschung: Zwei Tech-Milliardäre wollen raus aus der ›Matrix‹«1 auf t3n kam ich auf die Idee diese Vorstellung der simulierten Realität als inhaltlichen Anhaltspunkt meiner Master-Arbeit zu verwenden. In meinen ersten Recherchen finde ich häufig die Erklärung, dass wir es natürlich nicht merken würden, wenn wir tatsächlich in einer Art Simulation leben.

Ein sehr spannendes Argument stammt dabei von Elon Musk, welches besagt, dass man in 10000 Jahren eine Simulation, wie die unserer Welt, auf einer Milliarden Geräten spielen kann, wenn sich die Technik im gleiche Tempo weiterentwickelt wie bisher.2 Demnach könnten wir eine simulierte Realität, ein Computerspiel, unserer eigenen Zukunft sein. Dieser Gedanke ist zum einen nicht nachweisbar, zum anderen beinahe unvorstellbar. Jedoch umso spannender, wenn man versucht sich diese Möglichkeit tatsächlich vorzustellen. In einem weiteren Artikel möchte ich kommende Rechercheergebnisse, sowie erste Ideen festhalten.

Quellen
  1. Vgl. Brien, Jörn: »Geheime Forschung: Zwei Tech-Milliardäre wollen raus aus der ›Matrix‹«, Stand: 7.10.2016, URL: http://t3n.de/news/forschung-tech-milliardaere-matrix-753287/, abgerufen am 7.10.2016.
  2. Vgl. Schroeder, Patrick: »Elon Musk: Unser Leben ist wahrscheinlich eine Computersimulation«, Stand: 6.6.2016, URL: http://www.ingenieur.de/Panorama/Am-Rande/Elon-Musk-Unser-Leben-wahrscheinlich-Computersimulation, abgerufen am 7.10.2016.

Dokumentation in Buchform

Zur Zeit beginne ich damit, meine Dokumentation als Buch zu gestalten. Zwar gehört Buchgestaltung nicht zu meinen Schwerpunkten, jedoch möchte ich meine Texte gern als Printversion vorliegen haben.

Zur Zeit beginne ich damit, meine Dokumentation als Buch zu gestalten. Zwar gehört Buchgestaltung nicht zu meinen Schwerpunkten, jedoch möchte ich meine Texte gern als Printversion vorliegen haben. Dieser Schritt ist nicht als eine Art Sicherung gedacht, da ich es natürlich auch digital mehrfach sichern könnte.
Möglicherweise liegt es daran, dass ich als Jahrgang 1986 nicht vollständig in einer digitalen Welt aufgewachsen bin, so dass mir die materielle Form einen besseren Überblick über meine geleistete Arbeit gibt. So sehr ich die Online-Welt auch liebe, mag ich es sehr gerne ein Buch von Text zu Text für Seite um Seite wachsen zu sehen. Das Buch wird das erste Jahr meines Masters beinhalten und umfasst voraussichtlich 200–300 Seiten. In einem 2. Buch werden später die Inhalte meines 2. Master-Jahrs zu finden sein.

Mechanische GIF: Das Giphoscope

Auf der diesjährigen dmexco in Köln stellt VICE die Amazin’ GIF machine vor. Zwar verstehe ich bis heute nicht, was es damit auf sich hat, stoße bei der Recherche jedoch auf das Giphoscope. Das wiederum erinnert mich an meinen Besuch im Filmmuseum Frankfurt.

Auf der diesjährigen dmexco in Köln stellt VICE die Amazin’ GIF machine vor. Leider ist die Maschine, in der Zeit in der ich dort bin, außer Betrieb und im Internet werde ich leider auch nicht wirklich fündig. Somit weiß ich bis heute nicht, was es damit auf sich hat, stoße bei meiner Suche jedoch auf das giphoscope (the creators project ») von Alessandro Scali und Marco Calabrese. Das giphoscope ermöglicht es überall – sogar ohne Computer – GIFs zu sehen, wenn man an der Kurbel des giphoscopes dreht. Laut Zach Sokol, dem Autor des Artikels, ist es von Herman Casler’s Mutoskope inspiriert1.
Bereits in einem früheren Artikel, habe ich nach einem Besuch im Filmmuseum über frühere Technologien zur Erzeugung von Bewegtbildern berichtet (»Film und Games. Ein Wechselspiel« im Filmmuseum Frankfurt »). Hierunter fiel auch das Mutoskop sowie andere Apparaturen wie beispielsweise das Stereoskop, die der Google Cardboard sehr ähneln. Ich war angespornt mit diesen analogen Techniken zu experimentieren, was ich jedoch bis heute nicht gemacht habe. Mein Gedanke war dabei die Übertragung einer alten Technik in die heutige Zeit. Scali und Calabrese gingen mit dem giphoscope den entgegengesetzten Weg, indem sie eine heutige, digitale Technik, in eine analoge, abgewandelte Technik von früher überführen. Alles in allem finde ich das Experiment sehr spannend und inspirierend und nehme es deshalb in meine Recherchesammlung auf.

Quellen
  1. Vgl. Sokol, Zach: »The Giphoscope Allows You To Bring GIFs Anywhere You Want, Even Without Your Computer«, Stand: 18.11.2013, URL: http://thecreatorsproject.vice.com/blog/the-giphoscope, abgerufen am 28.9.2016.

CUI – Conversational User Interface

Welche Vorteil bietet das Conversational User Interface zu graphischen Benutzeroberflächen? Sind Einkäufe innerhalb von Messenger-Diensten tatsächlich die Zukunft?

Welchen Vorteil bietet das Conversational User Interface gegenüber graphischer Benutzeroberflächen? Sind Einkäufe innerhalb von Messenger-Diensten tatsächlich die Zukunft? Durch diverse Artikel im Internet bin ich auf Conversational User Interfaces aufmerksam geworden. Was sich auf den ersten Blick spannend anhört, möchte ich im zweiten Schritt genauer überprüfen. Daher möchte ich mich im kommenden weiter mit CUIs auseinandersetzen und innerhalb meiner Dokumentation davon berichten.

»Pulse« von Markus Kison

Durch Markus Kisons Arbeit »Touched Echo« habe ich eine weitere Arbeit namens »Pulse« entdeckt. Die theoretische Grundlage bildet dabei die Emotionstheorie von Robert Plutchik aus dem Jahr 1980, welcher acht grundlegende menschlichen Emotionen beschreibt.

Durch Markus Kisons Arbeit »Touched Echo« habe ich eine weitere Arbeit namens »Pulse« entdeckt. Die theoretische Grundlage bildet dabei die Emotionstheorie von Robert Plutchik aus dem Jahr 1980, welcher acht grundlegende menschlichen Emotionen beschreibt. Dazu gehören Freude, Vertrauen, Angst, Überraschung, Trauer, Ekel, Wut und Erwartung. Mit dieser theoretischen Ausgangslage entwickelt er ein flexibles Objekt, das in 24 Bereiche aufgeteilt ist und welches auf Daten privater WordPress-Blogs zugreift und reagiert. Wenn ein Tag oder Synonym der Emotion im Netz erwähnt wird, ändert sich dementsprechend das Objekt und ist somit eine Echtzeit-Visualisierung der virtuellen Emotionswelt.

Pulse von Markus Kison
Das in 24 Bereiche aufgeteilte, flexible ObjektII

Selbst wenn ich die technische Umsetzung noch nicht durchschaut habe, halte ich das Projekt für eine beeindruckende Transferleistung, die ihren Anfang in der Theorie genommen hat. Das hilft mir vor allem bezüglich meines Masterthemas, da man an dieser Arbeit gut erkennen kann, dass die Theorie einen maßgeblichen Anteil an ihr besitzt und nicht nur als theoretische Ausschmückung innerhalb der Dokumentation dient. Zwar ist das ein bereits beschriebener Weg, den wir bestenfalls innerhalb des Masterstudios gehen sollten, dennoch fällt es mir schwer die Theorie nicht nur als Beiwerk zu sehen. Nicht weil ich die Theorie nicht schätze, sondern gerade weil ich theoretische Hintergründe sehr schätze. Die Vorstellungen davon ist meist nur sehr unkonkret und deshalb hilft mir die Arbeit sehr im Hinblick auf die Praxis.

Abbildungen
  1. Titelbild: Kison, Markus: »Pulse overall view«, abgerufen am 23.7.2016, Lizenz: CC BY-NC-SA 2.0.
  2. Kison, Markus: »pulse«, abgerufen am 23.7.2016, Lizenz: CC BY-NC-SA 2.0.

Digitale Transformation

Inwiefern kann ein Gestalter sowohl im UX-, als auch im UI-Design für die Orientierung des Nutzers innerhalb der digitalen Umgebung sorgen? An welcher Stelle werden Prozesse tatsächlich vereinfacht, wo auch langfristig verkompliziert? Oder steht gerade das für eine nicht funktionierende digitale Transformation?

Zunehmend hört man vom Begriff der digitalen Transformation. Doch was bedeutet das tatsächlich für den Gestalter? Inwiefern kann ein Gestalter sowohl im UX-, als auch im UI-Design für die Orientierung des Nutzers innerhalb der digitalen Umgebung sorgen? An welcher Stelle werden Prozesse tatsächlich vereinfacht, wo auch langfristig verkompliziert? Oder steht gerade das für eine nicht funktionierende digitale Transformation?

Aus meiner Sicht benötigt der Nutzer sinnvolle Orientierungspunkte innerhalb des Prozesses und eine intuitive Bedienung, um sich zurechtzufinden. Des Weiteren sind Kontaktpunkte wichtig, die ihn mit der Anwendung so sehr verbinden, so dass sie nicht wie ein zu bedienender »Fremdkörper« wirkt. Des Weiteren halte ich es für einen fatalen Fehler, Prozesse aus dem analogen einfach kopieren zu wollen.

Momentan ist die digitale Transformation noch ein großer Begriff dessen volles Verständnis mir noch schwer fällt. Jedoch möchte ich mich mit diese Fragen und Gedanken weiter auseinandersetzen.

HAL 9000 in »2001: Odyssee im Weltraum«: Eine menschliche, künstliche Intelligenz.

Im Rahmen des Kurses »Realität und Gestaltung im Film« bei Dr. phil. habil. Hyun Kang Kim und Christine Reeh im Sommersemester 2016, ist das Thema unseres Vortrags »2001: Odyssee im Weltraum.« Der Vortrag wurde von sechs Studierenden gehalten. Ich übernahm dabei
zusammen mit einer anderen Studentin den Bordcomputer HAL 9000.

Im Rahmen des Kurses »Realität und Gestaltung im Film« bei Dr. phil. habil. Hyun Kang Kim und Christine Reeh im Sommersemester 2016, ist das Thema unseres Vortrags »2001: Odyssee im Weltraum.« Der Vortrag wurde von sechs Studierenden gehalten. Ich übernahm dabei
zusammen mit einer anderen Studentin den Bordcomputer HAL 9000.

Den Vortrag, über den es bereits einen Beitrag innerhalb der Dokumentation gibt (2001: Odyssee im Weltraum – HAL 9000), habe ich in einer Hausarbeit weiter ausgearbeitet.

HAL9000 in »2001: Odyssee im Weltraum«: Eine menschliche, künstliche Intelligenz.

Inspiration für die Entwicklung einer Medieninstallation

Jakob Behrend stellt in seinem Buch »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter« Geräte zur Ein- und Ausgabe, sowie Verarbeitung vor. Des Weiteren legt er offen, mit welcher Hard- und Software die vorgestellten Projekte realisiert wurden.

Schon mehrmals habe ich für mich interessante Arbeiten aus dem Buch »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter« von Jakob Behrend vorgestellt. Für besonders hilfreich halte ich dabei, dass Behrends offenlegt, welche Hard- und Software für das jeweilige Projekt genutzt wird. Des Weiteren erstellt er eine Übersicht verschiedener Geräte zur Ein- und Ausgabe, sowie Verarbeitung.
Da für mich die Entwicklung einer Medieninstallation auch in Frage kommt und ich mich sehr für die Transformation digitaler Inhalte in die mechanische Welt interessiere, bildet seine Übersicht1 eine sehr gute Grundlage für weitere Recherchen. So kann ich mir beispielsweise den Einsatz von Berührungssensoren oder leitfähiger Farbe sehr gut vorstellen und ich bin motiviert erste Experimente damit durchzuführen.

Quellen
  1. Vgl. Behrends, Jakob: »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter«, Stuttgart 2015, S. 190–207.

Ästhetische Veränderung des World Wide Web als Werkzeug der Erzählung durch Technologie

Zu Beginn meiner Masterarbeit war einer meiner Ansätze, die Veränderung des Webs seit Beginn an zu untersuchen. Wichtig war mir dabei die Untersuchung der Symbiose zwischen dem WWW und der Gesellschaft. Ein neuer Ansatz beschreibt die Überlegung, inwiefern sich das World Wide Web als Werkzeug der Erzählung durch technologische Entwicklungen ästhetisch verändert.

Zu Beginn meiner Master-Arbeit war einer meiner Ansätze, die Veränderung des Webs seit Beginn an zu untersuchen. Wichtig war mir dabei die Untersuchung der Symbiose zwischen dem WWW und der Gesellschaft. Während ich mich in den letzten Monaten auf andere Fragestellungen und Ansätze fokussiert habe, rückt diese Überlegung zurück ins Zentrum, da ich regelmäßig feststelle, dass ich dieses Thema unheimlich spannend finde.
In meiner anfänglichen Fragestellung (Erste Fragestellung meiner Master-Arbeit ») ging es darum, inwiefern sich die Gestaltung im World Wide Web und die Veränderung der Gesellschaft durch das World Wide Web gegenseitig beeinflussen. So führt beispielsweise eine veränderte Nutzung, ausgelöst sowohl durch das WWW als auch durch neue Technologien, wiederum zu neuen Gestaltungsansätzen im Web. Neue, intuitivere Gestaltungsansätze beispielsweise treiben wiederum die engere Verschmelzung zwischen Mensch und Technik an, indem grafische und technologische Hürden abgebaut werden.

Die ästhetische Veränderung des Webs

Die beschriebene Überlegung ist sehr weit gefasst, so dass es aus meiner Sicht unmöglich ist, sämtliche gesellschaftliche und technologische Veränderungen der letzten 25 Jahre in ein konkretes Projekt zu überführen. Aus diesem Grund begrenze ich mich zunächst auf den technologischen Aspekt. Diese Eingrenzung schließt zwar zum einen gesellschaftliche Themen nicht komplett aus und ist zum anderen noch immer sehr allgemein gefasst. Jedoch bin ich überzeugt, dass eine schrittweise Eingrenzung und erneute, überlegte Ausweitung meines Themenkomplexes, zum Ziel führen wird.

Ich konzentriere mich dabei auf die ästhetische Veränderung des World Wide Webs als Werkzeug der Erzählung durch technologische Entwicklungen. Nach wie vor, interessiert mich dabei ein Teil der Netzkunst im Web. Aus meiner Sicht werden durch die vermeintlich nichtkommerziellen Projekte häufig die Möglichkeiten und Grenzen von Ästhetik und Technologie radikaler ausgelotet. Zum einen besitzen sie eine sehr eigene, spannende Ästhetik zum anderen eine sehr besondere Anmutung. Das kann natürlich auch bei kommerziellen der Fall sein, jedoch halte ich es für unwahrscheinlich, dass beispielsweise ein Kreditinstitut eine Webseite zur Eigenwerbung präsentiert, die sämtliche Grenzen der konventionellen Gestaltung überschreitet.
Im Weiteren möchte ich mich mit den angesprochenen Punkten auseinandersetzen, um dann weitere Eingrenzungen oder Ausweitungen vorzunehmen, sowie eine Richtung innerhalb meiner Master-Arbeit festzulegen.

the surface: Resümee

Das Projekt »the surface«, das Teil der Ausstellung »Planet B – 100 Ideen für eine neue Welt« im NRW-Forum sein konnte, wurde von den Besuchern gut angenommen. Es löste wie erhofft Diskussionen aus und wurde als radikalstes Konzept der Ausstellung wahrgenommen.

Das Projekt »the surface«, das Teil der Ausstellung »Planet B – 100 Ideen für eine neue Welt« im NRW-Forum sein konnte, wurde von den Besuchern gut angenommen. Es löste wie erhofft Diskussionen aus und wurde als radikalstes Konzept der Ausstellung wahrgenommen.

Schon von Weitem konnte der monotone Sound wahrgenommen werden, der die gedrückte Stimmung der geloopten Videos unterstrich. Diese Atmosphäre passte hervorragend zu unserem dystopischen Ansatz und insgesamt funktionierte das Ausstellungskonzept weitaus besser als ursprünglich angedacht. Die Entscheidungen mit Sound und mehreren Bildschirmen – anstelle nur eines Bildschirms – zu arbeiten, waren dabei die wichtigsten.

Abschließend sind wir sehr zufrieden mit dem Ergebnis und denken darüber nach »the surface« noch einmal in einem anderen Kontext auszustellen. Interessant wäre dabei die Wirkung des Projekts, wenn es abgelöst vom Gesamtkontext zugänglich ist. Sprich ohne das Wissen, dass »eine Idee für eine neue Welt« gesucht wurde, sowie ohne weitere Projekte in unmittelbarer Nähe, die die weltferne Stimmung sicherlich stark unterstützt haben.

See the World in a New Light

Für meine Recherche habe ich mich sehr auf das Buch »GUI Design : [interface, interaction, application, icon, button, typeface, themes]« von Felix Ma gefreut. Leider wurden meine Erwartungen nicht erfüllt, da sich das Buch überraschenderweise zum einen hauptsächlich aus Beispielen zusammen setzt und ich diese zum anderen überwiegend nicht einmal für gute halte.

Für meine Recherche habe ich mich sehr auf das Buch »GUI Design : [interface, interaction, application, icon, button, typeface, themes]« von Felix Ma gefreut. Leider wurden meine Erwartungen nicht erfüllt, da sich das Buch überraschenderweise zum einen hauptsächlich aus Beispielen zusammen setzt und ich diese zum anderen überwiegend nicht einmal für gute halte. Selbst der Blick auf das Erscheinungsjahr 2015 hilft mir nicht weiter. Ich hatte gehofft, dass das Buch schon ein paar Jahre älter ist und die negative Überraschung etwas gedämpft wird. Eine weitere Erklärung könnte die sein, dass das Buch in Hong Kong erschienen ist und sicherlich eine andere Art von Gestaltung als schön empfunden wird.

Nichtsdestotrotz kann ich zumindest ein Beispiel vorstellen, dass mir sehr gut gefällt. Eine iPad-App (See the World in a New Light ») der israelischen Designerin Yael Cohen zeigt uns die Wirkung des Lichts auf unserem Planeten. Ich persönlich konnte die App zwar noch nicht testen, soweit ich es jedoch verstehe, bezieht sich die App auf ausgewählte, öffentliche Räume. Dort kann man mittels der App die Gegend fotografieren und mehr Informationen über das Licht – auch bezogen auf den jeweiligen Ort und die Zeit – erhalten.

Abbildungen
  1. Einbau von Vimeo; Yael Cohen: »See the world in a new light‹«, URL: https://vimeo.com/36784613, TC: 00:00:19, abgerufen am 7.8.2016.

the surface

Auf Grundlage der hochkomplizierten Berechnung eines Algorithmus wurde entschlossen, die Schwächen des Planeten auszumerzen. Daraufhin entwickelten die besten Wissenschaftler eine innovative Technologie, die den Fortbestand der Menschheit sichern soll: „the surface“. Mit Hilfe der Megastructure wird schon in naher Zukunft die Oberfläche des Planeten bedeckt werden und alle lebensnotwendigen Bedürfnisse des Menschen erfüllen.

Die Menschheit sieht sich durch den Klimawandel und die damit einhergehenden Klimakatastrophen, der Überbevölkerung, die zunehmend zu Wohnraumknappheit führt und den zunehmenden Verbrauch lebenswichtiger Ressourcen wie Wasser und fossiler Brennstoffe mit scheinbar unlösbaren Problemen konfrontiert.

Derzeit wächst die Weltbevölkerung pro Sekunde um 2,7 Personen. Daraus ergibt sich ein Jahreszuwachs von 83.686.000 Menschen. Durch dieses rasante Wachstum vergrößern sich neben der dramatischen Verknappung von Ressourcen und Wohnraum sowohl die kulturellen als auch wirtschaftlichen Spannungen zwischen verschieden Ländern bzw. Bevölkerungsgruppen.
Die Bekämpfung von Umweltverschmutzung und -belastung verschlingt jährlich Milliarden Dollar. Das zunehmend unwirtliche Klima vieler Regionen auf der Erde erschwert das Erschließen von Lebensraum für den Menschen und schlägt sich in Form von Missernten und Naturkatastrophen negativ nieder.

Ausstellungsaufbau »the surface«
Ausstellungsaufbau »the surface«II

Unser Planet kann in seiner derzeitigen Verfassung den Anforderungen des modernen Menschen nicht mehr gerecht werden. Das System Natur hat den Zenit seiner Effizienz erreicht und lässt trotz seiner nicht zu leugnenden kulturellen und historischen Bedeutung die Frage nach dem rationalen Kosten-Nutzen-Verhältnis offen.

Auf Grundlage der hochkomplizierten Berechnung eines Algorithmus wurde entschlossen, die Schwächen des Planeten auszumerzen. Daraufhin entwickelten die besten Wissenschaftler eine innovative Technologie, die den Fortbestand der Menschheit sichern soll: „the surface“. Mit Hilfe der Megastructure wird schon in naher Zukunft die Oberfläche des Planeten bedeckt werden und alle lebensnotwendigen Bedürfnisse des Menschen erfüllen. Die global vereinheitlichte Verfügbarkeit von „the surface“ ermöglicht allen Menschen einen gerechten Zugang zu den Ressourcen des Planeten. Gleichzeitig wird der Planet von seiner größten Schwäche befreit: der Natur. „the surface“ verkörpert in seinem Kubikmeter die perfekte Abstimmung aller notwendigen Ressourcen: Energie, Wasser, Sauerstoff, Nahrung, Licht und Internet.

Der Text wurde von Felix Vorbeck und Ines Wingenbach für das Projekt geschrieben.

Abbildungen
  1. Titelbild: Die Collage und das Foto (II) wurden von Jonas Möllenbeck erstellt.

the surface: Sound als weitere Komponente

Die Architektenpläne, der Kubus und die Videos sind fertig. Wir haben uns dazu entschieden, dass Sound eine weitere Komponente in der Ausstellung sein wird.

Die Architektenpläne sind gestern angekommen, unbeschnitten und ungefalzt. Bis in die Nacht hat es gedauert bis wir alle Pläne fertig hatten, auch die Videos sind zwischenzeitlich final. Katherina und Ümmü haben den Kubus geschliffen, mit dem Plexiglas verklebt und die LED-Leiste eingebaut. Dass die LED-Leiste auf ein Audiosignal reagiert, hat in der Kürze der Zeit leider nicht mehr funktioniert. Nichtsdestotrotz haben wir uns dazu entschieden, dass Sound eine weitere Komponente der Ausstellung sein wird. Dadurch wird die Dystopie »the surface« unserer Ansicht nach weiter in seiner Wirkung unterstützt. Um den Sound habe ich mich gekümmert.

Der Sound

Für den Sound hat mir ein Freund von Bryan (antisketches bei Soundcloud ») einige Dateien zur Verfügung gestellt. Ich nutze davon nur einen Sound, der als Basis dient. Für alle weiteren Töne habe ich Dateien von freesound.org verwendet, die unter der CC0-Lizenz verfügbar sind.
Den Sound habe ich auf etwa 30 Minuten erweitert, in der Ausstellung wird er als Loop abgespielt. Zu Beginn wird unser Projekttext von einer in Adobe Audition erstellten Computerstimme gesprochen. In der übrigen Zeit erklingen regelmäßig – neben dem fast schon meditativen Basissound – Geräusche, die an Rechenoperationen erinnern. Das unterstreicht den algorithmischen Charakter des Kubus.

the surface: Die ersten fertigen Produkte

Nur noch vier Tage bis Ausstellungsbeginn. Der Architektenplan ist im Druck und der Kubus, der noch weiter bearbeitet werden muss, gegossen. Die Filme werden bald fertig sein und Bryan sucht nach einer Lösung, das LED auf Sound reagieren zu lassen.

Der Architektenplan für »the surface« ist zwischenzeitlich im Druck und der Würfel soweit gegossen. Er muss morgen noch mit einer Steinsäge und Schleifpapier weiter bearbeitet werden und wir hoffen, dass das Plexiglas gut mit dem Würfel verklebt werden kann. Bryan arbeitet währenddessen an einer Möglichkeit, das LED-Licht auf Umgebungs-Sound reagieren zu lassen. Thao organisiert die Ausstellung und koordiniert alles, damit wir am Samstag den Transport und Aufbau gut über die Bühne bekommen und es ab Sonntag losgehen kann.

Kubus »the surface«
Ein gegossener Teil des Kubus (Foto: Katharina Kleinert)

Das erste Video ist nun auch finalisiert und neben dem Export des reinen Algorithmus wird von meiner Seite noch ein Film, in dem verschiedene Naturkatastrophen zusammengeschnitten werden, fertig gestellt. Bryan arbeitet weiter an Videos, die zeigen wie »the surface« die Erdoberfläche überzieht, sowie an fiktiven Berechnungen, wie sich die Welt zukünftig verändert. Besonders gut gefallen mir dabei die Angaben, inwieweit z. B. die Erdkrümmung korrigiert oder der Erdkern gereinigt wurde. Zusätzlich wird er noch eine Slideshow erstellen, die alle Grafiken zeigt.


Passwort: surface

Das Video habe ich an Hand meines Storyboards umgesetzt, die animierten 3D-Grafiken innerhalb des Films hat Jonas erstellt.

Inzwischen ist klar, dass anstelle eines angedachten Videos ein ganzes Sammelsurium von Videos entsteht. Damit bekommt der Video-Part zum einen mehr Gewicht. Zum anderen denke ich, dass es in der Ausstellung mächtiger wirkt, wenn mehrere Bildschirme mit vielen Videos bespielt werden, anstelle von einem auf einem Bildschirm, wie anfänglich geplant.

Wenn es stimmt, sollten bald die Architektenpläne eintreffen, die wir dann noch von Hand falten müssen. Sonst kann es bald losgehen!

»Touched Echo« von Markus Kison

Durch Jakob Behrends Buch »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter« wurde ich auf Markus Kisons Arbeit »Touched Echo« aufmerksam, die sehr spannend und eindrücklich umgesetzt ist.

Durch Jakob Behrends Buch »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter« wurde ich auf Markus Kisons Arbeit »Touched Echo« aufmerksam.

Die Grundlage der Arbeit bilden Soundaufnahmen aus dem Jahr 1945, als deutsche Städte im 2. Weltkrieg nieder gebombt wurden. Das Audiomaterial wird dabei erst übertragen, wenn sich der Besucher mit den Ellenbogen auf ein mit selbstgebauten Schalleitern präpariertes Geländer abstützt und sich mit den Händen die Ohren zuhält. Technisch ist das durch eine Knochenleitung möglich, die für Hörgeräte entwickelt und verwendet wird. Wie Kison auf seiner Projektseite beschreibt, nimmt der Besucher dadurch eine natürliche Haltung ein, die die Menschen wohl auch damals unter anderem eingenommen haben: Eine gebeugte Haltung mit zugehaltenen Ohren, um sich vor der Lautstärke der Angriffe zu schützen.

Neben der technischen Umsetzung, halte ich das Gesamtkonzept für herausragend. Geschichte wird damit erlebbarer gemacht und der Besucher wird gezwungenermaßen in eine ähnliche – wenn natürlich auch unbedrohte – Situation versetzt. Ohne es selbst ausprobieren zu können, schätze ich, dass die Arbeit einen hohen Grad an Immersion mitbringt und die geschichtliche Auseinandersetzung – im Gegensatz zu ein paar Postern – tatsächlich stattfindet. Des Weiteren beeindruckt mich wie hier Medienkunst und Geschichte miteinander verschmelzen. »Touched Echo« halte ich deshalb im Bereich der digitalen Medienkunst für sehr inspirierend.

Abbildungen
  1. Kison, Markus: »Touched Echo Osnabrueck«, abgerufen am 23.7.2016, Lizenz: CC BY-NC-SA 2.0.

Planet B: Start der Umsetzung

Heute haben wir uns zum ersten Mal für die Umsetzung von »the surface« getroffen. Der Arbeitstitel bleibt dabei der richtige Titel mit dem wir nun ausstellen wollen. Wir haben nun noch eine Woche Zeit unsere Ideen weiter zu konkretisieren und umzusetzen.

Heute haben wir uns zum ersten Mal für die Umsetzung von »the surface« getroffen. Der Arbeitstitel bleibt dabei der richtige Titel mit dem wir ausstellen wollen. Wir haben noch eine Woche Zeit, unsere Ideen weiter zu konkretisieren und umzusetzen.

Das Objekt: Der Kubus

Der Kubus ist der Mittelpunkt der Ausstellung, da er alles beinhaltet, was auf Planet B die Grundbedürfnisse der Menschheit abdeckt. Wie zuvor angesprochen sollte er eine nahezu perfekte Oberfläche haben, um eine auratische Ausstrahlung zu erzeugen. Zu Beginn waren mehrere LEDs angedacht, die die einzelnen Bedürfnisse und deren Ladestatus anzeigen sollten. Zwischenzeitlich haben wir uns dazu entschieden, dass wir nur eine LED-Farbe verwenden, die einen kompletten Teil des Würfels einnimmt, anstelle kleiner Schlitze.
Für den Kubus sind Katherina Kleinert und Ümmü Ünal verantwortlich, die bis heute schon ein 3D-Modell angefertigt haben.


»the surface« | 3D-Modell
»the surface« | 3D-Modell von Katherina Kleinert und Ümmü Ünal

Als Material wird für den Stein schwarze Fugenmasse verwendet, für den blauen Zwischenpart Plexiglas, hinter das anschließend ein blaues LED-Licht geschalten wird.
Kathe und Ümmü haben heute die Gussform hergestellt, um den Würfel nach dem Wochenende gießen zu können. Des Weiteren haben sie mit der Fugenmasse experimentiert, um die richtige Konsistenz für das Objekt zu finden.

Corporate Design und Grafiken

Wir entscheiden uns, kein vollständiges Corporate Design zu entwickeln. Es wird lediglich einzelne Elemente geben, die wiederkehrend auftauchen. Dazu gehört zum Beispiel weißer Text auf schwarzer Fläche und die Grundfarbe Blau (0, 0, 255), während sonst alles schwarz-weiß erscheinen wird. Die Bildwelt wird ein Sammelsurium aus veränderten Tabellen und Grafiken bilden, die mit blauen Elementen angereichert werden. Darum kümmern sich Bryan Mischling, Jonas Möllenbeck, Thao Tran und Ines Wingenbach.

Printmedien

Nachdem wir anfänglich mit mehreren Printmedien geplant hatten, gestalten wir nun nur eine Ausstellungsinformation, die in Form eines Architektenplans gedruckt wird. Darauf erscheint unser Ausstellungstext sowie eine Auswahl der erstellten Tabellen und Grafiken. Den Plan setzen Jonas, Thao und Ines um.

Text

Der Text erklärt das Projekt »the surface«, erwähnt jedoch nicht, dass es eine von uns erschaffene Dystopie darstellt. In der Ausstellung möchten wir die Vorstellung, es könnte sich um eine ernst zu nehmende Technologie handeln, aufrechterhalten. Dadurch erhoffen wir uns, dass eine Diskussion über die Dystopie selbst und nicht über deren Umsetzung entfacht wird. Den vorläufigen Text hat Felix Vorbeck geschrieben, während Ines ihn weiter entwickelt und finalisiert hat.

Film

Für den Film, der auf einem Bildschirm neben dem Kubus im NRW-Forum abgespielt werden soll, habe ich bis heute ein erstes animiertes Storyboard entwickelt. Das Storyboard ist noch nicht grafisch ausgearbeitet, sondern stellt den grundsätzlichen Verlauf dar. Des Weiteren werden wahrscheinlich einige Elemente, wie z. B. die Person neben dem Code gestrichen. Den Film werde ich umsetzen, während Jonas die animierten 3D-Modelle bauen wird. Durch das Storyboard ist die Idee entstanden, den Algorithmus auf einem 2. Bildschirm zu zeigen.


Passwort: storyboard

Des Weiteren wird Bryan animierte 3D-Sequenzen erstellen, die zeigen, wie sich »the surface« auf der Erde und dessen Gelände ausbreiten wird. Aus diesem Grund haben wir heute gemeinschaftlich entschieden, dass es nicht nur 1–2 Bildschirme geben wird, sondern bestenfalls eine Videowand aus 3–4 Bildschirmen, auf denen die Videos zufällig wiedergegeben werden.

Das wird schon

Wir haben noch eine Woche, um das Projekt umzusetzen und es ist noch viel zu tun: Gestalten, entwerfen, entwickeln, gießen, drucken, schneiden, kleben, organisieren, besorgen. Aber nachdem wir vor einer Woche nicht einmal sicher waren, ob das noch klappt, wissen wir nun: Das wird schon!

Generation mitten im Wandel

Im Rahmen meiner Recherche habe ich bereits wichtige Erkenntnisse des Buchs »The digital turn – Design in the Era of Interactive Technologies« festgehalten. Zwei weitere Essenzen finde ich im Essay »The end of the word as we know it» von Lustlab, sowie »Digital Culture: From open design to creating your own future« von Susanne Stauch.

Im Rahmen meiner Recherche habe ich bereits wichtige Erkenntnisse des Buchs »The digital turn – Design in the Era of Interactive Technologies« festgehalten (Empathische Interaktion »).

Zwei weitere Essenzen finde ich im Essay »The end of the word as we know it« von Lustlab, sowie »Digital Culture: From open design to creating your own future« von Susanne Stauch.

Unsere Fähigkeiten gehen durch den digitalen Wandel nicht verloren

Lustlab spricht über den aktuellen Wandel, dem vor allem auf Papier geschriebene Bücher zu Lasten fällt. Doch selbst, wenn diese nicht mehr da sein werden, wird noch immer »die Fähigkeit Geschichten aufzuzeichnen, mit geschriebener Sprache zu kommunizieren und Geschichten zu erzählen überleben«. Des Weiteren verändert sich zwar unsere Art zu lesen, doch noch »nie zuvor haben wir mehr gelesen und geschrieben als jetzt.« Zwar ist der Weg kürzer und informeller, doch pro Sekunde werden Millionen von E-Mails, Textnachrichten, Facebook-Updated oder Tweets geschrieben.1
Diese Essenz ist nicht revolutionär, doch halte ich sie für eine spannende Perspektive, die man meist nicht einnimmt. Häufig macht sich eher das schlechte Gewissen breit, nicht ausreichend (Bücher) zu lesen. Des Weiteren spricht Lustlab davon, dass unsere Erwartungen an den Wandel und die Technologie sehr zwiespältig sind: Zum einen möchten wir, dass uns Aufgaben abgenommen werden und vieles automatisiert wird, andererseits fordern wir die Fähigkeit der Individualisierung.2

Mitten im Wandel

Diese Massen-Individualisierung nimmt auch Stauch in ihrem Essay auf. Diesen Punkt erwähne ich vor allem deshalb, weil sich eine Generation und ein Zeitgeist häufig erst rückblickend sehen und verstehen lässt. Zwar kennen wir alle die Bewegungen der letzten Jahre, doch scheint das Ausmaß dieses Wandels erst aufgezählt und niedergeschrieben an Gewicht zu gewinnen.
Sie spricht davon, dass sich die kreative Avantgarde, die junge Generation, kritisch auflehnt und eine Haltung des Anti-Establishment einnimmt. Wie sie recyclebares Design entwickelt, Objekte reparieren möchte anstelle sie wegzuschmeißen. DIY und alte Handwerkskunst werden wieder beliebt, Open-Source-Projekte, Co-Working und File Sharing sind weit verbreitet. Es gibt urbane Guerilla-Aktionen, Flashmobs und vieles mehr, was uns als Designer dazu zwingt, Dinge zu überdenken, uns selbst neu zu positionieren und das wahre Potential des offenen und kritischen Denkens in unsere Arbeitsmethoden einfließen zu lassen.3
Des Weiteren spricht sie sinngemäß davon, dass die Aufgabe des Designers viel weiter geht als die des reinen »Aufhübschens«: Neben Themen wie Nachhaltigkeit (Umweltverträglichkeit, Lebenszyklen oder Materialität), reflektieren wir die Usability und Nutzerfreundlichkeit interaktiver Produkte und sollten neben dem technischen Verständnis bestenfalls noch Kenntnisse über Psychologie oder Soziologie mitbringen.4 Zwar bestand die Arbeit des Designers noch nie aus reinem Aufhübschen, doch die Themenfelder scheinen aus meiner Sicht zu wachsen und komplexer zu werden.

Stauch versucht damit die aktuelle Lage zu reflektieren, in der wir im »globalen Dorf« in einer Zeit des Teilens und der Gemeinschaft leben, selbst wenn es sich häufig nicht so anfühlt. Es ist ein Wandel im Gang und die Themengebiete der Designarbeit sind sehr komplex und unheimlich spannend. Es stehen jede Menge Möglichkeiten offen und es ist viel Platz und Bedarf für Innovationen, um diesen Wandel sowohl zu bewerkstelligen als auch weiterzutreiben.

Quellen
  1. Vgl. Lustlab: »The end of the word as we know it«, in: Junge, Barbara; Eds.: Zane, Berzina; Scheiffele, Walter; Westerveld, Wim; Zwick, Carola, »The digital turn – Design in the Era of Interactive Technologies«, Berlin 2012, S. 13.
  2. Vgl. Ebd., S. 15.
  3. Vgl. Stauch, Susanne: »Digital Culture: From open design to creating your own future«, in: Junge, Barbara; Eds.: Zane, Berzina; Scheiffele, Walter; Westerveld, Wim; Zwick, Carola, »The digital turn – Design in the Era of Interactive Technologies«, Berlin 2012, S. 263.
  4. Vgl. Ebd.

Alles nur geklaut

Das Buch »Alles nur geklaut« von Austin Kleon gehört zwar nicht konkret in die Recherche meiner Master-Arbeit. Da es jedoch viel über die generelle Arbeit als Kreativer erzählt, sollte es einen Platz in meiner Dokumentation finden.

Das Buch »Alles nur geklaut« von Austin Kleon gehört zwar nicht konkret in die Recherche meiner Master-Arbeit. Da es jedoch viel über die generelle Arbeit als Kreativer erzählt, sollte es einen Platz in meiner Dokumentation finden. Die Ideen sind zwar nicht bahnbrechend, aber bei manchen Dingen hilft es, sie einfach schwarz auf weiß zu lesen.

In 10 Kapiteln durchgeht der Autor »10 Wege zum kreativen Durchbruch«, wobei mir drei Essenzen aus dem Buch besonders hängen geblieben sind.

Die Klaukartei

Die Klaukartei ist an sich nichts Neues. Die einen nennen sie Ideenbox, die anderen ordnen sie in digitale Ordner namens »Inspiration«, wieder andere kategorisieren alles fein säuberlich auf Pinterest-Pinnwänden.
Kleon beschreibt die Klaukartei als Kartei, in der alles Platz findet, was geklaut werden muss oder einen inspiriert.1 Unter klauen versteht er jedoch nicht ein reines Klauen, sondern eher ein Ausschau halten und sich von Dingen inspirieren lassen, um sie weiterzuentwickeln.

Besonders gut gefällt mir daran die beruhigende Tatsache, die jeder kennt und dennoch im Alltag vergisst: Wir können das Rad nicht neu erfinden! Keine Design-Arbeit, keine Kunst-Arbeit – nichts entsteht aus dem Nichts.

Einfach machen

Kleon schreibt, dass er noch immer dasitzen würde, um herauszufinden, wer er ist, wenn er gewartet hätte, bis ihm klar wäre, wer oder was er ist.2
Einfach machen lautet die Devise. Wir alle haben manchmal Ängste oder sind in unserer Arbeit gehemmt. Vor allem während des Masters führe ich das darauf zurück, dass man nicht konkret weiß, worauf man hinarbeitet und ob das einen Wert hat. Es ist keine Aufgabe, die es einfach zu erledigen gilt. Die Aufgabe ist der Prozess an sich und diesen auch auszuhalten. Zwar ist die Designarbeit immer sehr prozessgerichtet und man weiß häufig nicht, was am Schluss herauskommt. Aber bei Aufgaben, wie die Gestaltung von Visitenkarten, Flyern oder ähnlichem hält sich das doch eher in Grenzen, weil das Ziel klar ist. Anders verhält es sich mit Aufgaben, die erst durch den Prozess wachsen. Obwohl man häufig erfolgreich durch solche Prozesse läuft, sei es in intensiven Arbeitsphasen, Blockseminaren oder anderen Projekten, bei denen man erstmal ins Schwammige arbeitet, fällt es immer wieder schwer sich darauf zu verlassen. Mit viel Arbeitseinsatz wird am Ende schon alles gut.

Langweiler!

Der Autor beschreibt, was für ein langweiliger Typ er ist und dass er in einer ruhigen Nachbarschaft mit der Familie lebt.3 Er beschreibt, dass man stets auf sich selbst achten soll und das halte auch ich für einen sehr wichtigen Punkt. Wir als Kreative neigen dazu viele Überstunden zu machen und in die Nacht zu arbeiten. Alles für den Spaß und schließlich ist es ja auch Hobby und Leidenschaft und ja es soll auch was gutes dabei rauskommen. Aber: Es tut manchmal auch gut ganz in geordneten Strukturen zu arbeiten, die einem Halt geben und nicht so viel Energie kosten.

Quellen
  1. Vgl. Kleon, Austin: »Alles nur geklaut – 10 Wege zum kreativen Durchbruch«, München 2013, 3. Auflage, S. 30.
  2. Vgl. Ebd., S. 35.
  3. Vgl. Ebd., S. 127.

Die Abstufungen von Interaktivität

In »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter« von stellt Jakob Behrends die Abstufungen von Interaktivität vor, die er von Goertz (2004) zitiert.

In »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter« von stellt Jakob Behrends die Abstufungen von Interaktivität vor, die er von Goertz (2004) zitiert.

Medien teilen sich auf in reaktiv, responsiv und interaktiv.
Reaktiv stellt eine sehr schwache Form von Interaktivität dar. So nennt er beispielsweise Fahrgeschäfte im Supermarkt, die auf einen Münzeinwurf reagieren und sich daraufhin in Bewegung setzen. Auf einen Schlüsselreiz folgt lediglich eine klare Aktion. Responsive Medien sind dagegen schon eine Vorstufe interaktiver Medien. So sind das beispielsweise Medien die mittels Sensoren auf die Umwelt reagieren oder Radioregler, die bestimmte Funktionen unterstützen. Der Lautstärke- oder Frequenzregler besitzen dabei feste Funktionen, die von uns nicht abänderbar sind. Als interaktiv oder auch hochgradig interaktiv sieht er Anwendungen, die es ermöglichen »mediale Inhalte zu verändern bzw. zu hinterlegen«. Des Weiteren hält er »Steuerbarkeit von Zeitpunkt, Tempo und Abfolge der Rezeption« für einen wichtigen Faktor. Als multiinteraktiv werden Medien bezeichnet, über die mehrere Nutzer gleichzeitig partizipieren können.1

Obwohl letzteres die Voraussetzung verlangt, dass Medien abänderbar sind, bin ich unschlüssig, ob das tatsächliche Interaktivität bedeutet. Damit habe ich mich in meinem Beitrag »Imitation von Interaktivität« beschäftigt.

Ich möchte der Frage nach Interaktivität weiter auf den Grund gehen, da mir die Definitionen keine ausreichende Antwort auf tatsächliche Interaktivität geben kann. Noch immer hinterfrage ich die Tatsache, dass entweder eine vorgefertigte Reaktion programmiert wurde – und damit meinem Verständnis nach nicht interaktiv ist – oder ohnehin ein Mensch auf der anderen Seite der Leitung sitzt.

Quellen
  1. Vgl. (ganzer Absatz) Behrends, Jakob: »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter«, Stuttgart 2015, S. 23.

Empathische Interaktion

In »The digital turn – Design in the Era of Interactive Technologies« spricht Björn Bertrand in seinem Essay »The Empathetic Interaction« darüber, wie durch Reize eine Verbindung zwischen Mensch und Maschine hergestellt werden kann.

In »The digital turn – Design in the Era of Interactive Technologies« spricht Björn Bertrand in seinem Essay »The Empathic Interaction« darüber, wie durch Reize eine Verbindung zwischen Mensch und Maschine hergestellt werden kann.1

Bertrand nutzt dafür das Beispiel eines langjährigen Kranfahrers, der seine Arbeit mit absoluter Routine erledigt. Jeder Handgriff sitzt, er lenkt den Kran beinahe blind und sein Körper ist mit dem Kran fast schon eins. Sie sind miteinander verbunden.
Auf der anderen Seite nutzt er das Beispiel eines Autofahrers, der wir selbst sein könnten: In einer Kurve klingt das Auto komisch und der Fahrer hält an. Das akustische Signal hat ihn davor gewarnt, dass irgendetwas nicht stimmen kann. Dass irgendetwas nicht »normal« ist, nicht wie sonst in seiner alltäglichen Routine als Autofahrer. In der Routine, in der er eins mit dem Auto ist und jede Abweichung – durch welchen Reiz auch immer – bemerkt.

Im nächsten Schritt erhält der Kranfahrer eine Fernsteuerung für seinen Kran. Er kann frei wählen, von welcher Position er ihn steuert, doch sowohl die neue Position als auch die andere Steuerung führen dazu, dass eine körperliche Distanz aufgebaut wird. Das alltägliche Gefühl der Verbundenheit ist verflogen, da er das Fahrzeug nun völlig anders steuert und die körperliche Verbindung nicht im gleichen Maß wie bisher vorhanden ist. Um diese Distanz wieder abzubauen, kann in der Fernsteuerung beispielsweise eine Vibration eingebaut werden – eine taktile Rückmeldung. Zwar bedeutet das noch immer, dass es eine Zeit der Umgewöhnung benötigt, doch der Körper lernt diese neue Routine und er kann sich wieder zunehmend in den Kran einfühlen. Das Autobeispiel zeigt, dass nicht nur taktile Reize in Frage kommen. In diesem Fall waren es akustische Warnsignale und auch andere Reize wären möglich. Bertrand schreibt, dass Empathie in der Regel aus einem komplexen Zustand der Stimulation entsteht. Durch eine empathische Interaktion kann also die Distanz zwischen Mensch und Maschine abgebaut werden, ein »Gefühl dafür« kann entstehen. Und wie Bertrand schon andeutet, dürfen wir nicht vergessen, dass der Mensch mit seinem Körper an die Umwelt gebunden ist.2

Veräußerung des menschlichen Körpers

An dieser Stelle möchte ich Marshall McLuhans Interpretation des Narziss einfließen lassen, der sein eigenes Spiegelbild im Wasser sieht. Laut McLuhan handelt die Sage nicht davon, dass er sich in sein Spiegelbild verliebte. Sie handelt primär davon, dass »Menschen sofort von jeder Ausweitung ihrer selbst in einem andern Stoff als dem menschlichen fasziniert sind«3. Dies betrifft sowohl Medien als auch beispielsweise Werkzeuge. Demnach ist eine abgebaute Distanz zu dem jeweiligen Stoff enorm wichtig, um eine tatsächliche Verbindung zwischen ihm und dem Körper herzustellen.

Rückmeldung im Web

Ich halte Bertrands Ansichten für sehr entscheidend beim Interaction als auch Interface Design. Zwar scheint es zum einen selbsterklärend und zum anderen selbstverständlich. Doch ich denke, dass das ein nicht zu unterschätzender Ansatz ist, der nach wie vor viel zu oft unbeachtet bleibt. Im Web erhält man visuelle Rückmeldungen durch z. B. Farbe beim MouseOver oder textliche Rückmeldungen beim Absenden eines Formulars. Obwohl beides meiner Ansicht nach völlig selbstverständliche Mechanismen sind, die zum Standard geworden sind, findet man noch immer unzählige Webseiten, die diese Kleinigkeiten nicht beachten.
Seit wenigen Jahren sieht man durch scroll activated animations den eigenen »Scroll-Einfluss«: Objekte bewegen sich dabei abgestimmt auf das Scroll-Verhalten. Scrollt man nach unten, kann sich beispielsweise ein Objekt aufbauen, dass sich wieder abbaut, wenn man zurück scrollt. Teilweise mag das als Spielerei und Effekthascherei abgestempelt werden, nichtsdestotrotz machen Seiten dieser Art unheimlich viel Spaß. Zusätzlich sehe ich darin eine hervorragende Möglichkeit die Distanz abzubauen und den eigenen Körper, die eigenen Tätigkeiten im Web abzubilden. Macht es gerade deshalb so viel Spaß?

Stimulation in virtuellen Realitäten

Ich denke in jedem Bereich ist bezüglich der empathischen Interaktion viel Raum nach oben. Zwar sind die Beispiele Bertrands eher im Bereich Arbeit und alltäglicher Routine angesiedelt. Ich denke dabei eher an graphische Benutzeroberflächen oder Welten, die via Virtual Reality betreten werden können. Vor allem bei letzterem darf nicht vergessen werden, dass der Körper in die Umwelt eingebunden ist. Meine ersten Gehversuche mit der Google Cardboard (Erste Gehversuche mit der Google Cardboard ») habe ich im privaten Raum gemacht. Ich habe dabei auf Kopfhörer verzichtet, so dass lediglich der visuelle Reiz vollständig übrig blieb, der Sound kam dabei aus den Handy-Boxen. Obwohl ich nur auf visueller Ebene in die virtuelle Realität eingetaucht bin, war die Immersion immens und es war schwierig sich im realen Raum zu orientieren. In anderen Beispielen, wie im Labor des Fachbereichs Medien der Hochschule Düsseldorf, werden noch zusätzliche Reize, wie beispielsweise ein Ventilator für die Windsimulation eingesetzt.
Durch Stimulation wie diese werden aus meiner Sicht Raum und Zeit aufgelöst, der Körper geht in der virtuellen Realität auf. Ich finde es dabei immer wieder spannend, wie wenig Stimulation nötig ist, um das Gehirn auszutricksen. Zwar bietet Virtual Reality momentan gerade diesen Anreiz in einer virtuellen Realität abzutauchen und sich aufzulösen. Langfristig stellt sich mir jedoch die Frage, wie es möglich ist, seinen Körper und die Umgebung so gut als möglich einzubinden, sprich eine Verbindung herzustellen. Vor allem bin ich mir zur Zeit unsicher, ob Reize wie der Wind dafür sorgen, dass man sich noch mehr in der virtuellen Umgebung auflöst oder ob man gerade dadurch seinen Körper noch mehr in einer Verbindung spürt. Beides kann viel Spaß bereiten, aber unabhängig davon wie ich beide Möglichkeiten bewerte, halte ich es für essentiell sich dieser Wege bewusst zu sein.

Den Beitrag und die Erkenntnisse von Bertrand halte ich bisher für einen der spannendsten Ansätze für mein Master-Thema. Sicherlich ließe sich das auch mit der Frage nach Interaktivität, die ich als mögliche neue Richtung festgehalten habe, verbinden.

Quellen
  1. Vgl. Betrand, Björn: »The empathetic Interaction«, in: Junge, Barbara; Eds.: Berzina, Zane; Scheiffele, Walter; Westerveld, Wim; Zwick, Carola, »The digital turn – Design in the Era of Interactive Technologies«, Berlin 2012, S. 138–143.
  2. Vgl. Ebd.
  3. Baltes, Martin; Böhler, Fritz; Höltschl, Rainer; Reuß, Jürgen (Alle Hg.): »Medien verstehen – Der McLuhan-Reader«, Mannheim 1997, S. 120.

2001: Odyssee im Weltraum – HAL 9000

Im Rahmen des Kurses »Realität und Gestaltung im Film« bei Dr. phil. habil. Hyun Kang Kim und Christine Reeh, ist das Thema unseres Vortrags »2001: Odyssee im Weltraum.« Der Vortrag wird von sechs Studierenden gehalten. Ich übernehme zusammen mit einer anderen Studentin den Bordcomputer HAL 9000.

Im Rahmen des Kurses »Realität und Gestaltung im Film« bei Dr. phil. habil. Hyun Kang Kim und Christine Reeh, ist das Thema unseres Vortrags »2001: Odyssee im Weltraum.« Der Vortrag wird von sechs Studierenden gehalten. Ich übernehme zusammen mit einer anderen Studentin den Bordcomputer HAL 9000. HAL 9000 ist ein fiktiver Bordcomputer, der eine – hochentwickelte – Künstliche Intelligenz darstellt und die ganze Mission steuert. Er ist der einzige, der die komplette Mission kennt.

Screenshot aus: »2001: Odyssee im Weltraum« Tablets
Dave und Frank beim EssenII

Zukunftsvisionen 1986

In 2001 wird schnell klar, dass Kubrick und Clarke eine sehr klare Vorstellung der medialen Zukunft besitzen, die – wohlbemerkt im Jahr 1968 – fast schon visionär ist. Am Geburtstag seiner Tochter spricht Dr. Heywood Floyd beispielsweise via Videochat mit ihr1, was sehr stark an z. B. Skype erinnert. Während dem Essen schauen sie Nachrichten auf einer »Scheibe«2, was dem Tablet sehr nahe kommt. Zusätzlich trifft HAL als funktionierende und lernfähige, KI nicht nur den technologischen Stand im Jahr 2016, sondern übersteigt unseren Stand bei weitem.

Screenshot aus: »2001: Odyssee im Weltraum« Einführung HAL
Der Bordcomputer HAL 9000 wird vorgestelltIII

HAL als 6. Mitglied der Besatzung

HAL wird durch ein rotes Kameraauge dargestellt, was eine mythologische Anspielung auf den einäugigen Zyklopen sein könnte, den Odysseus überlisten muss, um seine Fahrt fortzusetzen. Er ist weiter in jedem Raum der Raumstation allgegenwärtig und wird direkt zu Beginn als fehlerfreier Computer vorgestellt. Für die Vorstellung von HAL nutzt Kubrick die Form von Nachrichten bzw. die eines Interviews, das Live auf der Raumstation ausgestrahlt wird und mit HAL gehalten wird.3 Das ist ein wiederkehrendes und gutes Stilmittel, um viele Informationen kurz und knapp zu erläutern. Durch Stilmittel wie diese kann er auf eine Erzählerstimme verzichten.
In dieser Vorstellungsrunde wird HAL auch als 6. Mitglied der Besatzung bezeichnet, was seine wichtige Stellung und seine ausgeprägte Intelligenz unterstreichen.4 Des Weiteren spricht er mit einer sehr warmen Stimmte und wirkt oft sogar emotionaler als die Wissenschaftler selbst.

Screenshot aus: »2001: Odyssee im Weltraum« Schachspiel
HAL gewinnt beim SchachIV

Demonstration der Überlegenheit

Seine Intelligenz wird kurze Zeit später in einem sprachgesteuerten Schachspiel unterstrichen. Er spielt gegen Frank und gewinnt, was ich als ersten Hinweis dafür sehe, dass er dem Menschen in seiner Intelligenz mindestens gleichkommt, wenn nicht sogar übersteigt. Sprachlich wird das mit HALs Aussage unterstützt: »Tut mir leid, Frank, du hast verloren«5. Dies hat insofern doppeltes Gewicht, dass insgesamt sehr wenig im Film gesprochen wird.

Fehlfunktion der AE 35 und KI mit menschlicher Gabe

In einem Gespräch mit Dave6 findet HAL einen Fehler in der Einheit AE 35. Da er fehlerfrei ist, steht dies außer Frage. Als später bekannt wird, dass es keinen feststellbaren Fehler gab, schiebt er das auf menschliches Versagen.
In dieser Szene wird klar, dass der Bordcomputer nicht nur Gefühle hat, sondern sehr viel mehr Eigenschaften, die gegen unsere Vorstellung einer KI sprechen. Beispielsweise lässt er sich zu Beginn der Szene eine Zeichnung zeigen, die Dave angefertigt hat und bewertet sie mit: »Das ist eine sehr schöne Zeichnung, Dave. Ich finde, Du hast viel dazu gelernt.« Des Weiteren erkennt er die Zeichnung sogar: »Das ist Mr. Hunter, nicht wahr?« Im Verlauf des Gesprächs fragt er Dave, ob er ihm eine persönliche Frage stellen darf und dass er ihn entschuldigen soll, wenn er ihm zu Nahe tritt. Dinge wie die Urteilskraft, Empathie oder später im Film das Treffen von Entscheidungen werden für gewöhnlich dem Menschen zugerechnet.
Zum anderen kann ein Algorithmus seinen Zustand nicht selbst ändern, sondern für eine bestimmte Eingabe erhält man eine bestimmte Ausgabe. Er denkt jedoch selbst mit: »Ich weiß auch nicht, ob meine Sorgen in kausalem Zusammenhang mit meinen Beobachtungen stehen.«
Das heißt HAL ist auf den ersten Blick weit mehr als nur eine algorithmisch, programmierte Künstliche Intelligenz.

Die 4. Kränkung der Menschheit

Der Film ist sehr frei interpretierbar und Clarke und Kubrick wollten auch, dass er interpretierbar bleibt. Es gibt keine klaren Antworten, aber für mich ist der Film eine Verdeutlichung der 4. Revolution, die auch der Informationsphilosoph Luciano Floridi (Die 4. Revolution ») beschreibt.

1. Kopernikus
Kopernikus beweist, dass wir in einem heliozentrischen System leben. Hier wird der Mensch, der bis dahin dachte, dass die Erde der Mittelpunkt des Universums ist, zum ersten Mal aus seiner zentralen Rolle gedrängt.

2. Darwin
Darwin begründet die Evolutionstheorie, die besagt, dass der Mensch vom Affen abstammt. Auch hier findet eine Verdrängung des Menschen statt, der nun kein göttliches und einzigartiges Geschöpf mehr zu sein scheint und deshalb bis heute noch nicht allumfassend anerkannt wurde.

3. Freud
Die 3. Kränkung wird Freud zugeschrieben, fällt jedoch auch in den Bereich der Gehirnforschung. Er entdeckt das Unterbewusstsein und der Mensch ist sich nun nicht einmal mehr sich selbst völlig transparent. Wir wissen heute, dass wir unterbewusst handeln und das stellt auch kein Problem mehr für uns dar.

4. Alan Turing
Durch Alan Turing entsteht die Informationsrevolution, welche laut Floridi die 4. Kränkung der Menschheit darstellt, in der der Mensch noch weiter aus seiner zentralen Rolle gedrängt wird. Der Computer ist dem Menschen z. B. in der Informationsverarbeitung weitaus überlegen und diese Überlegenheit wird sich zukünftig noch mehr ausbauen. Von Beginn an wurde auch in 2001 klar, dass der Mensch eher der Maschine dient als umgekehrt. Die Überlegenheit wird auch visuell deutlich gemacht, indem der Blick – aus dem Auge HALs heraus gefilmt – leicht erhöht ist.

Screenshot aus: »2001: Odyssee im Weltraum« Zeichnung
HAL blickt aus einer überhöhten Perspektive auf Dave herabV

Die vier Kränkungen im Film

Besonders spannend finde ich dabei, dass Kubrick die ersten drei Kränkungen scheinbar nicht nur aufnimmt, sondern die Menschen es zum einen annehmen und gut mit Ihnen leben können. Andererseits könnte sie jedoch auch den Kampf gegen diese bedeuten.

So wurde die Kränkung Kopernikus hingenommen und man fliegt raus ins Universum. Man hat verstanden, dass die Erde nicht die zentrale Rolle übernimmt, sondern einen kleinen Teil eines endlosen Universums. Andererseits könnte es bedeuten, dass wir Menschen das Bedürfnis haben, das Weltall zu besiedeln und zu besitzen, um uns damit zurück ins Zentrum des Ganzen zu rücken.

Dass wir vom Affen abstammen sieht man direkt zu Beginn des Films. Der erste Teil des Films zeigt zwei verfeindete Affenstämme. Aus den Knochen eines Tieres entdeckt ein Affe nun das Werkzeug, das gleichermaßen zur Waffe gegen den anderen Affenstamm wird, um eine Wasserquelle zurückzuerobern. Hier wird Kubricks Ansatz klar, dass Gefühle und Aggressionen der Menschen auf Werkzeuge übertragen und zu Waffen werden. In einem Schnitt wird der hoch geworfene Knochen, das Werkzeug, zu einem Raumschiff, das im Weltall schwebt.7 Hier ist die Evolution deutlich zu erkennen, später im Film wird doch genau diese Evolution durch die Abschaltung HALs symbolisch widerrufen.

Freud sehe ich z. B. im Dauerschlaf, den einige Wissenschaftler eingenommen haben. Ihre Dienste werden noch nicht gebraucht und damit können Ressourcen gespart werden. Hier ist nicht nur das Unterbewusstsein außer Kontrolle, sondern körperliche Funktionen wie die Nahrungsaufnahme sind völlig ausgesetzt. Hier sehe ich keine Anzeichen für den Kampf gegen diese Entwicklung, jedoch macht sich HAL diesen Zustand zu Nutze. Er stellt die Maschinen ab und tötet die Wissenschaftler, was die nächste Kränkung einläutet und ihre Unberechenbarkeit zeigt.8

Turing entdecke ich im ganzen Film wieder, in dem der Bordcomputer seine Überlegenheit demonstriert. Des Weiteren wird hier der Kampf gegen die Maschine mit der Abschaltung HALs, auf die ich später eingehen werde, sehr deutlich.

Insgesamt könnte es ein Hinweis auf die Gefahren sein, die menschliche Entwicklungen generell mit sich bringen können.

Misstrauen – Gespräch über die Abschaltung

Als Dave und Frank nach der falschen Fehlermeldung beginnen an HAL zu zweifeln, verschanzen sie sich in einer Kapsel9 deren Ton sie abschalten. Nach mehrmaliger Prüfung, ob sie HAL hören kann, diskutieren sie, ob sie HAL im Notfall abschalten können. Hier wird erneut seine herausragende Intelligenz deutlich: Bisher hatte der Bordcomputer alle Befehle der Besatzung ausgeführt und wie ein Algorithmus gearbeitet. Auf eine Eingabe erhielt man eine Ausgabe. In dieser Szene wartet er jedoch ab, da er merkt, dass etwas nicht stimmt. An späterer Stelle im Film wird klar, dass er Lippen lesen kann und das ganze Gespräch »belauscht« hat.10

Seine Aufgabe ist es, die Mission erfolgreich zu Ende zu bringen. In seiner Programmierung scheint jedoch festgelegt worden sein, dass er nicht lügen darf. Er hat dagegen nie gelernt, dass Morden schlimmer als Lügen ist und so versucht er nun mit aller Gewalt die loszuwerden, die die Mission gefährden könnten. Er tötet Frank und die restliche Besatzung.11 Dave ist der einzige, der es schafft zu überleben. Er beschließt HAL abzuschalten.

Screenshot aus: »2001: Odyssee im Weltraum«  Abschaltung
Die AbschaltungVI

Die Abschaltung

In einer mehrminütigen, eindrücklichen und intimen Sequenz vollzieht Dave die Abschaltung.12 Er bewegt sich wortlos in das Zentrum des Computers, während HAL unaufhörlich auf ihn einredet. Zunächst versucht er auf Daves Vernunft einzuwirken. Er solle sich das nochmal überlegen, sich hinlegen und Beruhigungspillen schlucken. Im nächsten Status wird er emotionaler, er habe Angst und fürchte sich. Er ist fast schon panisch, weil er feststellt, dass es kein Zurück mehr gibt. Dave löst die Festplatten nach und nach in einem langen Prozess und gleichermaßen entwickelt sich HAL in den Zustand der Unschuld – der Kindheit – zurück. Er redet nach und nach langsamer, seine geistigen Fähigkeiten nehmen ab und er gleicht sich mehr und mehr einem Kind an. Er beginnt bis zu seinem Tod das Lied »Hänschen klein« zu singen, nachdem er zuvor noch seine grundlegenden Daten verlauten lies: »Ich bin der Computer HAL 9000, Seriennummer 3. Ich wurde am 12. Januar 1992 in der HAL-Fabrik in Urbana, Illinois, in Betrieb genommen.«

Aufklärung über die Mission

Nach der Abschaltung erscheint Dr. Floyd auf einem Bildschirm und verkündet das wahre Ziel der Mission13. Auf dem Jupiter, wohin die Reise geht, wurde bewusstes Leben gefunden. Das wusste nur HAL, was eine Erklärung für seine falsche Fehlerentdeckung sein könnte: Er durfte die Mission weder verraten, noch lügen.
Ein weiterer spannender Punkt, könnte der Hinweis auf eine 5. Revolution bzw. Kränkung der Menschheit sein: Es gibt außer uns noch weiteres Leben im Universum.

KI in der Zukunft

In »2001: Odyssee im Weltraum« wird der Wandel vom guten, netten Unterstützer zur bösen, künstlichen Intelligenz gezeigt, die sehr zielgerichtet und ohne Rücksicht auf Verluste handelt. Das könnte eine erste Kritik an der technologischen Entwicklung sein, die den Menschen als handelnde Instanz ausgrenzt und die Maschine als verlässliches Gegenüber darstellt. Nur die Maschine wusste gänzlich über die Mission Bescheid, was unterstreicht, welches Vertrauen in HAL gesteckt wurde. Des Weiteren zeigt er wie mächtig künstliche Intelligenzen tatsächlich werden können, wenn sie so zielgerichtet und vor allem selbstbestimmt handeln.

Hier sind vollständig selbstfahrende Autos ein gutes Beispiel. Die Maschinen bzw. künstlichen Intelligenzen werden in der Zukunft eventuell nicht nur für die Geschwindigkeit, Richtung oder ähnliches verantwortlich sein. Sie müssen moralische Entscheidungen treffen, sollte es zu unkontrollierten Einbrüchen ins System kommen. Sollte ein Kind beispielsweise unvorhergesehen auf die Straße rennen, muss die KI binnen Millisekunden entscheiden, ob das heranwachsende Kind oder ein 50-jähriger Fahrer wichtiger ist. Das sind alles Fragen, die auch für uns heutzutage noch sehr wichtig sind, weil wir noch lange nicht soweit sind.

Kubrick hat HALs eigentliches Geburtsjahr 1997 nicht aus dem Buch übernommen, sondern auf 1992 zurückdatiert hat, weil er dachte, dass die technologische Entwicklung im Jahr 1997 schon weiter sein wird. Obwohl wir heute, im Jahr 2016. noch immer nicht so weit sind, bleibt die große Frage, ob jemals Künstliche Intelligenz entwickelt werden kann, die den Menschen nicht nur auf logischer, sondern auch emotionaler Basis übertreffen kann.

IBM – Ableitung des Namen HAL

Abschließend eine Überlegung zum Namen »HAL«. Hierzu gibt es verschiedene Gerüchte oder Ansichten. Kubrick selbst sagte, dass der Name eine Abkürzung für »Heuristic Algorithmic« steht, während andere behaupten, es seien die Buchstaben, die im Alphabet vor I-B-M vorkommen. Diese Logik ist nicht abwegig, da IBM damals die meisten Computer stellte und das Originallied bei der Abschaltung HALs ein Lied des damaligen IBM-Computers war. Sollte es so sein, könnte eine Interpretation dafür, dass die Buchstaben vor und nicht nach IBM gewählt wurden, sein, dass die Entwicklung solch’ mächtiger Werkzeuge wie dieser Bordcomputer einen Rückschritt und eine Gefahr für die Menschheit bedeuten. Das bleibt jedoch reine Interpretationssache und wird auch nie gänzlich beantwortet werden können.

Verwertung des Vortrags

In einem nächsten Schritt soll der Vortrag innerhalb einer Hausarbeit verwertet werden. Sobald die schriftliche Ausarbeitung fertig ist, werde ich sie auf dieser Dokumentationsseite veröffentlichen.

Quellen
  1. Vgl. Kubrick, Stanley: »2001: Odyssee im Weltraum«, DVD, 133 Minuten, Vereinigtes Königreich und Vereinigte Staaten 1968 [Deutschland 2001], TC: 00:26:16–00:28:16, Mondstation Clavius.
  2. Vgl. Ebd., TC: 00:59:37–00:59:58, Mondstation Clavius.
  3. Vgl. Ebd., TC: 00:56:16–01:00:55, Die Reise zum Jupiter.
  4. Vgl. Ebd.
  5. Vgl. Ebd., TC: 01:03:22–01:04:07, Die Reise zum Jupiter.
  6. Vgl. Ebd., TC: 01:04:40–01:07:37, Die Reise zum Jupiter.
  7. Vgl. Ebd., TC: 00:18:54–00:19:10, Aufbruch der Menschheit.
  8. Vgl. Ebd., ab 01:28:32 wiederkehrend, Die Reise zum Jupiter.
  9. Vgl. Ebd., TC: 01:20:00–01:23:48, Die Reise zum Jupiter.
  10. Vgl. Ebd., TC: 01:37:30–01:38:20, Die Reise zum Jupiter.
  11. Vgl. Ebd., ab 01:28:32 wiederkehrend, Die Reise zum Jupiter.
  12. Vgl. Ebd., TC: 1:45:20–1:50:59, Die Reise zum Jupiter.
  13. Vgl. Ebd., TC: 01:50:59–01:52:16, Die Reise zum Jupiter.
Abbildungen
  1. Titelbild: Eigener Screenshot; Kubrick, Stanley: »2001: Odyssee im Weltraum«, DVD, 133 Minuten, Vereinigtes Königreich und Vereinigte Staaten 1968 [Deutschland 2001], TC: 01:56:00.
  2. Eigener Screenshot; Ebd., TC: 00:59:37.
  3. Eigener Screenshot; Ebd., TC: 00:57:08.
  4. Eigener Screenshot; Ebd., TC: 01:03:39.
  5. Eigener Screenshot; Ebd., TC: 01:04:47.
  6. Eigener Screenshot; Ebd., TC: 01:46:56.

Interaktivität im Digitalen

Nach meinem Einzelgespräch mit Professor Dr. Stefan Asmus könnte eine weitere Richtung in meinem Masterthema »Interaktivität im Digitalen sein«. Dieses Thema halte ich zunächst für sehr spannend und hat mich schon vor wenigen Monaten beschäftigt.

Gestern hatte ich ein Einzelgespräch mit Professor Dr. Stefan Asmus bezüglich meines Masterthemas. Während des Gesprächs kristallisierte sich eine mögliche Richtung meines Projekts heraus. Bereits im Februar habe ich mich damit beschäftigt, wie interaktiv Interaktivität tatsächlich ist (Imitation von Interaktivität »). Sämtliche »Dinge« tragen heutzutage den Begriff interaktiv mit sich: Interaktive Erzählung, Serie oder interaktiver Film. Dabei habe ich mir die Frage gestellt, ob der Begriff Interaktivität wirklich bedeutet, dass auf eine Eingabe – unabhängig welcher Art – lediglich eine vordefinierte Ausgabe erfolgt.
Aus diesem Grund könnte eine mögliche neue Richtung »Interaktivität im Digitalen« sein. Hierfür hat mir Stefan Asmus das Buch »Interaktivität: Ein transdisziplinärer Schlüsselbegriff« von Claus Leggewie und Christoph Bieber empfohlen. Des Weiteren steht das Buch »Interreaction – Interaktive Medien und Kommunikation im Raum. Eine Einführung für Gestalter« von Jakob Behrends auf meiner To-Do-Liste.
Wie bereits in meinem vorherigen Beitrag zu diesem Thema erwähnt, gehe ich davon aus, dass erst mit komplexer Künstlicher Intelligenz tatsächliche Interaktivität hergestellt werden kann. Da ein Algorithmus seinen Zustand nicht von alleine ändern kann und das eine Voraussetzung für Interaktivität ist, halte ich jedoch auch das für beinahe ausgeschlossen.
Ich werde mich dem Thema widmen und dann entscheiden, in welche Richtung der Weg tatsächlich weiter führen wird.

Planet B: Konzept für »the surface«

Zur Zeit konkretisieren wir unser Konzept für »the surface«.
Wir haben festgelegt, dass »the surface« ein Kubus ist, der die Natur gänzlich ersetzen soll. Er übergibt dabei die Erde als Megastruktur und soll in unserer Dystopie die grundlegenden Bedürfnisse des Menschen erfüllen: Wasser, Energie, Sauerstoff, Nahrung, Licht und Internet.

Zur Zeit konkretisieren wir unser Konzept für »the surface« (Projekt für die Ausstellung »Planet B – 100 Ideen für eine neue Welt!« im NRW-Forum »).
Wir haben festgelegt, dass »the surface« ein Kubus ist, der die Natur gänzlich ersetzen soll. Er überzieht dabei die Erde als Megastruktur und soll in unserer Dystopie die grundlegenden Bedürfnisse des Menschen erfüllen: Wasser, Energie, Sauerstoff, Nahrung, Licht und Internet. Ein fiktiver Algorithmus steuert dabei die Vorgänge und ist somit der Lebensmittelpunkt der Menschen auf Planet B, da man gänzlich auf ihn vertrauen kann. Zusätzlich möchten wir fiktive wissenschaftliche Fakten schaffen, die die innovative Technologie belegt.

Das Objekt selbst soll aus einem Material sein, das eine perfekte Oberfläche besitzt, eingebaute LEDs zeigen dabei den Ladestatus des jeweiligen Bedürfnisses an. Des Weiteren muss für die Ausstellung ein Ausstellungsdesign, das Corporate Design, Grafiken, Printmedien, Texte und ein Film entwickelt werden, die wir je nach Schwerpunkten aufteilen.

Aus grafischer Sicht möchten wir komplexe Zeichnungen anfertigen und verwenden, die die Entwicklungsphase des Kubus und der Technologie visualisieren, jedoch nicht näher erklären. Das gleiche trifft auf den Film zu, da wir kein Produkt herstellen, das vermarktet wird, sondern eine Dystopie, die als Diskussionsgrundlage im Museum dienen soll.

Voraussichtlich werden wir erst in den Semesterferien mit der Umsetzung des Projekts beginnen, vom 7.8–15.8 werden wir das Projekt dann im NRW-Forum ausstellen.

el monstruo submarino

»El monstruo submarino« ist ein Projekt, das auf einer Exkursion in Tarifa in Zusammenarbeit mit Celine Dolgner und Sharon Cronin entstanden ist. Meine primäre Aufgabe war dabei nicht die Entwicklung der Erzählung, sondern die Umsetzung des Gesprächs mit Emanuel als Video.

Im Rahmen einer fünftägigen Exkursion nach Tarifa im Sommersemester 2016 unter der Leitung von Britta Wandaogo, Prof. Dr. Stefan Asmus und Dr. phil. habil. Hyun Kang Kim, arbeitete ich mit Celine Dolgner und Sharon Cronin zusammen. Das Ergebnis ist dabei eine Erzählung, die mit dem Linius Storytelling-Tool realisiert wurde und unter folgendem Link zu finden ist: el monstruo submarino.

Primär habe ich dabei nicht die Erzählung entwickelt, sondern das Gespräch mit Emanuel (Gespräch mit Emanuel von Turmares ») als Video zusammengefasst.


Passwort: tarifa

For better coffee

»For better Coffee« » verrät fünf essentielle Tipps für besseren Kaffee. Die Seite der finnländischen Freese Coffee Company zeigt parallel zu den Tipps illustrativ den Prozess von der Kaffeebohne bishin zum heißen und duftenden Kaffee. Wie »Kaipo Che!« » wird die Story mit Unterstützung von scroll activated animations erzählt.

»For better Coffee« verrät fünf essentielle Tipps für besseren Kaffee. Die Seite der finnischen Freese Coffee Company zeigt parallel zu den Tipps illustrativ den Prozess von der Kaffeebohne bis hin zum heißen und duftenden Kaffee. Wie »Kaipo Che!« wird die Story mit Unterstützung von scroll activated animations erzählt.

Screenshot »For better Coffee«: Die Bohne wandert Richtung Mahlmaschine
Screenshot »For better Coffee«: Die Bohne wandert Richtung MahlmaschineII
Screenshot »For better Coffee«: Der fertige Kaffee wird ausgegossen
Screenshot »For better Coffee«: Der fertige Kaffee wird ausgegossenIII

Bis zu Regel #1 wandert die ganze Bohne mit durch den Bildschirm, bevor sie vor Regel #2 gemahlen wird. Als Nächstes verschwindet das gemahlene Pulver in einem Filter und wird kurz vor der vierten in einer Kanne aufgebrüht. Der fertige Kaffee fließt beim weiteren Scrollen durch die vierte Regel bis zu der letzten, um direkt in einer Tasse zu landen mit dem Tipp »Drink it fresh«. Jede Regel wird ergänzt durch die Frage »Why is this so important?«, die bei einem Klick auf die Frage in einem überlagerten Bildschirm weiß auf schwarz beantwortet wird.

Screenshot: For better Coffee: Why is this so important?
Screenshot von »For better Coffee«: Why is this so important?IV

Die Website finde ich nicht nur aus dem Grund empfehlenswert, weil ich persönlich Seiten mit scroll activated animations durch die man die Grafik spielerisch beeinflussen kann. Ich halte »For better Coffee« vor allem deshalb für eine empfehlenswerte Erzählung, da sie das Thema an sich sowohl mit der visuell-ästhetischen als auch mit der technologischen Ebene hervorragend verbindet. So einleuchtend wie diese Verbindung zu sein scheint, so selten findet man sie jedoch im World Wide Web.

Abbildungen
  1. Eigene Screenshot; Freese Coffee Company: »For better coffee«, URL: forbetter.coffee/, abgerufen am 29.6.2016.
  2. Ebd.
  3. Ebd.
  4. Ebd.

Planet B: Superstudio und Supertrees

In unseren Recherchen zu unserem Projekt für das NRW-Forum stoßen wir zum einen auf die Architektengruppe »Superstudio« sowie die »Supertrees« in Singapur.

In unseren Recherchen zu unserem Projekt für das NRW-Forum (Projekt für die Ausstellung »Planet B – 100 Ideen für eine neue Welt!« im NRW-Forum ») stoßen wir zum einen auf die Architektengruppe »Superstudio« sowie die »Supertrees« in Singapur.

Supersurface

Superstudio entwickelt 1972 in Form eines Films ein alternatives Model für das Leben auf der Erde: »Supersuperficie« (Superoberfläche). Der Film sollte dabei der erste aus einer Reihe von fünf sein und das Leben (Vita) als eine der fünf grundlegenden Handlungen im menschlichen Leben darstellen. Die weiteren vier sind Bildung, Zeremonie, Liebe und Tod. Sie kritisieren mit ihrer Arbeit und einem weiteren Projekt »Twelve Ideal Cities« auf ironische Art und Weise einen Ansatz der Architektur der 60er Jahre: Eine weltumspannende Megastruktur zu schaffen. Sie entwickeln dafür ein schwarzes Grid, das sich über die Welt zieht.

Supertrees

Die Supertrees im Garden by the Bay in Singapur wirken auf uns futuristisch und gleichzeitig befremdlich. Die Metallkonstruktionen, an der Pflanzen empor wachsen können, ragen 50 Meter weit in den Himmel und tragen vor allem Nachts mit Licht und Sound, zu einem weltfremden Gesamtbild bei. Die Natur wird hier durch Metall ersetzt, was unserem Ansatz, die Natur zu vernichten, sehr nahe kommt.

Unser Projekt

Im Verlauf der Recherche, halten wir fest, dass wir eine Hommage an Superstudio erschaffen wollen, indem wir das Projekt weiterentwickeln und weiter ausreizen möchten. Die Megastruktur und des Grid scheinen uns für unsere Arbeit, die den vorläufigen Titel »the surface« trägt, eine gute Grundlage zu sein.

Species in Pieces: Eine interaktive Ausstellung 

»Species in Pieces« von Bryan James, zeigt gefährdete Tierarten in einer ästhetisch hochwertigen interaktiven Ausstellung.

»Species in Pieces« von Bryan James, welches sich selbst als »interaktive Ausstellung« beschreibt, zeigt gefährdete Tierarten.
Das Löwenäffchen, der goldene Giftfrosch, die Waldeule und 27 andere sind sehr abstrakt durch die Zusammensetzung unterschiedlich eingefärbter Dreiecke dargestellt. Sie besitzen eine, aus meiner Sicht, sehr starke Formsprache und die »Gesamterfahrung« der Seite ist beeindruckend. Sie ist insgesamt sehr reduziert und ästhetisch schön gestaltet. Klassische Hintergrundmusik unterstützt die einzelnen Formen, die sich langsam durch den Raum bewegen, um sich zum jeweiligen Tier zusammenzusetzen. Sie unterstreicht den leichten, fast schon schwerelosen, Eindruck, der einen beinahe meditativ in diesem Projekt versinken lässt.

Species in Pieces | 30. Drill
Dynamischer Zusammenbau | Species in Pieces | 30. DrillII

Weiterführende Informationen

Für jedes Tier sind zusätzlich Informationen bereitgestellt: das Vorkommen, die Art der Gefährdung, statistische Werte, weiterführende Links oder ein Video.

Zusatzinformation | Species in Pieces | 30. DrillII
Zusatzinformation | Species in Pieces | 30. DrillIII
Beispielhaftes Video | Species in Pieces | 30. DrillIII
Beispielhaftes Video | Species in Pieces | 30. DrillIV

CSS-basierte Entwicklung

Neben der Ausstellungs-Erfahrung und der grafisch hochwertigen Darstellung, ist für mich auch die technische Seite interessant und gleichzeitig beeindruckend. Da ich zunächst davon ausging, dass es ein durch WebGL unterstütztes Projekt handelt, überrascht es mich umso mehr, dass es eine rein CSS-basierte Seite ist. Das dokumentiert der Entwickler Bryan James ausführlich auf der Seite.

Dokumentation des ProjektsIV
Dokumentation des ProjektsV

Ich halte »Species in Pieces« für ein großartiges Projekt, in dem Technologie und Design erfolgreich zusammengeführt werden. Sie werten sich wechselseitig auf, anstatt das Gegenüber zu Kompromissen zu zwingen. Das Projekt zeigt mir erneut, dass interaktive Erzählungen im Web auch ohne Einsatz tausend verschiedener Medien funktionieren kann. Zwar setzt Bryan James neben Text und Grafik z. B. auch Videos ein. Diese sind jedoch so dezent verpackt und eingestreut, dass sie sich nicht aufdrängen. Ein Mindestmaß an Information auf jeder Seite sorgt dafür, dass man sich gänzlich auf die inhaltlichen Aspekte fokussieren und konzentrieren kann.

Abschließend habe ich nach diesem Projekt selbst Lust, die grafischen Möglichkeiten mittels CSS weiter auszuloten als bisher. Bisher hat sich der Einsatz meist auf das Bauen von unzähligen Layouts, die Einbindung künstlerischer oder grafischer Arbeiten oder die Entwicklung eines Webprojekts durch den Zusammenbau einzelner medialer Elemente beschränkt. Eine grafische Arbeit entwickelt durch den Code selbst wäre an dieser Stelle eine neue Herausforderung.

Abbildungen
  1. Titelbild: Eigener Screenshot; James, Bryan: »Species in pieces«, URL: www.species-in-pieces.com, abgerufen am 17.6.2016.
  2. Ebd.
  3. Ebd.
  4. Ebd.
  5. Ebd.

Gespräch mit Emanuel von Turmares

Während der Exkursion in Tarifa können Celina, Sharon und ich für unser Projekt eine Whale Watching Tour von Turmares begleiten. Bevor wir losfahren sprechen wir mit Emanuel, der unser heutiger Bootsführer sein wird. Sharon führt dieses Gespräch.

Während der Exkursion in Tarifa können Celina, Sharon und ich für unser Projekt eine Whale Watching Tour von Turmares begleiten. Bevor wir losfahren sprechen wir mit Emanuel, der unser heutiger Bootsführer sein wird. Sharon führt dieses Gespräch.

Hi, kannst Du mir was über dich erzählen: Was für eine Art von Arbeit machst du bei Turmares?

Ich habe woanders Meeresbiologie studiert, aber meine Familie ist von hier, aus Tarifa. Hauptsächlich bin ich Bootsführer, aber nachdem ich jahrelang hier arbeite, bin ich auch verantwortlich für die Bildung in der Forschungsabteilung. Ich arbeite mit Kindern. Schulgruppen kommen beispielsweise zu Turmares und ich mache davor eine Präsentation und gehe dann mit den Kindern auf das Boot zum Whale Watching.
In der Forschungsabteilung weise ich nur die neuen Leute ein, die zu Turmares kommen. Jedes Jahr haben wir neue Leute, die bei Turmares arbeiten und an ihrer Abschlussarbeit für den Master sitzen.

Wir haben im Büro Poster, für alle Leute, die diese Studien sehen möchten. Für die Studien machen wir verschiedene Dinge auf dem Boot: Wir notieren den Längen- und Breitengrad oder die Bootsgeschwindigkeit. Das ist sehr wichtig zu wissen, um zu sehen wie sich das Verhalten ändert. Wir brauchen alles mögliche, um das Verhalten zu analysieren: Wie viele Delfine, wie viele Individuen sind in jeder Gruppe? Wie lang bleiben die Delfine beim Boot? Manchmal verbringen sie nicht viel Zeit mit uns, was auch davon abhängig ist, wie wir uns auf dem Boot verhalten. Das ist sehr wichtig zu wissen, wenn die Delfine ihr Verhalten ändern. Wenn auf dem Boot viel Lärm ist, gehen die Delfine weg.

Wie viele Touristen fahren pro Tag mit?

In der Nebensaison sind es zwei Bootsausfahrten pro Tag, in der Hauptsaison bis zu sieben.

Wenn es eine Chance gibt noch ein 3. Boot zu kaufen, um beispielsweise im Sommer mit mehr Leuten raus zu fahren: Würdest Du das tun oder ist das nicht so gut für die Delfine?

Nein, also wir sind hier in Tarifa nur zwei Unternehmen, die Whale Watching machen. Das sind insgesamt vier Boote.

Und es ist nicht möglich neue Boote zu kaufen?

Es ist möglich, aber das Problem ist der Hafen, der sehr klein ist. Daher ist nicht so viel Platz für zusätzliche Boote. Aber es wäre kein Problem, wenn es mehr Whale Watching-Unternehmen geben würde. Denn wenn man simplen Regeln folgt: Nicht zu viel Zeit mit den Delfinen verbringen, nicht mehr als zwei Boote pro Delfingruppe, … Wenn du solchen Regeln folgst, ist es kein Problem für die Tiere.

Wenn hier andere Unternehmen sind, dann seid ihr aber nicht zur gleichen Zeit bei einer Gruppe, oder?

Die Zeiten sind dieselben, 12 Uhr, 15 Uhr … das sind typische Zeiten. 12 Uhr ist eine perfekte Zeit für eine Ausfahrt, das andere Unternehmen hat diese Zeit auch. Aber: Wenn wir raus fahren, reden wir miteinander und gehen zu unterschiedlichen Plätzen und wechseln uns ab. Wir versuchen nicht gleichzeitig bei den gleichen Tieren zu sein.

Welche Art von Arbeit gibt es auf dem Boot? Sind dort nur Führer oder auch Wissenschaftler wie Biologen?

Ja, ich bin nun auch Matrose. Viele arbeiten im selben Unternehmen und ich habe nun letztendlich den Titel bekommen. Normal ist ein Matrose und ein Führer auf dem Boot, es kommt aber darauf an, wie viele Passagiere dabei sind. Also ob drei Führer, zwei oder nur einer und alle Führer sind Wissenschaftler. Also sind wir meistens zwei Wissenschaftler auf dem Boot und wir reden über die Tiere, die Bedingungen, über die Straße von Gibraltar. Wir kennen die Merkmale und sprechen darüber auf dem Boot.

Seit wann bist du bei Turmares?

7 Jahre jetzt.

Und welche Erkenntnisse gab es aus der Forschung in den letzten 7 Jahren?

Ich hab als Führer angefangen und habe dann mehr Erfahrung gesammelt und bin sicherer geworden mit meinem Boot. Und jetzt bin ich in der Bildungsabteilung. Ich arbeite hauptsächlich mit den Kindern und habe in der Forschung nicht viel Erfahrung. Aber ich weiß, welche Schritte es gibt und kann helfen, wenn man z. B. Präsentationen machen muss.

Und was passiert mit dem Aufschrieb vom Boot? Wird das dann alles in den Computer übertragen?

Ja, das haben wir auf dem Boot mit dabei und übertragen das in eine Datenbank. Das ist sehr wichtig für uns, weil wir wissen wie das Verhalten und die Aktivitäten sind. Wir finden heraus wie die sozialen Strukturen sind und ob sie zusammen sind oder so. Das ist sehr wichtig für uns, weil wir wissen wollen wie die Bevölkerung aussieht. Jeden Tag fahren wir raus, machen ein Foto … Das Foto müssen wir auf jedenfall machen, weil die Flosse z. B. wie ein Fingerabdruck ist. Je nach Tier muss ein Foto von einem anderen Körperteil gemacht werden. Dadurch wissen wir, ob es jedes Jahr die gleiche Gruppe ist oder ob ein Individuum zu einer anderen Gruppe gewechselt hat. Das ist sehr schwierig auf dem Boot, weil du mit den Kunden sprechen, ein Foto machen und die Daten aufschreiben musst. Man ist die ganze Zeit auf Achse. Aber es ist wundervoll. Das ist ein wirklich toller Job.

Wie werden die Daten dann genutzt?

Es gibt unterschiedliche Wege, die Daten zu nutzen.
Sei es nur die Foto-ID oder um zu wissen welche Individuen in den Gruppen sind, wie ist der Längen- und Breitengrad … In unserem Büro ist eine Wand mit einer Ortskarte. Es kommt auf alles an: Welche Art von Tier, zu welcher Uhrzeit, welche Art von Wind und so weiter. So wissen wir es natürlich nicht exakt, aber können einschätzen, wo die Tiere sich aufhalten.

Ist es für dich wichtig, dass die Leute, die mitgehen, etwas lernen?

Ich liebe die Tiere, aber das wichtigste sind für mich die Kunden. Die Kunden haben teilweise noch nie Delfine gesehen oder saßen noch nie in einem Boot. Daher musst du sie beruhigen, alles erklären und so weiter. Ich liebe Delfine, aber die Kunden sind mir wichtiger.

Projekt für »Planet B – 100 Ideen für eine neue Welt!« im NRW-Forum

Durch den Dozenten Merlin Baum, der im Sommersemester 2016 den Kurs »Interface Prototype« anbietet, haben wir die Möglichkeit ein Projekt für die Ausstellung »Planet B – 100 Ideen für eine neue Welt!« zu entwickeln. In einem ersten Brainstorming sammeln wir erste Ideen.

Durch den Dozenten Merlin Baum, der im Sommersemester 2016 den Kurs »Interface Prototype« anbietet, haben wir die Möglichkeit ein Projekt für die Ausstellung »Planet B – 100 Ideen für eine neue Welt!« im NRW-Forum Düsseldorf zu entwickeln.

Im ersten Brainstorming stellt sich die Frage, was der Planet B für uns ist. Es könnte ein anderer, neuer Planet sein, unser Planet in 1000 Jahren oder eine frühere Welt, die z. B. als Parallelwelt existiert. Es gibt z. B. die Ideen einen Planeten mittels 3D-Drucker selbst zu bauen oder unseren durch funktionierende Konzepte zu retten. Man könnte des weiteren die Erde nochmal auf Null setzen oder eine effizientere Natur erschaffen, da diese versagt hat.

Wir verfolgen den Ansatz, dass die Natur versagt hat weiter und stellen fest, dass die Vernichtung der Natur die einzige Lösung sein kann. Diesen, natürlich nicht ganz ernst zu nehmenden, Gedanken möchten wir vertiefen und in den nächsten Wochen weiter entwickeln.

Portfolios: Geschichten über sich. 

Die Portfolios von Valentin Marmonier und Cody Brendan James Ellingham erzählen Geschichten über die Gestalter selbst. Gleichermaßen zeigen sie ihre Kompetenzen treffend innerhalb der Umsetzung.

Die Portfolios von Valentin Marmonier und Cody Brendan James Ellingham erzählen Geschichten über die Gestalter selbst. Gleichermaßen zeigen sie ihre Kompetenzen treffend innerhalb der Umsetzung.

Valentin Marmonier ist ein in Amsterdam ansässiger Front-End Entwickler. Auf seiner Seite, die er selbst nicht direkt als sein Portfolio bezeichnet, scrollt man durch ein grafisches Weltall, in dem Seite für Seite seine persönlichen Ambitionen und Visionen zu lesen sind. So z. B. »Keep trying« oder »Keep learning«. Unterstützt werden die Texte durch animierten 3D-Grafiken, die via WebGL eingebunden sind. Im Gesamtpaket unterstreicht er mit dieser Webseite vor allem eins: Er ist Front-End Entwickler und das kann er gut. Und das ist eine hervorragende Art über sich selbst zu Erzählen. Und zwar genau auf den Punkt.

Der Designer Cody Brendan James Ellingham lebt in Tokyo und beschäftigt sich vor allem mit Sound, Motion und Interaction. Mit einer Reise durch einen Kiefernwald zeigt er seine Spezialgebiete, die er in seiner Web-Erzählung gelungen inszeniert. Er schreibt von der Inspiration, die er im Kiefernwald gefunden hat und der Nutzer kann die Töne der Vögel und eines Hirsches hören. Im Bereich »Motion« sieht man eine filmische Nahaufnahme eines aus der Schneeschmelze entstandenen Bächleins, das sich sanft bewegt. Auch Ellingham ist es gelungen mit seiner Seite genau das zu zeigen, was er kann. Etwas Wichtigeres gibt es im Portfolio wohl nicht.

Besonders beeindruckend finde ich an den Portfolios, dass der Aufbau und die Art und Weise der Inszenierung genau das auf den Punkt bringen, was die Designer können. Häufig sieht man ähnliche Portfolios, die je nach Jahr massenhaft im Magazin-Style oder mit Fullscreen-Fotos/Videos entstehen. Unabhängig davon, ob es Designer mit dem Schwerpunkt Fotografie, Editorial, Corporate Design oder Screendesign sind. Auf der anderen Seite ist das natürlich nachvollziehbar. Obwohl man sich für die eigene Sache Zeit nehmen sollte, ist das genau das Gebiet, das man häufig monate- oder jahrelang vor sich herschiebt. Am Ende ist man doch nie zufrieden mit den Entwürfen und es muss eine improvisierte »Schnelllösung« her. Und was »kurz improvisiert« ist, währt meist am längsten.

Abbildungen
  1. Eigener Screenshot, URL: http://vaalentin.github.io/2015/, abgerufen am 23.5.2016.

Erstes Experiment mit der giphy-Bibliothek

Für einen erstes Experiment habe ich einen vorhandenen Text verwendet, der innerhalb meiner Bachelor-Arbeit entstanden ist. Mein Bachelor-Projekt »Ohne Ich« ist eine audiovisuelle Auseinandersetzung im Kontext der aktuellen Lebenswelt und besteht aus 16 poetischen Texten. Die Tonspur ist 1:1 aus meiner Arbeit übernommen. Für mein Experiment habe ich nun via Slack einzelne Wörter und Phrasen in animierte GIFs übersetzt.

Vor etwa einer Woche hatte ich die Überlegung, die giphy-Bibliothek für Erzählungen zu nutzen (Giphy-Datenbank als Grundlage digitaler Erzählungen »).

Das Experiment

Für ein erstes Experiment habe ich einen vorhandenen Text verwendet, der innerhalb meiner Bachelor-Arbeit entstanden ist. Mein Bachelor-Projekt »Ohne Ich« ist eine audiovisuelle Auseinandersetzung im Kontext der aktuellen Lebenswelt und besteht aus 16 poetischen Texten. Die Tonspur ist 1:1 aus meiner Arbeit übernommen. Für mein Experiment habe ich nun via Slack einzelne Wörter und Phrasen in animierte GIFs übersetzt. Zuerst wollte ich konsequent den Unterschied von einzelnen Wörtern oder Phrasen beibehalten. Sprich eine Version, die nur aus einzelnen Wörten entstanden ist, eine Version aus Zeilen oder zusammengehörenden Wörtern. Da das leider nicht möglich war und teilweise zu keinem Ergebnis geführt hat, ist nun eine Mischung aus beiden Herangehensweisen entstanden.


Passwort: freude

Das Ergebnis

Das Ergebnis kann man leider nicht als vollständig funktionierend bezeichnen. Der Text ist grundsätzlich viel zu schnell für die animierten GIFs, so dass es – vor allem wenn man den Text nicht kennt – schwierig ist sowohl der auditiven als auch visuellen Welt zu folgen. Wenn man das Ganze humoristisch sieht, sind die Bilder jedoch grundsätzlich passend.

Das nächste Experiment

Für einen weiteren Versuch wäre es sinnvoll, einen Text zu wählen der langsamer ist oder einen neuen Text – spezifisch für das Experiment – zu schreiben. Des Weiteren ist es nach erster Einschätzung wichtig, dass die Texte eine starke Bildsprache haben müssten, so dass die giphy-Bibliothek passende Ergebnisse liefern kann.

Abbildungen
  1. Titelbild: American Idol, giphy, abgerufen am 6.5.2016.
Abbildungen im Video

Die Bilder sind der Reihenfolge nach im Video zu finden, alle abgerufen am 6.5.2016.

Personas: Wer verbirgt sich hinter dem »Nutzer«?

Neben bekannten Methoden der Zielgruppenanalyse wie beispielsweise das »Sinus-Modell« stellt Marco Spies in »Branded Interactions – digitale Markenerlebnisse planen und gestalten« die mir unbekannte Methode der »Personas« vor. Diese Methode der Zielgruppenanalyse halte ich für sehr einleuchtend und naheliegend und möchte deshalb bei Gelegenheit selbst Personas erstellen.

Neben bekannten Methoden der Zielgruppenanalyse wie beispielsweise das »Sinus-Modell« stellt Marco Spies in »Branded Interactions – digitale Markenerlebnisse planen und gestalten« die mir unbekannte Methode der »Personas« vor.

Bei Personas handelt es sich laut Spies um die Beschreibung »typischer Vertreter einer Zielgruppe oder eines speziellen Zielgruppensegments«.1 Genauer definiert er sie als hypothetisch, archetypisch und spezifisch. Das heißt sie sind zum einen keine realen Personen und stellen keinen Durchschnittsnutzer, sondern einzelne Individuen dar. Diese besitzen besondere Eigenschaften, Erfahrungen und Verhaltensweisen.2

Bei den Personas geht es demnach nicht darum, Nutzer in allgemeine Modelle einzuordnen und die ganze Gruppe zu betrachten, sondern um die Vorstellung einzelner Personen, die auf unterschiedlichste Art und Weise mit dem Medium in Berührung kommen.

Daten einer Persona

Zum einen gehört dazu Spies’ Cousin Felix, der die Nintendo DS und Wii nutzt, zum anderen gehört auch seine Tante in die Zielgruppe, da sie die Spiele für den noch jungen Cousin kauft.3 Um sich diese Personen genau vorzustellen und deren Wünsche und Bedürfnisse einordnen zu können, werden Personas erstellt, durch die versucht wird die Zielperson genau zu charakterisieren. Das geschieht zum einen durch Personalisierungsdaten (Name, Foto), soziodemographische Daten (Alter, Geschlecht, Beruf, …), psychografische Daten (Wünsche, Werte, Lebensstil, Hobbys, …), technografische Daten (technische Aussattung, Nutzungsverhalten, …) und geographische Daten (Wohnort, Land, Kultur, …).4

Personas helfen dabei, sich in den Nutzer hineinzuversetzen und sie stets vor Augen zu haben, sollte es Unklarheiten innerhalb der Entwicklung des Konzepts geben. Mit »Persona Moodboards« werden die Zielpersonen visualisiert und geben ein klares Bild darüber ab, wer letztendlich der Nutzer der Anwendung sein könnte. Ich halte Personas für eine sehr spannende Methode der Zielgruppenanalyse. Durch die Analyse erhält man keine abstrakten Mileu-Zuordnungen wie beispielsweise das »Traditionelle Milieu« oder das »Hedonistische Mileu«, sondern eine sehr konkrete Vorstellung darüber, wer die Anwendung letztendlich nutzen könnte und wie die jeweiligen Anforderungen sind. Jeder besitzt im Verwandten- und Bekanntenkreis Menschen aus sämtlichen Zielgruppen. Dabei haben die Großeltern andere Anforderungen als die Eltern, die wiederum andere als Kinder oder Freunde. Durch die konkrete Vorstellung der jeweiligen Person werden die Bedürfnisse sehr deutlich und vereinfachen den Entwicklungsprozess immens. Da ich diese Methode so einleuchtend finde, möchte ich bei Gelegenheit selbst Personas erstellen, um mögliche Zielgruppen meines Masterprojekts darzustellen.

Quellen
  1. Spies, Marco: »Branded interactions: digitale Markenerlebnisse planen und gestalten«, Mainz 2012, S. 81.
  2. Vgl. Ebd.
  3. Vgl. Ebd., S. 82.
  4. Vgl. Ebd.

Natural User Interfaces – Die unsichtbaren Schnittstellen

Marco Spies erwähnt in seinem Buch »Branded interactions : digitale Markenerlebnisse planen und gestalten« das Natural User Interface (NUI), durch das Eingabegeräte wie z. B. die Maus oder Tastatur überflüssig werden. NUI bezieht sich dabei auf die »Art der Nutzung, nicht auf das Interface selbst.« Welche neuen Möglichkeiten eröffnen sich und welche Potentiale können genutzt werden?

Marco Spies erwähnt in seinem Buch »Branded Interactions: digitale Markenerlebnisse planen und gestalten« das Natural User Interface (NUI), durch das Eingabegeräte wie z. B. die Maus oder Tastatur überflüssig werden. NUI bezieht sich dabei auf die »Art der Nutzung, nicht auf das Interface selbst«1.
Luciano Floridi erwähnt bereits, dass Schnittstellen immer transparenter werden (Erkenntnisse und Eindrücke zu Luciano Floridis Buch»Die 4. Revolution« ») und Spies beschreibt, dass Interfaces nicht automatisch »Natural« sind, wenn z. B. an bekannten Mouse-Interaktions-Mustern festgehalten wird. Des Weiteren empfiehlt er, dass sich Gestalter von bekannten click-and-point Design Pattern frei machen sollten.2

Veränderung der Strukturen digitaler Inhalte

Diese Tatsache bringt viele neue Herausforderungen für den Gestalter mit sich. Auch wenn sich das NUI eher auf die Art und Weise der Interaktion bezieht, stellen sich Fragen inhaltlicher und gestalterischer Natur. Aus meiner Sicht könnten sich sämtliche Strukturen digitaler Inhalte verändern. Steht die Art der Eingabe erstmal fest, sei es beispielsweise via Spracheingabe oder via freier Gesten durch Hardware wie der Microsoft Kinect, müssen sämtliche bisherige Pattern (Interaktionsmöglichkeiten) überdacht werden. Benötigt man auf Webseiten noch Navigationshilfen wie beispielsweise »Zurück-Buttons« oder Breadcrumbs, wenn man sich auch durch Gesten wie beispielsweise Swipen behelfen kann? Benötigt man generell noch eine Navigation wie bisher oder könnte auch hier eine völlig neue Art gefunden werden? Wie sieht eine Suchfunktion aus, die nicht mehr zwingend grafisch sein müsste, sondern ähnlich wie »Google Now« funktionieren könnte?

Verschmelzung der virtuellen und analogen Welt

Ich sehe hier viel Potential, digitale Inhalte noch spezieller auf digitale Medien zuzuschneiden. Viele Inhalte sind bisher nach wie vor der analogen Welt entrissen, so haben beispielsweise eBooks noch immer Seitenzahlen, die aus meiner Sicht völlig überflüssig sind. Andererseits sehe ich noch viel Raum für Annäherungen zwischen der virtuellen und analogen Welt, welche durch Natural User Interfaces bereits enger aneinander rücken. In den Bestrebungen Innovation zu schaffen, sehe ich häufig ein übergeordnetes Ziel: Die Verschmelzung der virtuellen und analogen Welt. Wie können Muster der analogen Welt noch mehr im Virtuellen eingesetzt werden, so dass sie einerseits nicht einfach stupide überführt werden, jedoch bekannte Interaktionsmuster von Menschen abgerufen werden können? Da sich Menschen mit der Technologie verändern und an sie anpassen, stellt sich die weitere Frage, welche Muster es überhaupt wert sind wieder aufgegriffen zu werden und welche man getrost fallen lassen kann.

Natural User Interfaces wird definitiv ein Thema sein, das meinen Master begleiten wird. Hier sehe ich sowohl im technischen als auch im gestalterischen Bereich sehr viel Potential für gestalterische Experimente und Innovationen.

Quellen
  1. Spies, Marco: »Branded interactions: digitale Markenerlebnisse planen und gestalten«, Mainz 2012, S. 223.
  2. Vgl. Ebd.

Giphy-Datenbank als Grundlage digitaler Erzählungen

Bereits in meinem Beitrag über Cinemagramme hatte ich die Überlegung aus diesen animierten GIFs eine Erzählung zu entwickeln. Eine weitere Idee ist, die GIF-Datenbank giphy mit einzubeziehen, welche durch die Möglichkeit Texte in Bilder zu übersetzen besonders spannend ist.

Ähnlich wie in meinem Beitrag Erzählungen durch Cinemagramme, gibt es momentan die Überlegungen, Erzählungen via giphy-Dateien zu entwickeln. Wie bereits erwähnt gibt es seit längerer Zeit ein Revival des animierten GIFs. Dementsprechend ist die Auswahl der wohl bekanntesten GIF-Bibliothek giphy groß.
In Chat-Anwendungen wie z. B. Slack, wird dabei die giphy-eigene Möglichkeit genutzt, Wörter in Bilder zu übersetzen. Gibt man »/giphy [x-beliebiges Wort oder Phrase]« ein, wird zufällig eine animierte GIF-Datei eingesetzt, die dementsprechend getaggt ist.

Daher gibt es momentan die Idee, das Experiment zu starten, ganze Texte in animierte GIFs zu übersetzen. Des Weiteren denke ich darüber nach, die API so zu nutzen, dass auf einer Website ein bestimmter Text hinterlegt ist und die »Bebilderung« jedes Mal in veränderter Form dargestellt wird. Auf lange Sicht gesehen, könnte eventuell sogar eine eigene Bildsprache entwickelt werden, die zum einen eigene, ausgewählte Bilder auf dem Computer nutzt, die in naher Zukunft ohnehin alle getaggt sein werden. Zum anderen eine Sprache, die sehr persönlich werden kann, so dass z. B. bei einer Person unter dem Wort »Lieblingstier« ein anderes Tier als bei einer anderen Person dargestellt wird.

Im ersten Schritt möchte ich jedoch definitiv das Experiment in Angriff nehmen, bereits geschriebene Texte zu bebildern. Das Ergebnis werde ich dann in meinem Dokumentations-Blog veröffentlichen.

Abbildungen
  1. Titelbild: Drunk monkey, URL: https://giphy.com/gifs/drunk-monkey-aXe2Vsb0jcVDq, via giphy, abgerufen am 8.4.2016.

Interaktives Schenken: Eine kommerzielle Web-Erzählung

Als Beispiel für eine kommerzielle Web-Erzählung habe ich ausgewählt. Der Däne Georg Arthur Jensen war Silberschmied, Designer und Künstler und so findet man auf www.georgjensen.com erstmal eine übliche Produktseite. Auf der Subdomain findet man dagegen ausgewählte Produkte in einer Erzählung präsentiert.

Als Beispiel für eine kommerzielle Web-Erzählung habe ich »gift of giving« ausgewählt. Der Däne Georg Arthur Jensen war Silberschmied, Designer und Künstler und so findet man auf www.georgjensen.com erstmal eine übliche Produktseite.
Auf der Subdomain findet man dagegen ausgewählte Produkte in einer Erzählung präsentiert. Man folgt in einzelnen Filmsequenzen verschiedenen Protagonisten auf einer Feier und kann bei Vier-Augen-Gesprächen auswählen, was dem Gegenüber geschenkt werden soll. Hat man ein Geschenk ausgewählt, folgt die nächste Sequenz, in der die Geschenkübergabe abgespielt wird. Anschließend wird das Produkt am Rande weiter angezeigt, so dass man bei Bedarf durch einen Klick weitere Details einsehen kann.

Screenshot: Gift of giving
Eine beschenkte FrauII

Auch wenn mich persönlich Web-Erzählungen, die rein für das Bewerben von Produkten gedacht sind, grundsätzlich nicht sonderlich interessieren, halte ich die Seite giving.georgjensen.com für gelungen. Die Möglichkeit einzelne Filmsequenzen mit interaktiven Momenten zu mischen, die den Verlauf ändern, finde ich spannend. Vor allem als Produktpräsentation, die nach wie vor sehr häufig langweilig inszeniert sind, halte ich das für einen wichtigen Schritt in die richtige Richtung.

Abbildungen
  1. Titelbild: Eigener Screenshot, Georg Jensen A/S, »gift of giving«, URL: www.giving.georgjensen.com/, abgerufen am 4.5.2016.
  2. Ebd.

Mit Hilfe von McLuhans Tetrade neue Trends entdecken

Mit der Tetrade entwickelt Marshall McLuhan ein Werkzeug, mit dem zum einen die Effekte von Medien auf die Gesellschaft dargestellt werden können. Zum anderen bringt die Tetrade die Möglichkeit mit sich, neue Trends zu erkennen. Mit ihrer Hilfe »lässt sich verstehen, daß jede Technologie, wenn vollständig entwickelt und in allen Bereichen eingesetzt, umschlägt und ihrer eigentlichen Intention entgegenwirkt.«

Mit der Tetrade entwickelt Marshall McLuhan ein Werkzeug, mit dem zum einen die Effekte von Medien auf die Gesellschaft dargestellt werden können. Zum anderen bringt die Tetrade die Möglichkeit mit sich, neue Trends zu erkennen. Mit ihrer Hilfe »lässt sich verstehen, daß jede Technologie, wenn vollständig entwickelt und in allen Bereichen eingesetzt, umschlägt und ihrer eigentlichen Intention entgegenwirkt.« Des Weiteren beschreibt McLuhan, dass eine vollständige Untersuchung nur mit gleichzeitiger Darstellung von Grund und Figur geschehen kann. Innerhalb der Tetrade werden beide erkennbar.1

Sie setzt sich aus vier verschiedenen Bereichen zusammen, jeweils zwei stellen die Qualitäten von Figur (links) und Grund (rechts) dar. Das für mich verständlichste Beispiel, war McLuhans Tetrade zum Automobil, die er in Global Village vorstellt.2

Die Tetrade nach Marshall McLuhan
Die Tetrade nach Marshall McLuhanI

Die Tetrade des Automobils

Das Automobil verstärkt und erweitert demnach die Fähigkeit, Entfernungen schneller überwinden zu können sowie »bis zu einer technisch bedingten Grenze Frachten zu transportieren«.
Gleichermaßen lässt es jedoch Formen gesellschaftlicher Organisationen veralten, die »ihre Wurzeln in der Tradition des Laufens und Reitens hatten«. Nachbarschaften brachen zusammen, die Menschlichkeit innerhalb von Städten »fiel ihrem Aufbau zum Opfer«, Zentren waren wie leer gefegt und der wegsanierte Lebensraum entstand in den Vorstädten.
Des Weiteren sorgt das Automobil für eine Wiedergewinnung (»zurücknehmend« in der Grafik) privater Identität und des Unabhängigkeitsgefühls.
In seiner Umkehrung wird die Technologie bis ins Extreme getrieben und richtet sich gegen den Menschen: Die Städte sind voller Staus und Abgase, mit der Folge, dass zum einen beispielsweise die Entwicklung elektrischer Mini-Autos beginnt (oben erwähnter, vorhersehbarer Trend). Zum anderen eine Wiedergewinnung im zweiten Artefakt stattfindet: Die körperliche und natürliche Aktivität der Menschen wird in der Form von Spazieren, Joggen oder Radfahren erneut gefördert.3

Dieses Werkzeug halte ich für uns Kommunikationsdesigner für besonders spannend, da es eine gute Unterstützung in der Generierung von Innovationen sein kann. Was passiert, wenn Technologien wie Smartphones oder Drohnen ins Extreme getrieben werden? Wo findet eine Wiedergewinnung statt und wann kehren sich diese gegen uns? Zeitnah möchte ich gerne verschiedene Technologien mit der Tetrade untersuchen. Das könnte zum einen sehr spannend und zum anderen sehr hilfreich sein, falls ich in meinem Masterthema beispielsweise eine Dystopie entwickeln möchte.

Quellen
  1. Vgl. McLuhan, Marshall; Powers, Bruce; Leonhardt, Claus-Peter: »The global village: der Weg der Mediengesellschaft in das 21. Jahrhundert«, Paderborn 1995, S. 15.
  2. Vgl. Ebd., S. 34.
  3. Vgl. Ebd.
Abbildungen
  1. Rittervomnie Merosonox (Eigene Arbeit), »Tetrade nach McLuhan zu Wirkung der Medien«, Stand: 7.9.2011, via Wikimedia Commons, abgerufen am 3.3.2016, Lizenz: CC BY-SA 3.0 oder GFDL.

Web-Erzählungen mit scroll activated animations

»Kaipo Che!« ist mehr Informationsseite über ein Kite Festival in Goa als eine tatsächliche Web-Erzählung. Dennoch möchte ich es als Beispiel zeigen, da es den Umgang mit den seit 1–2 Jahren häufig verwendeten scroll activated animations zeigt. Dabei werden, wie der Name schon ahnen lässt, Animationen durch das Scrollen beeinflusst.

»Kaipo Che!« ist mehr Informationsseite über ein Kite Festival in Goa als eine tatsächliche Web-Erzählung. Dennoch möchte ich es als Beispiel zeigen, da es den Umgang mit den seit 1–2 Jahren häufig verwendeten scroll activated animations zeigt. Dabei werden, wie der Name schon ahnen lässt, Animationen durch das Scrollen beeinflusst. Die Animationen werden dabei nicht einfach ausgelöst, sondern der Nutzer kann durch die Scrollgeschwindigkeit selbst Einfluss auf die Geschwindigkeit der Animationen nehmen.
Die Website zeigt zunächst das Logo von Kaipo Che!, sowie ein Schiff, das auf dem Wasser schwimmt. Scrollt man nach unten, zerbricht das Schiff durch einen Wal der nach oben springt. So verändert sich das Bild fortlaufend, wenn man weiter nach unten scrollt. Häuser mit fliegenden Drachen zoomen ein und wieder aus, später sieht man Menschen, die die Drachen halten. Des Weiteren erhält man Einblick in die Wohnhäuser, die offen gezeigt werden. Zwischendurch erhält der Nutzer die Information über das Kite Festival mit dem Datum und dem Ort, sowie genauere Informationen am Ende der Seite, die sich auf das Wesentliche konzentrieren.

Eindruck der Website

Grundsätzlich halte ich die Website für eine schöne Idee, ein Kite Festival zu bewerben. Die Illustrationen ergeben ein einheitliches Gesamtbild und es macht Spaß durch die Seite zu scrollen, um zu sehen, was als nächstes passiert. Dennoch ist innerhalb des illustrierten Parts nur eine einzige Information zu finden, nämlich dass es sich um das Goa Kite Festival handelt und wann und wo es stattfindet. Zwar bin ich Fan davon, Dinge nicht zu überladen und nur die nötigsten Informationen aufzunehmen, aber für diese eine Information scheint mir die Seite trotz minimalistischer Grafik etwas zu aufwändig und aufgebläht. Das Projekt zeigt jedoch, wie erwähnt, die scroll activated animations und findet daher einen Platz in meiner Auswahl.

Veranstaltungsseite für das Goa Kite Flying Festival 2016 auf www.kaipoche.co/II
Veranstaltungsseite für das Goa Kite Flying Festival 2016 auf www.kaipoche.coII

Zwischen Usability und User Experience

Die scroll activated animations finden sich zwischenzeitlich in unzähligen Webseiten, um eine spannende interaktive Komponente mit einzubringen. Ich persönlich mag Webseiten mit solchen Animationen sehr, da es Spaß macht, selbst das Bild der Seite zu verändern. Dennoch war bei Kaipo Che! schon bei Google der Hinweis, dass sie leider nicht auf Smartphones und Tablet funktioniert. Hier stellt sich mir die Frage, wie sehr die Usability eingeschränkt werden sollte, nur um eine tolle User Experience zu schaffen. In diesem Fall gibt es eine gute, alternative Lösung: Eine Illustration sowie alle Informationen kurz und knapp aufgelistet.
In anderen Fällen drängt sich die Frage nach Usability und User Experience jedoch auf. Dabei geht es nicht nur um Animationen dieser Art, sondern auch um multimediale Erzählungen oder anderen Seiten, die z. B. durch fehlerhafte Funktionsweise oder lange Ladezeiten zu Frustration beim Nutzer führen kann.
Letztere Fragestellung will ich weiter verfolgen, da ich das für ein wichtiges Thema halte, bei dem auch der Gestalter aufgefordert ist, umsetzbare Lösungen anzubieten.

Abbildungen
  1. Titelbild: Eigener Screenshot, Beard Design, »Kaipoche«, URL: www.kaipoche.co, abgerufen am 26.4.2016.
  2. Eigener Screenshot, Beard Design, »Kaipoche«, URL: www.kaipoche.co, abgerufen am 26.4.2016.

»Do not enter« – Storytelling mit Eye-Tracking

Das gemeinsame Projekt mit zwei Studenten des Bereichs Medientechnik ist nun abgeschlossen. Wie bereits in vorherigen Beiträgen berichtet ging es darum eine Demo zu bauen, die zeigt, welche möglichen Funktionen ein Eye-Tracker bietet.

Das gemeinsame Projekt mit zwei Studenten des Bereichs Medientechnik ist nun abgeschlossen. Wie bereits in vorherigen Beiträgen berichtet ging es darum eine Demo zu bauen, die zeigt, welche möglichen Funktionen ein Eye-Tracker bietet.

Die Reise führt den Nutzer durch ein verlassenes Haus, durch das er via Augen navigieren kann. Unterwegs werden Eye-Tracker-spezifische Möglichkeiten berücksichtigt. So kann z. B. in der Eingangshalle eine Taschenlampe mit den Augen gesteuert werden. An späterer Stelle wie z. B. dem Schlafzimmer mit Spiegel entwischt ein Gespenst, wenn man in den Spiegel schaut oder das Piano im nächsten Raum gibt Töne von sich, wenn man darauf schaut.

Die Reise durch das Haus ist letztendlich keine richtige Story, sondern eine passende Aneinanderreihung von Fotos, die eine einigermaßen einheitliche Welt aufbauen sollen.

Der Prozess

Die Arbeit mit den Medientechnikern war sehr angenehm und gut aufeinander abgestimmt. Man merkt jedoch schnell, an welchen Stellen Probleme zwischen den zwei Disziplinen Medientechnik und Design auftauchen und wo man sich gut abstimmen muss. So ist nicht jedes Design technisch umsetzbar und es müssen natürlich Kompromisse geschlossen werden. Ein Beispiel hierfür ist ein »Zurück-Pfeil«, den ich im Entwurf sowohl kleiner gestaltet als auch an anderer Stelle, näher am Rand, positioniert hatte. Das war jedoch nicht möglich, da der Eye-Tracker auf einen so kleinen Bereich am Rand nicht reagiert hat.


Passwort: eyetracking

Der Abschluss

Abschließend bin ich aus grafischer und konzeptioneller Sicht zwar nicht zufrieden mit dem Genre und Projekt an sich, dennoch war es eine gute Erfahrung in der Zusammenarbeit beider Disziplinen und eine gute Möglichkeit die Technik des Eye-Tracking für meine Arbeit in Betracht zu ziehen. Insgesamt halte ich es für keine Technologie, die eine große Zukunft im Bereich Storytelling haben wird, jedoch könnte es eine Funktion sein, die ähnlich der Webcam standardmäßig im Computer integriert ist.
Zusätzlich muss man natürlich kritisch hinterfragen, wie gut eine Technologie ist, die so sehr auf den reinen Instinkt abzielt. Damit ist es nicht nur möglich gezielt Inhalte auszuwählen. Wenn die Reaktionszeit des Eye-Trackers sehr schnell eingestellt ist, entscheidet der erste instinktive Blick und man ist ihm voll und ganz ausgesetzt.

Abbildungen

Die Bilder sind der Reihenfolge nach im Video zu finden.

1. AUSSENANSICHT
Alle: Lizenzfrei

2. EINGANGSHALLE
Eingangshalle | Zlatko Unger | Persönliche Zustimmung
Änderungen: Farbe, Belichtung , Einbau des Kerzenständers

Kerzenständer | Rod Waddington | CC BY-NC-SA 2.0
Änderungen: Einbau in Eingangshalle, Animation der Flammen, freigestellt

3. FLUR
Flur | stimpy023 (Flickr) | CC BY-NC-ND 2.0
Änderungen: Farbe, Belichtung

4. PIANOZIMMER
Zimmer | Vincent Ferron | CC BY-NC 2.0
Änderungen: Farbe, Belichtung

5. SCHLAFZIMMER
Zimmer | Vincent Ferron | CC BY-NC 2.0
Änderungen: Farbe, Belichtung, Änderung der Türfarbe

6. BILLIARDRAUM
Zimmer | Vincent Ferron | CC BY-NC 2.0
Änderungen: Farbe, Belichtung, Einbau einer animierten Maus

7. FLUR NACH BILLIARDRAUM
Flur | wildhack (Flickr) | CC BY-NC-SA 2.0
Änderungen: Farbe, Belichtung

8. LEERES ZIMMER
Bilderrahmen: Lizenzfrei
Bild im Bilderrahmen | Sarah Ackerman | CC BY 2.0
Änderungen: Farbe, Belichtung, Einbau des Bilderrahmens in den Raum, Einbau des Bildes in den Rahmen, Bild im Rahmen: Einbau eines Portraits

DREI ZIMMER ROSE HALL
Raum 1, Raum 2, Raum 3 | Sarah Ackerman | CC BY 2.0
Änderungen: Farbe, Belichtung, Portraiteinbau (R. 1), Türeinbau (R. 2)

9. KÄSTCHEN
Kästchen | Matthew Tomlinson | CC BY-NC 2.0
Änderungen: Farbe, Belichtung, Einbau einer Postkarte

Erzählungen durch Cinemagramme

Vor allem in sozialen Netzwerken feiert die animierte GIF-Datei seit längerer Zeit ihr Revival. Mit bewegten Katzen, Stars oder Comichelden, geschmückt mit lustigen Sprüchen, kann man nun weitaus entspannter und belangloser kommunizieren. Cinemagramme enthalten im Gegensatz zu den aus sozialen Netzwerken bekannten GIFS meist nur wenige bewegte Bildinhalte. Das könnte bei Erzählungen einen besonderen Reiz ausmachen.

Vor allem in sozialen Netzwerken feiert die animierte GIF-Datei seit längerer Zeit ihr Revival. Mit bewegten Katzen, Stars oder Comichelden, geschmückt mit lustigen Sprüchen, kann man nun weitaus entspannter und belangloser kommunizieren.

Cinemagramme (oder Cinemagraphs), die meist als animierte GIf-Datei gespeichert werden, werden dagegen seltener verwendet. Im Gegensatz zu den aus sozialen Netzwerken bekannten GIFs, enthalten Cinemagramme nur wenig bewegte Bildanteile. Einzelne Elemente werden animiert, während das restliche Bild ein Standbild ist. In Fotografien deren Hauptaugenmerk auf Objekte liegt, wirkt das aus meiner Sicht sehr andächtig und ruhig. Sobald Menschen eine Rolle spielen, kann die Bildstimmung kippen und befremdlich wirken.

Das Video von »Line of fire« von Junip besteht zwar nicht aus Cinemagrammen, zeigt jedoch sehr eindrücklich wie fremd es wirken kann, wenn Menschen geloopt werden. Die bedrückende Stimmung ist aber natürlich auch dem Lied an sich, sowie der gesamten Atmosphäre im Video geschuldet und wird durch die Video-Loops nur stark unterstrichen.

Momentan denke ich darüber nach, ob ich mit Cinemagrammen arbeiten werde und mit ihrer Hilfe eine Erzählung entwickeln kann. Durch die ruhige Stimmung kann ich es mir besonders gut vorstellen, die GIFs in Kombination mit einem poetischen Text zu setzen, da sie sich gegenseitig sicher gut in ihrer Wirkung unterstützen können.

Abbildungen
  1. Titelbild: Coffee Brigitte Bardot, URL: https://giphy.com/gifs/cinemagraph-coffee-brigitte-bardot-M6ewNmiX6pUmk, via giphy, abgerufen am 8.4.2016.

Linius – Ein Tool für digitales Storytelling

Für eine Exkursion nach Tarifa, habe ich mich in das Linius Storytelling-Tool eingearbeitet. Das Tool ist dafür gedacht, multimediale Stories einfach umsetzen zu können.

Für eine Exkursion mit Britta Wandaogo, Prof. Dr. phil. Stefan Asmus und Dr. phil. habil. Hyun Kang Kim nach Tarifa, habe ich mich in das Linius Storytelling-Tool eingearbeitet. Als wissenschaftliche Hilfskraft wird es später meine Aufgabe sein, die Geschichten der einzelnen Gruppen im Web technisch aufzubereiten. Die Exkursion findet Anfang Juni für fünf Tage statt.

Das Tool

Das Tool ist dafür gedacht, multimediale Stories einfach umsetzen zu können. Neben gewöhnlichen Artikeln oder Bildergalerien können zum Beispiel Hotspots oder eine Lupe eingebaut werden, wodurch Details erst auf den zweiten Blick sichtbar werden. Des Weiteren gibt es die Möglichkeit ein Intro zu erstellen oder einen Zähler auf der Seite zu integrieren, der nach vorheriger Dateneingabe das mitzählt, was man mitzählen möchte. Beispiel: Seit Sie auf dieser Seite sind, wurden xy Plastikbeutel im Meer versenkt.
Eine seitliche Navigation bietet einen schönen Überblick über die einzelnen Kapitel oder Inhalte.

Tools des Linius Storytelling-ToolsI
Tools des Linius Storytelling-ToolsI

Beispiele

Die Projekte Diyarbakir – Belagerte Stadt und Das Oktoberfest-Attentat sind zwei schöne Beispiele, die mit Linius entwickelt wurden. Beide Projekte zeigen den Umgang mit der Kombination aus Videos, Fotos sowie Bildergalerien, die teilweise grafisch genutzt werden.

Nicht sonderlich spektakulär

Zwar werde ich erst im Verlauf des Projekts weitere Einblicke in das Tool erhalten, auf den ersten Blick scheint es jedoch ein solides Tool zu sein, das einfach zu bedienen ist. Auffallend ist, dass einzelne Elemente wie die Hotspots scheinbar nicht responsive sind. Das werde ich im Prozess noch einmal testen. Sollte es jedoch tatsächlich so sein, fände ich das für ein bezahltes Tool, das wohl aus öffentlichen Geldern finanziert ist, keine gute Werbung. Den Anspruch als Tool, das sich in erster Linie an Menschen richtet, die Webseiten nicht selbst umsetzen können und ein einfach zu handhabendes Werkzeug benötigen, um Geschichten zu erzählen, kann es allemal erfüllen. Insgesamt sind jedoch die möglichen Beitragsarten wie z. B. Artikel, Audio, Vimeo- und YouTube-Embedding, Video oder Bildergalerie nicht sonderlich spektakulär.

Abbildungen
  1. Eigener Screenshot, URL: http://linius-storytelling.de/wp/, abgerufen am 7.4.2016.

Das verlassene Haus

Für unser Eye-Tracking-Projekt basteln wir gerade an einem Storyboard und testen die technischen Möglichkeiten des Geräts. In zwei Wochen soll die Demo dann vorgestellt werden.

Für das Eye-Tracking-Projekt (Wieso Eye-Tracking anstatt der Bedienung mit einer Maus oder der Tastatur? ») haben wir uns bereits für das mir ferne Genre »Mystery« entschieden. Genauer möchten wir ein verlassenes Haus entwerfen, durch das man via Eye-Tracking navigieren kann. Grundlage des Projekts sollen dabei Fotografien aus dem Netz sein, die mit der CC0-Lizenz gekennzeichnet sind.

Die Wahl des Genres ist damit begründet, dass hier besondere Eigenheiten des Eye-Trackings verwendet werden können. Für die reine Navigation durch ein Haus ständen genügend Alternativen wie z. B. die Maus zur Verfügung und würden den Einsatz von Eye-Tracking – aus meiner Sicht – nicht rechtfertigen. Viel mehr können damit beispielsweise Szenarien entwickelt werden, in denen ein Objekt reagiert, wenn man darauf schaut oder gerade dann, wenn es außerhalb des Blickes ist und nur durch eine Bewegung im Augenwinkel vermutet werden kann.

Für das Haus entwickele ich momentan ein erstes Storyboard, während die zwei Studenten aus dem Bereich Medientechnik verschiedene technische Möglichkeiten des Eye-Trackers testen. Die besondere Schwierigkeit beim Storyboard ist die Suche nach Fotografien, die natürlich auch die Entwicklung des Verlaufs beeinflussen. Durch die CC0-Lizenzen fällt es schwer ein einheitliches Bild zu schaffen. Die Unterschiede sollen, wenn möglich, durch anschließende Bildbearbeitung abgeschwächt werden.

Für die restliche Bearbeitung haben wir nun noch genau zwei Wochen Zeit bis die Demo vorgestellt werden soll.

Von Sternenhimmeln und Midi-Dateien

Olia Lialina nimmt sich der einzelnen Elemente an, die in den 90er Jahren populär und massenhaft im World Wide Web zu finden waren. Das Web ist noch nicht alt, die Menschen in Aufbruchstimmung und die Utopie, dass es dort einen wirklich freien und geschützten Raum für alle gäbe.

»Digital Folklore – To computer users, with love and respect« von Olia Lialina und Dragan Espenschied (Ed.) beschäftigt sich so wie die gesamte Arbeit der Medien- bzw. Netzkünstler mit der Webkultur der 90er Jahre.

Olia Lialina nimmt sich der einzelnen Elemente an, die in den 90er Jahren populär und massenhaft im World Wide Web zu finden waren. Dazu gehören die Under Construction-Schilder, Sternenhimmel als Hintergründe, Freie Kollektionen von Webelementen, Links sowie Linksammlungen, Midi-Lieder, die noch heute im Ohr nachklingen, Frames, das Tilde-Zeichen, die »Welcome to my Homepage«-Seite sowie große »Mail Me«-Buttons.1 Das alles steht für die 90er: Das Web ist noch nicht alt, die Menschen in Aufbruchstimmung und es gibt noch die Utopie, dass es dort einen wirklich freien und geschützten Raum für alle gäbe.

Mein 90er-Web

Ich persönlich war begeistert vom Web der 90er. Ich war häufiger online, als ich es tatsächlich sein sollte. Verglichen zu heute war die monatliche AOL-Flatrate von 30 Stunden aber natürlich lachhaft. Mit 14 (2000) habe ich meine erste Webseite bei geocities online gestellt und es war toll mit ersten Gästebüchern oder Foren eine Online-Plattform für meine Klasse schaffen zu können. Nichtsdestotrotz waren mir die Anfänge damals natürlich nicht vollends klar. Wie für die meisten Menschen war das WWW ein großer Spielplatz für mich. Ich war enthusiastisch und habe das Internet geliebt. Dennoch war mir mit 13/14 Jahren natürlich nicht der kulturelle Wert bewusst. Ich musste keine alternativen Nischen für meine Kunst finden oder viele Denkweisen meines bisherigen Lebens überdenken. Ich wuchs im Internet auf und konnte es so sehr schnell als Normalität annehmen.
Obwohl ich diesen Hype nicht als erwachsener Mensch wahrgenommen habe, war ich ein kleiner Teil davon und spüre noch heute, dass das Web der 90er eine gewisse Anziehungskraft ausstrahlt. Vielleicht mag es nostalgisch sein, doch ich erinnere mich gern an erste Experimente mit Frames, an erste geklaute Bildchen, die man hochladen konnte oder den Klang der Midi-Sounds.

Always under construction

Das Web wuchs weiter und die Under Construction-Schilder wandelten sich in Sätze wie »Always under construction«. Das Zeichen für ständige Aktualität bis im Web 2.0 die Beta-Versionen zum Standard nicht vollendeter Versionen war.2
Dieser Wandel ist für mich ein Zeichen dafür, wie sehr wir noch in der Gutenberg-Welt leben. Das Internet stellt keinen Anspruch auf Vollständigkeit, da dessen Eigenschaft daraus besteht, dass es ständig anwächst. Ein fortlaufendes Wachstum, ein täglich wandelbarer Raum, der von dieser Veränderung lebt und der ohne dessen Aktualität beinahe unbedeutend für uns wäre. Wir nutzen das Medium nicht überwiegend aus dem Grund, festgeschriebene und vollständige Informationen abzurufen. Das mag wichtig sein beim Recherchieren und natürlich suchen wir häufig nach Informationen, die uns weiterhelfen. Natürlich nutzen wir das Web auch als Tool für Flugbuchungen und Restaurantbewertungen. Doch der tägliche Umgang besteht wohl darin, die Veränderungen – die Neuigkeiten – abzugreifen. Neue Nachrichten der Welt, neue Trends bei Twitter, neue Posts bei Facebook oder neue Trends in der Designwelt. Das dürfte zumindest aus meiner Sicht den Großteil ausmachen.

Ein Hinweis dafür, wie sehr wir noch in der Welt ohne Internet und Computer leben, gibt auch Olia Lialina. Sie wundert sich darüber, wie viele Präfixe es gibt, nur um klar zu machen, dass etwas mit dem Computer hergestellt wurde oder über ein Computer Interface angesteuert werden kann: Net, web, media, computer oder digital.3 Wir scheinen noch großen Wert darauf zu liegen, diese Auswüchse klar zu kennzeichnen. Welcher Sinn steckt hinter Pendants wie Buch-Erzählung oder Literatur-Story?
Zugegeben verwende ich selbst häufig Präfixe dieser Art. Es ist das Bedürfnis genau zu definieren, um was es sich handelt und eine Unterscheidung zu treffen. Dennoch bräuchte man diese Präfixe spätestens dann nicht mehr, wenn man sich schon im Web bewegt.

Digital Folklore

Das Buch »Digital Folklore« ist ein wertvolles Buch, welches sich lohnt zu lesen. Projekte von Studenten der Merz Akademie Stuttgart zeigen einen experimentellen Umgang mit dem World Wide Web, Texte über Internet-Trends wie z. B. Lolcats, geben einen Einblick in die Internet-Kultur und Olia Lialina kann mich mit ihren Recherchen und Analysen zu der Kultur der 90er Jahre ohnehin stets neu begeistern.

Quellen
  1. Vgl. Lialina, Olia; Espenschied, Dragan: »Digital Folklore«, Stuttgart 2009, S. 20–33.
  2. Vgl. Ebd., S. 20f.
  3. Vgl. Ebd., S. 9.

Erinnerungsnetzwerk

Das Erinnerungsnetzwerk resultiert ursprünglich aus dem Problem, meine Gedanken, Ideen und Recherchen bezüglich des Masterthemas klar zu ordnen und zu strukturieren.

Das Erinnerungsnetzwerk basiert ursprünglich aus dem Problem, meine Gedanken, Ideen und Recherchen bezüglich des Masterthemas klar zu ordnen und zu strukturieren.

Die Lösung war zunächst, alles niederzuschreiben, um aus dieser Sammlung neue Ansätze zu entwickeln. Da es schwierig ist die komplexen Zusammenhänge analog darzustellen, habe ich nach digitalen Lösungen gesucht. Auf eine Empfehlung hin war die erste Überlegung, die Software »the brain« zu nutzen, die es mittels Verknüpfungen ermöglicht ein komplexes Netzwerk der einzelnen Beiträge zu entwickeln.

Aus diesem Gedanken entstand die Fragestellung, wie viel verborgene Erinnerungen in unserem Gehirn lagern, sowie die Idee das eigene Gehirn zu visualisieren.

Nur ein kleiner Teil des Gehirns wird genutzt

Im Alltag denken wir nur an eine bestimmte Zahl von Menschen und Dingen, die uns wichtig sind und verbinden damit meist nur wenige Eigenschaften, Erlebnisse oder Ähnliches. Bei genauerem Nachdenken wird einem erst bewusst, wie viele Erinnerungen oder Fakten es tatsächlich gibt, wenn man an einem Strang weiter denkt. So wäre beispielsweise allein mein Hobby Fußball ein komplexes Konstrukt aus unzähligen Untersträngen mit Menschen, Erlebnissen, Eindrücken oder Strängen, die in einen anderen Lebensbereich reichen. Das macht mir erst bewusst, wie komplex und umfangreich so ein Gehirn tatsächlich ist.

»Weißt Du noch«-Momente

Eine weitere Grundlage ist etwas, dass ich in meiner Jugend – wenn auch selten – gemacht habe: Ich habe »Weißt Du noch«-Erlebnisse in meinen Kalender eingetragen. Dabei schreibt man beispielsweise ein Ereignis von heute als »Weißt du noch«-Moment ein paar Monate später in den Kalender. An diesem Tag wird man dann an das heutige Erlebnis erinnert.

Diese Ansätze habe ich gedanklich zum Erinnerungsnetzwerk weiter entwickelt. Das Grundsätzliche ist dabei nicht, einfach alles zu speichern oder zu visualisieren. Sondern das Anzeigen, sprich das Erinnern an das Vergessene.

Das Netzwerk beruht dabei zunächst auf Bildern, die sehr gut getaggt sein müssten, was ich jedoch ohnehin als zukünftigen Standard ansehe. Zudem besitzen schon jetzt, zum Teil sehr einfache, Bildarchivierungsprogramme die Möglichkeit der Gesichtserkennung. Das Programm findet sogar Fotos einer Person aus unterschiedlichen Lebensjahren. Zusätzlich könnten beispielsweise Anekdoten eine Rolle spielen. Das halte ich jedoch für zu viel Aufwand für den Nutzer, da er das selbst einpflegen müsste.

Das Netzwerk könnte daraufhin »Weißt Du noch«-Momente schaffen. Wie bei Blogs, die ähnliche Artikel anzeigen, könnte das Erinnerungsnetzwerk Fotos zeigen, die passend zum angezeigten Foto sind. Sprich ein angezeigtes Urlaubsfoto zeigt weitere Fotos aus einem anderen Urlaub an, das Bild einer Person andere Erlebnisse und Momente mit dieser Person.

Das Konzept des Erinnerungsnetzwerks möchte ich gern weiter entwickeln, da ich es für einen spannenden Ansatz halte. Technisch scheint es erstmal nicht sehr aufwändig zu sein, da es ähnlich wie ein Blogsystem im Web funktionieren könnte. Dieser einfache Start könnte jedoch noch weitaus komplexer sein.

Der Verlust der 90er Jahre

»Digital Folklore – To computer users, with love and respect« von Olia Lialina und Dragan Espenschied beschäftigt sich so wie die gesamte Arbeit der Medien- bzw. Netzkünstler mit der Webkultur der 90er Jahre.
Mit ihrer Arbeit »One Terabyte of Kilobyte Age« archivieren und analysieren sie Geocities-Webseiten, die kurz vor der Schließung des Webseiten-Dienstes, gesichert werden konnten. Auch in ihrem Buch weisen sie erneut darauf hin, dass unsere Inhalte auf MySpace, Facebook und Co. eines Tages gelöscht und vergessen werden könnten.

»Digital Folklore – To computer users, with love and respect« von Olia Lialina und Dragan Espenschied beschäftigt sich so wie die gesamte Arbeit der Medien- bzw. Netzkünstler mit der Webkultur der 90er Jahre.
Mit ihrer Arbeit »One Terabyte of Kilobyte Age« archivieren und analysieren sie Geocities-Webseiten, die kurz vor der Schließung des Webseiten-Dienstes, gesichert werden konnten. Auch in ihrem Buch weisen sie erneut darauf hin, dass unsere Inhalte auf MySpace, Facebook und Co. eines Tages gelöscht und vergessen werden könnten.1

Auch Luciano Floridi (Von der Kultur, die statisch wurde ») sieht das als problematisch an. Er spricht dabei vom digitalen Gedächtnisverlust, der z. B. durch veraltete Technologien zu Stande kommt, da diese nicht mehr nutzbar sind (z. B. Diskette) oder die Inhalte nicht von einer alten Technologie in eine neue übertragen werden (z. B. von der Diskette auf CD).2 Durch die Überspeicherung von Webseiten werden Dokumente in einen Zustand der Geschichtslosigkeit geführt und damit flüchtig wie die mündliche Kultur.3

Die Arbeit der zwei Künstler findet primär im Bereich Web statt und sie greifen vergangene Trends sowie die Aufbruchstimmung zu Beginn des Webs auf. Hier wird mir erneut bewusst, wie viel kulturelle Eigenheiten und Phasen durch die Löschung von Daten verloren geht. Schon jetzt ist es schwierig, die 90er Jahre im Web zu »finden«. Zwar ist es insgesamt noch ein leichtes, da viele der jetzigen Nutzer schon damals online waren und die Ästhetik und Stimmung des damaligen Web 1.0 kennen. Zudem gibt es schon erste Retrotrends, die die 90er imitieren. Dennoch werden die Webseiten dieses Jahrzehnts – bis auf die, die bewusst gespeichert werden – in naher Zukunft sicherlich verschwunden sein.

Unabhängig davon, ob es erste Firmenwebseiten oder Seiten für das eigene Haustier sind: Wie ist es möglich, die Daten und damit ein Teil der Kultur und Geschichte zu konservieren? Gibt es Parallelen zu Büchern, welche sicher auch nicht vollständig die Zeit überdauert haben? Und wie wichtig ist es überhaupt, dass möglichst alles noch in 20 Jahren auffindbar ist? Wie vermessen wäre es denn, das alles nicht zu speichern, wenn wir doch generell die Möglichkeit haben vieles zu speichern?

Ich denke, dass es in den nächsten Jahren enorm wichtig sein wird, auf diese Fragen eine Antwort und eine gute Lösung zu finden. Vielleicht ist es schon ein Anfang, wenn wir zumindest mit unseren eigenen Daten sorgfältiger umgehen.

Abschließend noch ein Hoffnungsschimmer: Zumindest mit der waybackmachine kann man sich 498 Milliarden Webseiten ansehen, viele von ihnen reichen bis in die 90er Jahre.

Quellen
  1. Vgl. Lialina, Olia; Espenschied Dragan: »Digital Folklore«, Stuttgart 2009, S.8.
  2. Vgl. Floridi, Luciano: »Die 4. Revolution – Wie die Infosphäre unser Leben verändert«, Berlin 2015, S. 36.
  3. Vgl. Ebd., S. 37.

Wieso Eye-Tracking anstatt der Bedienung mit einer Maus oder der Tastatur?

Erste Ansätze für das Gemeinschaftsprojekt mit zwei Studenten im Bereich Medientechnik. Welche spezifischen Möglichkeiten bieten sich für eine Bedienung mit einem Eye-Tracker an?

Bei einem erneuten Treffen mit den Medientechnikern, wollen wir erste Ansätze für unser Projekt, nämlich die Möglichkeiten eines Eye-Trackers zu zeigen, finden. Um die wenige Zeit gut nutzen zu können, sind die ersten Überlegungen, primär mit vorhandenem Material zu arbeiten. Für aufwändige 3D-Modelle ist die Zeit zu kurz und ein erster festgelegter Pfeiler ist, dass wir im zwei-dimensionalen arbeiten wollen. Des Weiteren reduzieren wir die Anwendung auf einen zusammenhängenden Inhalt, der aber keinen konkreten Plot mit verschiedenen Erzähl-Strängen oder gut entwickelten Charakteren besitzen muss.
Um den Inhalt – welcher auch immer – gut verknüpfen zu können, ist eine erste Überlegung mit einem selbst geschriebenen Text zu arbeiten, der über gefundenes »Creative Commons«-Material gelegt werden kann. Ein gutes Beispiel hierzu finde ich die Arbeit »Grosse Fatigue« von Camille Henrot, die den Versuch wagt das Universum von Beginn an zu erzählen. Eine weitere Idee ist die Umsetzung einer Art Zeitmaschine, da man auch hier sehr lose und dennoch zusammenhängend, Inhalte miteinander verknüpfen könnte. Des Weiteren wäre die Auseinandersetzung mit einem bestimmten Thema, das mit einen Kosmos einzelner Informationen umspannt werden könnte, interessant. So wäre es möglich Stück für Stück die verschiedenen Aspekte zu betrachten, um sich so zu informieren. Bei letzteren Beispielen könnte man als Fokussierung für den Eye-Tracker Objekte wie Bilderrahmen, Notizbücher oder auch Personen nutzen, über die man jeweils tiefer ins Geschehen eintauchen würde.

Grundsätzlich steht jedoch die Frage im Raum, welchen Vorteil das Eye-Tracking gegenüber einer Bedienung mit der Maus oder Tastatur wirklich hat. Die vorangegangenen Beispiele wären auch sehr gut ohne Eye-Tracking möglich, da die spezifischen Eigenheiten dieser Technologie nicht wirklich genutzt wären. Was macht das Eye-Tracking also aus? Wichtig für uns ist, dass der Blick selbst eine große Rolle spielt. Dazu gehört z. B., dass »Aktionen« genau dann ausgelöst werden, wenn man nicht an die jeweilige Stelle schaut oder genau dann, wenn man etwas fokussiert. Ein »Gimmick«, das wir des Weiteren gerne einbauen würden, ist die Erkundung und Entdeckung durch ein eingeschränktes Sichtfeld. In einem Video von tobii (10 ways to use eye tracking in games ») wird diese Funktion ab Minute 2:35 als Taschenlampe vorgestellt.

Auch wenn mir persönlich das Genre sehr fern ist, entscheiden wir uns für eine Anwendung, die Richtung »Mystery« geht. In den nächsten Schritten, möchten wir schnellstmöglich ein grobes Konzept dafür entwickeln, um schnell in die Umsetzung gehen zu können. Denn neben der Zusammenstellung des Materials wird sehr viel Zeit für mögliche Animationen oder die Programmierung und Optimierung nötig sein.

Die Dynamik der Medien richtig nutzen

In »Medien verstehen – Der McLuhan-Reader«, herausgegeben von Martin Baltes, Fritz Böhler, Rainer Höltschl und Jürgen Reuß, findet man Marshall McLuhans Untersuchung »Die mechanische Braut: Volkskultur der industriellen Menschen«. Hier beschreibt er, wie sich ihm fortwährend Edgar Allan Poes »Sturz in den Malstrom« ins Bewusstsein drängt.

In »Medien verstehen – Der McLuhan-Reader«, herausgegeben von Martin Baltes, Fritz Böhler, Rainer Höltschl und Jürgen Reuß, findet man Marshall McLuhans Untersuchung »Die mechanische Braut: Volkskultur der industriellen Menschen«. Hier beschreibt er, wie sich ihm fortwährend Edgar Allan Poes »Sturz in den Malstrom« ins Bewusstsein drängt. Die Hauptessenz ist dabei, nicht »gegen die beachtlichen Strömungs- und Druckkräfte anzukämpfen, die sich durch die mechanischen Einwirkungen von Presse, Radio, Kino und Werbung um uns herum aufgebaut haben«, sondern ihre Abläufe genau zu studieren und deren Dynamik zu nutzen.1 Diese Essenz halte ich vor allem für uns Kommunikationsdesigner – als Vermittler von Informationen – für sehr essentiell.

Während der letzten Jahre macht sich eine Angst vor den digitalen Medien, sowie Unwissenheit und Unsicherheit breit. Dystopien sagen uns unsere »schwarze Zukunft« mit ganzheitlicher Überwachung, Transparenz und Kontrolle voraus. Ein Beispiel hierfür ist z. B. der Roman »Der Circle« von Dave Eggers (Der unvollkommene Kreis »). Doch während wir uns heutzutage noch vermeintlich schützen können, indem wir offline gehen oder uns mit einem alten Nokia 3210 zufrieden geben, wird es in der nahen Zukunft kaum mehr Möglichkeiten geben, uns aus der medialen Welt zurückzuziehen.
Man könnte sich sämtlichen Innovationen verschließen, jedoch wird es zum einen immer häufiger erzwungene Berührungspunkte mit der Technologie geben. Zum anderen bleibt man auf der Strecke, wenn man sich stets dem Neuen verweigert.

Umso wichtiger ist es, einen angemessenen Umgang mit diesem medialen Wandel zu finden. Hierfür halte ich McLuhans Überlegung, den medialen Strom zu nutzen, für sehr wichtig. Anstatt ständig gegen ihn anzukämpfen, sollten wir den Strom dafür nutzen, Lösungen zu finden und zu verbreiten, die uns den Umgang entweder erleichtern oder überhaupt erlernen lassen. An dieser Stelle halte ich auch das Stichwort Medienkompetenz, die ich schon an anderer Stelle hinterfragt habe (Der digitale Wahn – Zwischen Medienkompetenz und Chaoskopf »), für wichtig. Die Kompetenz mit Medien umgehen zu können wird immer wichtiger, fällt jedoch nachfolgenden Generationen, die schon in der Infosphäre aufwachsen, sicherlich von Grund auf leichter.

Quellen
  1. Baltes, Martin; Böhler, Fritz; Höltschl Rainer; Reuß Jürgen (Alle Hg.): »Medien verstehen – Der McLuhan-Reader«, Mannheim 1997, S. 29.

Digitales Storytelling – Eine lose Sammlung

Wie können Erzählungen im und mit dem digitalen Bereich aufgebaut werden? Zwei Beispiele für digitale Erzählungen sowie einer »immersive documentary«.

Im Rahmen meiner Recherche bezüglich des Projekts mit Eye Tracking (Storytelling mit Hilfe von Eye-Tracking ») bin ich auf die folgenden Beispiele gestoßen, die ich nur als lose Sammlung auflisten möchte. Es lohnt sich diese Erzählungen selbst durchzuklicken, letzteres (»Door in the dark«) wird auch als »immersive documentary« bezeichnet.

»Firestorm« von The Guardian (Jon Henley & Laurence Topham): Schauen und Klicken
»Snow Fall« von der New York Times (John Branch): Schauen
»Door in the dark« von Robert Frost: Trailer

Neuer Realismus und digitale Welt

Im Rahmen des Kurses »Neuer Realismus und Digitale Welt« bei Prof. Dr. Stefan Asmus im WS 2015/2016, setze ich mich zusammen mit Sabrina Calvagna und Vernice Collet mit dem Buch »Die 4. Revolution – Wie die Infosphäre unser Leben verändert« auseinander. Autor ist der Informationsphilosoph Luciano Floridi.

Im Rahmen des Kurses »Neuer Realismus und Digitale Welt« bei Prof. Dr. Stefan Asmus im WS 2015/2016, setze ich mich zusammen mit Sabrina Calvagna und Vernice Collet mit dem Buch »Die 4. Revolution – Wie die Infosphäre unser Leben verändert« auseinander. Autor ist der Informationsphilosoph Luciano Floridi.

Neben einem Vortrag erarbeiteten wir eine theoretische Auseinandersetzung, die wir in einem Buch zusammenfassen. Ein erstes Resümee ist bereits im Beitrag »Erkenntnisse und Eindrücke zu Luciano Floridis Buch ›Die 4. Revolution‹ « zu finden.

Neuer Realismus und Digitale Welt – Texte über eine neue Philosophie für die Gegenwart

Storytelling mit Hilfe von Eye-Tracking

Eine erste praktische Anwendung, um einen konkreteren Ansatz für meine Master-Arbeit zu finden.

Um einen konkreteren Ansatz für mein Master-Projekt zu finden, hat mich Prof. Anja Vormann in Kontakt mit Christian Geiger gebracht, der an der Hochschule Düsseldorf Professor für Mixed Reality und Visualisierung ist. Nach einem ersten Vortreffen, konnte der Kontakt zu zwei Studenten aus dem Bereich Medientechnik hergestellt werden. Gemeinsam möchten wir nun bis Ende April ein Projekt realisieren, das in erster Linie dazu dient, Möglichkeiten eines Eye-Trackers zu zeigen. Mit der Nutzung eines Eye-Tracker von tobii wurde bereits eine kleine Anwendung realisiert, in der man bei der Fokussierung festgelegter Punkte in die nächste Bildebene gelangt. So ist zu Beginn beispielsweise ein Haus mit Fenstern, beim Blick auf eine Weltkugel im Fenster gelangt man in das Zimmer. So arbeitet man sich Ebene für Ebene vor bis sich das ganze als Endlosschleife wiederholt.
Unsere Aufgabe ist es nun, eine ähnliche Anwendung umzusetzen, die die Möglichkeiten mit zusammenhängendem Inhalt zeigt. Dabei soll zunächst keine »Story« im eigentlichen Sinn entstehen, die Inhalte sollten jedoch nicht einfach lose und unabhängig voneinander sein.

Von Loops und der Hyper-Realität

Das Buch »Expanded Narration« vereint Essays zur B3 Biennale des Bewegten Bildes, die sich ganz dem Geschichten erzählen im digitalen Zeitalter widmet. Besonders spannend ist für mich dabei der Essay »Loop Narration und hyper-überlagerte Narrative« von Eva Paulitsch und Uta Weyrich.

Das Buch »Expanded Narration. Das Neue Erzählen« von Bernd Kracke und Marc Ries (Hg.) vereint Essays zur B3 Biennale des Bewegten Bildes, die sich ganz dem Geschichten erzählen im digitalen Zeitalter widmet.

Besonders spannend ist für mich dabei der Essay »Loop Narration und hyper-überlagerte Narrative« von Eva Paulitsch und Uta Weyrich.
Da ich bereits darüber nachdenke, Erzählungen mit animierten GIFs oder Cinemagraphs zu entwickeln, deren Eigenschaft u. a. die Wiederholung ist, interessiert mich vor allem ein Part des Essays, der sich mit der Erzählung durch Loops beschäftigt: »Lange #Loops nehmen den Verstand mit auf eine Reise. Ein langer Loop fördert die Generierung vieler Assoziationen, wohingegen ein kurzer Loop durch schnell abfolgende #Wiederholungen eher eine spezifische Idee kultiviert. Jedoch ist auch eine kurze Loop-Sequenz aufgrund ihrer hypnotisierenden Wiederholungen imstande, den Geist des Betrachters auf neue assoziative Handlungswege zu führen.«1
Und weiter: »Ein Loop löst die Wichtigkeit der Positionierung auf, lässt somit jedes Ereignis auf einer unsichtbaren #zirkulären Zeitleiste mehrdeutig werden.«2

Zum einen finde ich dabei die Einteilung von kurzen und langen Loops sehr interessant, da ich mich nie so spezifisch damit auseinandergesetzt habe. Bei meinen eigenen Gedanken spielte bisher eher die generelle Frage nach erzählerischer Logik und dem Gesamtzusammenhang der einzelnen Loops eine Rolle.
Zum anderen halte ich die Auflösung der Wichtigkeit der Positionierung für essentiell. Nachdem ich überzeugt bin, dass es eine Rückbesinnung auf eine natürliche Art der Erzählung gibt, habe ich mich näher mit Marshall McLuhan beschäftigt (Das globale Dorf – Raum, Zeit und Dynamik »). Er spricht davon, dass wir zunehmend in einer Welt der Gleichzeitigkeit leben und die Zeit aufgehört und der Raum verschwunden ist. Während vor allem die asiatische und orientalische Welt längst in dieser Welt lebt.
Die Vorstellung von Gleichzeitigkeit ist für mich als sequentiell denkender und visuell geprägter Mensch – wie wir es im Westen nun mal sind – unvorstellbar.
Obwohl ich den Ansatz sehr spannend finde und sehr lange über ihn nachgedacht habe, bin ich nie zu einem konkreten Punkt gekommen, der mir in meinem Masterthema weiter hilft. Es motiviert mich lediglich, eine Erzählung zu schaffen, die in ihrer Gleichzeitigkeit aufgeht.
Aus diesem Grund finde ich die Idee des Loops, der sich in seiner Zeitlichkeit auflöst besonders spannend. Das könnte meine Überlegungen bezüglich einer Erzählung mittels animierter GIFs oder Cinemagraphs weiter anreichern.
Eine erste Idee hierzu ist eine Rauminstallation mit vielen Bildschirmen, auf denen einzelne Clips abgespielt werden. Jedes Video, GIF oder Cinemagraph würde dabei einen Teil der Erzählung darstellen, die sich dem Zuschauer nach und nach erschließen würde. Dabei wäre es zu vernachlässigen, eine lineare Ordnung zu schaffen. Wichtiger wäre es, einen Mikrokosmos der Erzählung zu entwickeln, in den man gänzlich eintauchen kann.

Eva Paulitsch und Uta Weyrich erwähnen passend dazu, dass es für den Aufbau interpretierbarer Narrative essentiell ist, Kausalitäten zu vermeiden. Des Weiteren sollte der Betrachter »nur so viel an Informationen erhalten, um sich seine eigene Bedeutung zu kreieren.«3
Diese Punkte sind auch aus meiner Sicht besonders wichtig. Vor allem die Möglichkeit, dass der Betrachter selbst die Welt erschließt und in ihm das Gefühl entsteht, die Geschichte selbst entdeckt zu haben, halte ich für einen bedeutsamen Faktor heutiger Erzählungen.

Abschließend möchte ich noch ein Aussage von Parker Ito übernehmen, die im selben Essay zitiert wurde. Er erwähnt, dass wir in einer hybriden Realität leben, in der es einen fließenden Übergang zwischen dem physischen und virtuellen Raum gibt und es die Option der 90er Jahre, sich nämlich einfach auszuloggen, nicht mehr gibt. Er hält den Übergang der Welten zwar für flüssig, jedoch nicht für nahtlos.4 Diesen Gedanken halte ich deshalb für spannend, weil sich auch Luciano Floridi (Erkenntnisse und Eindrücke zu Luciano Floridis Buch »Die 4. Revolution« ») mit diesem Thema auseinandersetzt. Zwar spricht auch er davon, dass es eine Onlife-Erfahrung geben wird, in der die Unterscheidung zwischen on- und offline nichtig ist. Jedoch sieht Floridi keine zwei Welten, sondern eine einzige Infosphäre, in der es kein außen und innen mehr geben wird.

Quellen
  1. Kracke, Bernd, Ries, Marc (Hg.): »Expanded Narration. Das neue Erzählen«, Bielefeld 2013, S. 163.
  2. Ebd.
  3. Ebd., S. 164.
  4. Vgl. Ebd., S. 163.

Zwischen narrativem Wissen und additiven Informationen

Byung-Chul Han beschäftigt sich in seinem Buch »Die Errettung des Schönen« erneut mit der Frage nach der Zeitlichkeit und seiner narrativen Strukturen gegenüber punktueller Abfolgen von Ereignissen. Für ihn sind Informationen eine reine Addition, die nichts erzählen und die Narration verdrängen. Wissen besitzt dagegen eine Innerlichkeit und verbindet durch eine andere Zeitstruktur die Vergangenheit mit der Zukunft.

Byung-Chul Han beschäftigt sich in seinem Buch »Die Errettung des Schönen« erneut mit der Frage nach der Zeitlichkeit und seiner narrativen Strukturen gegenüber punktueller Abfolgen von Ereignissen.
Für ihn sind Informationen eine reine Addition, die nichts erzählen und die Narration verdrängen.1 Wissen besitzt dagegen eine Innerlichkeit und verbindet durch eine andere Zeitstruktur die Vergangenheit mit der Zukunft.2 Informationen weisen jede Metapher von sich, sind transparent und sprechen geradeaus, während sich das Wissen geheimnisvoll zurückziehen kann.3 Des Weiteren lassen sich laut ihm zwar Informationen aus dem »Daten-Haufen« herausfiltern, »sie generieren jedoch weder Erkenntnis noch Wahrheit.«4 Zusätzlich wohnt der Wahrheit »eine Vertikalität inne. Daten und Informationen bewohnen dagegen das Horizontale.«5

Narration trotz Informationen

In meinem Beitrag »Das globale Dorf – Raum, Zeit und Dynamik« beschreibe ich meine Überlegungen, eine Narration zu erstellen, die letztendlich durch Daten – und damit Informationen – dynamisch veränderbar ist. An dieser Stelle komme ich in den Zwiespalt, ob das tatsächlich eine Erzählung sein kann, der die grundlegende Eigenschaft von Dauer innewohnen kann, über die Han auch schon in anderen Büchern schreibt. Aus meiner Sicht könnte es dem Anspruch einer Narration gerecht werden, wenn die eigentliche Erzählung von Menschenhand – damit durch Wissen und nicht durch reine Information – entwickelt ist und lediglich die Bildwelt mit genau festgelegten Kriterien durch Information erschaffen wird. Generell müsste man diesem Ansatz jedoch als Experiment sehen, da es durchaus sein kann, dass die Bildwelt trotz exakter Kriterien eher additiv und zufällig entsteht und die eigentliche Erzählung nicht transportiert wird. Andererseits wäre hier Raum für unvorhersehbare Zufälligkeiten, die ihr einen neuen Reiz zusprechen könnte.

Mit Loops zum Moment der Dauer

Han führt zudem aus, dass kinematographische Bilder im Gegensatz zu Photogrammen aufgrund ihrer Zeitlichkeit kein punctum besitzen. »Die Sprache des punctum ist ein Traumprotokoll der Imagination« und man kann die Augen nicht schließen, weil beim Öffnen ein anderes Bild zu sehen ist. Man ist zu ständiger Gefräßigkeit gezwungen und vor allem die Nachdenklichkeit würde hier auf der Strecke bleiben.6 Hier stelle ich mir die Frage, ob meine Idee, Erzählungen mit Loops zu schaffen (Von Loops und der Hyper-Realität »), dieses Problem lösen kann. Man hätte immer wieder auf ein Neues Zeit, in sich zu gehen und die Loops auf sich wirken zu lassen. Zusätzlich gäbe es keinen konkreten Anfang und kein konkretes Ende, was grundsätzlich einen Moment der Dauer hervorrufen könnte. Mit dieser Fragestellung möchte ich mich weiterhin beschäftigen, da ich momentan davon überzeugt bin, dass es eine Lösung geben könnte, die beide Welten von Information und Wissen vereint.

Quellen
  1. Vgl. Han, Byung-Chul: »Die Errettung des Schönen«, Frankfurt am Main 2015, 3. Auflage, S. 90.
  2. Vgl. Ebd., S. 19.
  3. Vgl. Ebd., S. 42.
  4. Ebd., S. 71.
  5. Ebd.
  6. Vgl. Ebd., S. 49.

Shoppen oder Sitzenbleiben während Kinofilmen

Im Essay »Keine Eile, keine Zeit. Zur Frage der richtigen Dauer eines Films« beschreibt Vinzenz Hediger unter anderem, dass Filme früher »in Loops als Dauerschleife« im Kino liefen. Daher gab es in Hollywood-Filmen häufig Redundanzen, um auch den Zuschauern, die mitten im Film ins Kino kamen, die Gelegenheit zu geben, die Erzählung zu verstehen.

Das Buch »Expanded Narration. Das Neue Erzählen« von Bernd Kracke und Marc Ries (Hg.) vereint Essays zur B3 Biennale des Bewegten Bildes, die sich ganz dem Geschichten erzählen im digitalen Zeitalter widmet.

Im Essay »Keine Eile, keine Zeit. Zur Frage der richtigen Dauer eines Films« beschreibt Vinzenz Hediger unter anderem, dass Filme früher »in Loops als Dauerschleife« im Kino liefen. Daher gab es in Hollywood-Filmen häufig Redundanzen, um auch den Zuschauern, die mitten im Film ins Kino kamen, die Gelegenheit zu geben, die Erzählung zu verstehen. Lediglich Hitchcock begann mit der Forderung, dass man Psycho »am besten von Anfang an schaut«.1

Andy Warhol schaffte dagegen mit »Empire« einen 8-stündigen Film, weil er zum einen gegen das Sitzenbleiben rebellieren wollte und zum anderen sollte man die Möglichkeit haben, während des Films raus zu gehen, um z. B. einzukaufen.2
»Inception« oder »The Sixth Sense« werden als aktuelle Beispiele genannt, in denen es den Versuch gibt, Geschichten in Fragmenten zu erzählen.3

Wie man sieht, ist unsere heutige Film- und Kinokultur, bei der man Filme bestenfalls von der ersten Sekunde an schaut, gar nicht so alt. Der naheliegende Gedanke ist, dass so auch weitaus kompliziertere Geschichten erzählt werden können, wenn nicht ständig Redundanzen auftauchen und das Level nicht auf einem »Ich kann immer einsteigen und verstehe es dennoch«-Level bleibt. Zwar möchte ich nicht behaupten, dass man zeitgenössische Beispiele wie »Inception« und »The Sixth Sense« unabhängig vom Einstieg versteht, dennoch zeigen die Filme einen hohen Grad an Komplexität.
Hedigers Essay bringt mich in meinem Masterthema in meinen Überlegungen zu gleichzeitigen Erzählungen weiter. Ich habe mich mit Marshall McLuhan beschäftigt (Das globale Dorf – Raum, Zeit und Dynamik »), der davon spricht, dass wir zunehmend in einer gleichzeitigen Welt leben. Als westlicher Mensch – und damit als sequentiell denkender und visuell geprägter Mensch – fällt mir die Vorstellung von Gleichzeitigkeit schwer. Obwohl ich seinen Ansatz sehr spannend finde, befürchte ich ihn nicht im Detail zu verstehen. Dennoch motiviert er mich, eine Erzählung zu entwickeln, die sich in ihrer Gleichzeitigkeit auflöst. Ich finde es interessant, dass nur vor wenigen Jahrzehnten Filme im Loop gezeigt wurden. Momentan überlege ich, eine Erzählung mit animierten GIFs oder Cinemagraphs zu schaffen, welche für mich die Grundeigenschaft der Wiederholung in sich tragen. Zwar bedeutet animierte GIFs nicht gleichermaßen, dass sie eine Wiederholung in sich tragen. So wie sie jedoch heute in sozialen Netzwerken verwendet werden, wird ihnen diese Eigenschaft aufgesetzt. Ich kann mir vorstellen, dass in einer Rauminstallation mit mehreren Bildschirmen Loops gezeigt werden und sich der Betrachter selbst die Erzählung erschließt. Doch bis dahin ist es noch ein langes Vorhaben.

Quellen
  1. Kracke, Bernd; Ries, Marc (Hg.): »Expanded Narration. Das neue Erzählen«, Bielefeld 2013, S. 202.
  2. Vgl. Ebd.
  3. Vgl. Ebd., S. 203

Das globale Dorf – Raum, Zeit und Dynamik

Marshall McLuhan beschreibt in seinem Buch »Global Village«, dass das elektrische Zeitalter ein neues Kommunikationsmodell benötigt. Durch dieses Zeitalter, dass die »Gutenberg-Galaxis« ablöst, lösen sich Raum und Zeit auf, da Informationen unabhängig von Raum und Zeit transportiert werden können.

Marshall McLuhan beschreibt in seinem Buch »Global Village«, dass das elektrische Zeitalter ein neues Kommunikationsmodell benötigt.1 Durch dieses Zeitalter, dass die »Gutenberg-Galaxis« ablöst, lösen sich Raum und Zeit auf, da Informationen unabhängig von Raum und Zeit transportiert werden können. Ein mehrfach erwähntes Beispiel ist dabei eine Anekdote eines Apollo-Astronauten. Als es die ersten TV-Übertragungen von Raumfahrten gab, war der Mensch gleichzeitig auf der Erde als auch im Weltall, Raum und Zeit lösten sich damit auf und das globale Dorf entsteht.2

Die unterschiedliche Nutzung der linken und rechten Gehirnhälfte

Während die Bevölkerung im orientalischen und asiatischen Raum sehr von der rechten Hemisphäre des Gehirns geprägt ist, erhält die linke Hemisphäre in der westlichen Welt den Vorzug.3 Die linke Hirnhälfte arbeitet sehr sequentiell und kausal. Alle Geschehnisse werden eingeordnet, Fähigkeiten wie das Lesen oder Schreiben sind hier beheimatet. Die rechte dagegen besitzt qualitative Fähigkeiten oder auch beispielsweise musikalische und akustische.4 Während die orientalischen Fähigkeiten darin liegen, dass das Leben »mit allen Sinnen gleich erfasst und im Gleichgewicht keine ordnenden Schwerpunkte kennt«, ist die abendländische Denkweise an eine unbewegliche Sicht mit dem Bedürfnis nach Hierarchien gekettet.5 Sie ordnet Informationen strukturell in den visuellen Raum ein, in dem die Dinge in zeitlicher Folge miteinander verbunden sind. Beispiele sind hierfür Gemälde oder die Fotografie.6 Auf der anderen Seite werden in der rechten Hemisphähre des Hirns Geschehnisse und Prozesse in gleichzeitige Beziehung gesetzt. Überall befinden sich – ohne Abgrenzung – Zentren und Fokusse, was unserer heutigen Informationswelt an Komplexität sehr nahe kommt. Ein Beispiel hierfür ist die auditive Welt, wie z. B. die Klangwelt einer Symphonie.7
In seiner Theorie vom Wechselspiel von Grund und Figur bringt er ein, dass orientalische Kulturen den Grund sehen, während die westliche Welt sehr stark an den Figuren orientiert ist.8 Da alle elektronischen Medien jedoch die rechte Hirnhälfte betonen9, wird zukünftig zunehmend ein neues Kommunikationsmodell und eine Orientierung an der rechten Hälfte wichtig werden.

Die Linearität des Buchdrucks, die unser westliches Denken stark beeinflusst, wird dadurch abgelöst, dass elektromagnetische Wellen einen Raum der Gleichzeitigkeit entstehen lassen, in dem die Informationen, die sich mit Lichtgeschwindigkeit bewegen, nicht linear-sequentiell, sondern gleichzeitig auf uns einprasseln.10 Entscheidend ist, dass nicht die Inhalte, sondern das Medium selbst unser Denken prägt und formt. So wird unsere Denkweise stark durch das Buch – mit seiner linearen und sequentiellen Form – beeinflusst. Eine emotional reduzierte Form und Vereinheitlichung der Sprache entsteht durch die Schrift.

Zurück zu dynamischen Erzählungen

Neben der Gleichzeitigkeit und Auflösung des Raums, spielt in der heutigen Gesellschaft vor allem die Dynamik eine große Rolle. Schon im November habe ich mich dem Wechselspiel von Statik und Dynamik auseinandergesetzt (Von der Kultur, die statisch wurde »). Diesen Ansatz wollte ich nun mit den Theorien von McLuhan weiterverfolgen. Meine damalige Überlegung war, dass erst durch die Schrift Erzählungen festgeschrieben wurden. Zuvor waren sie dynamisch und wurden – wie man es auch heute bei mündlichen Erzählungen kennt – verändert überliefert. Jede Besonderheit der Sprache sowie die Emotionalität des Erzählers wurden ausgemerzt, da für jeden ers