Untersuchung der visuellen Evolution

Am Mittwoch habe ich meinen bisherigen Ansatz im Masterstudio präsentiert. Dabei war zum einen wichtig, worum es im Kern meiner Untersuchung geht, zum anderen welche Aspekte ich dabei berücksichtigen möchte.

Am Mittwoch habe ich meinen bisherigen Ansatz im Masterstudio präsentiert. Dabei war zum einen wichtig, worum es im Kern meiner Untersuchung geht, zum anderen welche Aspekte ich dabei berücksichtigen möchte.

Der Fokus soll, wie schon beschrieben, klar auf der visuellen Untersuchung liegen, jedoch bin ich überzeugt davon, dass man die visuelle Ebene nicht isoliert betrachten kann. Zudem finde ich es spannend und wichtig, welche kulturellen und technologischen Aspekte daran angeknüpft werden können.

Weiter stelle ich mögliche theoretische Inhalte vor, wie die Historie des World Wide Webs, die Auseinandersetzung mit Informationssystemen sowie die Entwicklung grafischer Benutzeroberflächen. Zudem schwebt mir vor, mein Thema medientheoretisch zu untermauern; hier muss ich jedoch überdenken, welche Theoretiker tatsächlich passend für mein Thema sind. Bisher hatte ich an Marshall McLuhan, Vilém Flusser, Byung-Chul Han, Luciano Floridi und Felix Stalder gedacht. An dieser Stelle muss ich die Unterscheidung treffen, wer seine Theorien schon mit der Kenntnis der digitalen Welt geschrieben hat und ob beispielsweise Han, welcher sich im Allgemeinen kulturkritisch äußert, überhaupt relevant ist.
Es könnten weitere Vertreter wie Ada Lovelace, Charles Babbage oder Alan Turing berücksichtigt werden, welche aber aufgrund ihrer Irrelevanz für mein Thema nur am Rande auftauchen können.

Die wichtigste und gleichzeitig offenste Frage ist, welches Ziel ich mit meiner Arbeit verfolge. Hier konnten wir aufgrund der kleinen Runde fast drei Stunden diskutieren und Möglichkeiten abwägen. Auf mögliche Ansätze und weitere Research-Möglichkeiten werde ich im Anschluss meiner Präsentation eingehen.

Die dargestellte Präsentation ist nicht vollständig, da ich zu viel redundante Informationen, wie beispielsweise die Namen der Medientheoretiker, für überflüssig halte.

Präsentation | Kern der Untersuchung

Präsentation | Kulturelle und technische Aspekte

Präsentation | Entwicklung zum eigenen Medium mit eigener Formsprache

Präsentation | Beispielhaft für theoretische Inhalte: Ted Nelson

Präsentation | Beispielhaft für theoretische Inhalte: Vannevar Bush

Präsentation | Beispielhaft für theoretische Inhalte: Doug Engelbart

Präsentation | Grafische Analyse

Präsentation | Grafische Analyse

Präsentation | No-Layout-Ära – Statisch – Fluid

Präsentation | Mögliche Stilrichtungen

Präsentation | Veränderung des Designs

Präsentation | Neue Ansprüche

Präsentation | Auflösung von Interfaces

Grenzen der Evolution

Einen Ansatz, den ich zunächst ausgeschlossen habe, ist die Überlegung, wie grafische Benutzeroberflächen der Zukunft aussehen könnten. Dabei geht es nicht zwingend darum, ein mögliches Interface bis zum Ende zu gestalten. Viel wichtiger ist es, die Ergebnisse meiner visuellen Recherche zu analysieren, beschreiben, hinterfragen und zu verbinden. Auf Basis analysierter Muster, und mit dem Verständnis wie vergangenes und gegenwärtiges funktioniert, können Schlüsse für das Kommende gezogen werden.

Zudem ist wichtig zu wissen, dass eine Evolution nicht unendlich weiter geht, sondern sich als abflachende Kurve oder sogar in Wellen verhält. Das bedeutet, dass sich Entwicklungen nicht nur verlangsamen, sondern sogar umkehren können.

Kulturelle Bedeutung des Interfaces

Auf Grundlage des Status Quo kann nicht nur interessant sein, wie zukünftige Interfaces aussehen, sondern auch wie User Interfaces die Zukunft verändern können. Weiter ist die Perspektive, wie die gesellschaftliche Wirkung von Interfaces ist, interessant. Für diese Impulse, die ich besonders spannend finde, benötige ich aber noch Zeit, um sie weiter reifen zu lassen. Generell scheint es vielversprechend, eine Brücke zu gesellschaftlichen Themen zu schlagen.

Eine wichtige Essenz des Gesprächs ist zudem die, dass sich die visuelle Analyse letztendlich auf ein völlig anderes Thema beziehen könnte. Auf technischer Seite haben wir weitere Punkte verdeutlicht.

Die Erhaltung des menschlichen Körpers

Vannevar Bush und Doug Engelbart zielen mit ihren Visionen und Entwicklungen nicht darauf ab, die Technik selbst zu verbessern. Vielmehr geht es im Kern darum, das menschliche Leben zu verbessern. Diese Feststellung ist insofern aufschlussreich, dass auch heutzutage die unausweichliche Frage im Raum steht, was wir mit der Gestaltung von Interfaces bewirken. Geht es darum, die Technik selbst zu verbessern oder spielt es tatsächlich eine Rolle, welche Erleichterung der Mensch durch das Ergebnis erfährt? In welchen Bereichen benötigt der Mensch zweifelsfrei Unterstützung? Ein Fazit aus dem Gespräch ist, dass es ein Anliegen sein sollte, den menschlichen Körper nicht verkümmern zu lassen, sondern dessen Können zu akzeptieren, miteinzubeziehen und mit technischen Möglichkeiten lediglich zu verbessern.

Weiter ist eine erkennbare Entwicklung, dass sich Mensch und Maschine immer näher kommen und zunehmend verschmelzen. Schnittstellen verschwinden zunehmend und es ist eine generelle Entwicklung zurück zum Körper zu sehen. An dieser Stelle frage ich mich jedoch, wie weit wir gehen wollen. Möchte ich beispielsweise bei meiner täglichen Arbeit wirklich wild gestikulierend vor einem Riesen-Interface stehen, um Inhalte durch die virtuelle Welt zu swipen?

Eine zusätzliche Erkenntnis ist, dass sich Technik dessen Evolution vollstreckt ist, nicht mehr rückgängig machen lässt. Hier ist nur die völlige Verbannung oder die sinnvolle Integration hilfreich. Halbverbannte Technologien, wie beispielsweise die Google Glass, leben sonst in versteckten Grauzonen weiter.

Darstellerische Möglichkeiten

Eine der Ideen, welche ich hatte, konnten weiter ausgeführt werden. Ursprünglich dachte ich an den Bau eines Raums oder Tunnels, in dem die Evolution dargestellt wird. Im Gespräch hatten wir innerhalb der Studenten unter anderem die Idee, dass man eine Zeitreise durchgehen kann. Jeder hat seine eigenen Erfahrungen mit dem Web und durch eine gute Inszenierung könnte sich der Besucher selbst gedanklich zurückerinnern und somit emotional angesprochen werden. Das kann durch die Verwendung von passenden Requisiten und Soundelementen unterstützt werden. In Bezug auf die Soundkomponente, kann man festhalten, dass das Web sowohl auditiv als auch visuell ruhiger und klarer geworden ist. Das beginnt bei der vorhandenen Technologie wie beispielsweise Modems, die sich geräuschvoll einwählen, oder laut kleckernden Tastaturen und zieht sich durch die visuelle Ebene weiter durch. Auch hier ist zu erkennen, dass sich das sehr überladene und blinkende Design in eine minimalistische, geordnete und ruhige Umgebung verwandelt.
Der enzyklopädische Ansatz könnte durch mehrere Handlungssträngen unterstützt werden, welche sich durch die Evolution ziehen und das Storytelling unterstützen.
Wünschenswert, aber sehr schwierig umzusetzen, wäre eine poetische Ebene miteinzubringen. Prof. Dr. Phi. Stefan Asmus spricht auch von einer Metaebene, über die man von oben oder unten auf alles blicken kann. Auch denkbar wäre, dass ich eigene Thesen oder die eigene Sicht einarbeite – das würde meine Arbeit von der rein faktischen Ansicht unterscheiden. Das ist vor allen Dingen deshalb wichtig, da die Arbeit als Designer sehr von Intuition geprägt ist. Im Gespräch fällt der Vergleich mit einem Gitarrenspieler, der sich intuitiv voll und ganz auf die Musik einlässt und möglicherweise nicht wissenschaftlich exakt erklären kann, was nun genau passiert ist.
Die poetische Ebene könnte auch dazu dienen, dass das was kodifiziert gezeigt wird, gleichzeitig das zeigt, was nicht dargestellt wird. Hier verwenden wir die berühmte Eisberg-Metapher, bei der nur die Spitze des Eisbergs sichtbar über dem Wasser liegt.

Die Erweiterung des Menschen

Im weiteren Verlauf sprechen wir über künstliche Intelligenz und wie schon erwähnt über Technologien, die den Menschen unterstützen sollen. Letztendlich geht es immer darum, das Leben des Menschen zu verbessern und die künstliche Intelligenz trägt unterstützend dazu bei. In Kooperation können Probleme gelöst werden und die häufige Darstellung, dass wir mit Chips leben und von KIs getrieben und bedroht werden, ist vorerst weit hergeholt. Ein Kernpunkt ist der, dass Algorithmen im Unterschied zum Menschen nichts Unbekanntes benennen können. Das heißt nicht, dass sie keine Fähigkeit haben selbst zu lernen und sich selbst zu verbessern, jedoch kann etwas, das in keiner Form im System war, nicht selbst erstellt werden. Die Gedanken im Bezug auf künstliche Intelligenzen finde ich auch in Bezug auf Interface Design sehr spannend. Letztendlich geht es immer darum, dem Menschen bestmöglichen Zugang zu einem System zu geben und hier ist die Überlegung spannend, was der Mensch überhaupt braucht, um sinnvoll auf ein System zugreifen kann. Das meine ich sowohl im allgemeinen Bezug auf Interfaces als auch speziell mit Blick auf das Design grafischer Benutzeroberflächen.

Weitere Empfehlungen

Je nachdem in welche Richtung ich mich entscheide, können mir eine weitere theoretische Auseinandersetzung helfen. Dabei geht es zum einen um den Technikbegriff von Heidegger. Zum anderen könnte Bruno Latours Akteur-Netzwerk-Theorie interessant sein, falls ich mich tiefer mit der Koexistenz von Mensch und Maschine beschäftigen möchte. Barads buch über den agentiellen Realismus, Dirk Bäckers Text über Designvertrauen sowie Luhmanns Theorien über Weltkunst könnten weitere Quellen sein.

Momentan bin ich mir unschlüssig, welche Richtung ich einschlagen möchte. Die theoretischen Hintergründe, welche wir im Studio diskutiert haben, habe ich prinzipiell verstanden. Letztendlich fällt es mir aber schwer so schnell eine Verknüpfung zu meinem Thema zu finden. Hier möchte ich mir noch einige Tage Zeit geben und in den nächsten Tagen intensiv über mein Abschlussprojekt nachdenken. Dabei kommen Pro-Contra-Listen zum Einsatz und die wichtige Frage, die ich mir selbst beantworten muss, ist was ich selbst möchte. Was möchte ich mit meinem Abschlussprojekt später machen und welches Thema holt mich so leidenschaftlich ab, dass ich darin nicht nur wochenlang eintauchen möchte, sondern bestenfalls einen Forschungsschwerpunkt oder Interesse für danach finde.

Mögliche Wege meiner Master-Arbeit

In meiner Zwischenbesprechung mit Alain Yimbou am 28.3.2018 geht es um den aktuellen Stand meines Master-Projekts sowie um die mögliche praktische Umsetzung. Mein Thema, das den Arbeitstitel »evolution of a medium« trägt, zielt auf die kulturellen, technologischen und visuellen Veränderungen des World Wide Webs von Beginn an.

In meiner Zwischenbesprechung mit Alain Yimbou am 28.3.2018 geht es um den aktuellen Stand meines Master-Projekts sowie um die mögliche praktische Umsetzung. Mein Thema, das den Arbeitstitel »evolution of a medium« trägt, zielt auf die kulturellen, technologischen und visuellen Veränderungen des World Wide Webs von Beginn an.

Mögliche Inhalte

Kulturell sind für mich die Verformung der Gesellschaft, die Auflösung geographischer Grenzen, die Infosphäre, die Neuordnung von Raum und Zeit sowie das Web als Abbild der Kultur interessant. Technologisch könnte man das Web als jeweiligen Prototype der nächsten Entwicklung sehen. Zudem ist die Technologie als Motor und Lösung spannend für mich. Entwicklungen im Frontend, wie beispielsweise die Erstellung von Web-Layouts mit Tabellen, Floats, Flexbox oder CSS Grid gehören dabei fast schon in den visuellen Bereich.

Während kulturelle und technologische Aspekte vielmehr eine Nebenrolle spielen werden, steht vor allen Dingen der visuelle Part im Vordergrund. Nachdem das Web anfänglich mit seinen sehr gegenständlichen UI-Elementen eher eine Übersetzung der materiellen Welt war, evolviert es zunehmend zu einem eigenen Medium. Weiter halte ich den Verlauf von einer »No-Layout-Ära« hin zu sehr statischen Layouts und zurück zu fluiden Umsetzungen für sehr wichtig. Auch hier ist zu sehen, dass sich das Web zunächst sehr am Printbereich orientiert hat, um sich dann als eigenes Medium zu etablieren. Die Veränderung der grafischen Benutzeroberflächen, basierend auf kulturellen Lernprozessen und technologischem Fortschritt, ist ein weiterer essenzieller Bestandteil.

Theoretischer Teil

In meinem theoretischen Part möchte ich mich neben der historischen Entwicklung des World Wide Webs und grafischer Benutzeroberflächen mit Informationssystemen, medientheoretischen Inhalten sowie allgemeinen Konzepten des World Wide Webs auseinandersetzen. Dieser Bereich bietet zwar nur oberflächliche Einblicke, hilft mir jedoch zur Orientierung und zur Erfassung des Gesamtkontexts.
Im Bereich der Informationssysteme werde ich mich unter anderem mit Paul Outlet, Vannevar Bushs Memex, J.C.R. Licklider, Ted Nelson, Doug Engelbart und Bill Atkinsons HyperCard beschäftigten. Im medientheoretischen Teil möchte ich Einblicke in die Theorien von Marshall McLuhan, Vilem Flusser, Luciano Floridi, Byung-Chul Han oder Felix Stalder geben. Hier muss eine weitere Auswahl oder Erweiterung zeigen, welche Inhalte tatsächlich relevant für meine Arbeit sein werden. Im allgemeinen könnten Konzepte wie z. B. das von Linked Open Data bereichernd sein.

Praktische Ansätze

In welche exakte Richtung mein praktisches Projekt gehen könnte, ist momentan noch unklar. Für ein spannendes Detail halte ich die zeitliche Einordnung. In diesem Jahr wird das freie World Wide Web 25 Jahre alt und das erste Proposal jährt sich im kommenden Jahr zum 30. Mal. Ich kann mir sowohl eine Ausstellung im World Wide Web als auch im realen Raum vorstellen, wobei wir die ausschließliche Präsentation im Web während des Gesprächs ausgeschlossen haben. Um die digitalen Ergebnisse physisch greifbarer zu machen, macht es durchaus Sinn eine Exposition im realen Raum zu entwickeln. Wie die finale Umsetzung aussehen könnte, muss sich allerdings während meiner weiteren Arbeit herauskristallisieren.

Wie in meinem Beitrag »evolution of a medium« schon ausgeführt, kann ich mir vorstellen, eigene Räume zu bauen und Elemente des Webs, wie beispielsweise den berühmten Sternenhimmel oder MIDI-Sound, ins Analoge zu transportieren. Weiter wäre die Übersetzung von UI-Elementen mithilfe von 3D-Druck denkbar. Im vergangenen Beitrag beschreibe ich mögliche weitere Komponenten, welche ich an dieser Stelle nicht weiter ausführen möchte.

Ausblick

Meine Arbeit könnte Fragen nach zukünftigen Veränderungen beinhalten. Sowie der Einsatz von Natural User Interfaces vieles in der Gestaltung verändert hat, gehe ich davon aus, dass Conversational User Interfaces, Voice Interfaces oder dergleichen massive Auswirkungen auf grafische Benutzeroberflächen haben werden. Auch das Konzept von Linked Open Data beziehungsweise die generelle – auch automatisierte – Darstellung von Informationen wird sicher noch viele, neue Herausforderungen für Gestalter mit sich bringen.
Vor allem die neueren Formen von Interfaces als auch die Verwendung von Technologien wie Eye-Tracking und Augmented oder Virtual Reality, könnten aus meiner Sicht die Auflösung aktueller Formen von grafischen Benutzeroberflächen mit sich bringen.

Inspirierende Projekte

Abschließend habe ich inspirierende Projekte zusammengefasst, welche ich innerhalb meiner Master-Dokumentation behandelt habe. Dazu gehört »Once Upon« von Olia Lialina und Dragan Espenschied, welche im Jahr 2011 soziale Netzwerke mit den technologischen Möglichkeiten von 1997 nachbauten. Weiter inspiriert mich von den beiden Netzkünstlern »One Terabyte of Kilobyte Age«, welches ein Archiv von geocities-Seiten darstellt, die kurz vor Schließung des Dienstes gesichert wurden. Bei beiden gefällt mir vor allen Dingen die visuelle Komponente, welche die visuelle Ästhetik der 90er Jahre widerspiegelt. »Grosse Fatigue« stellt für mich eine großartige, poetische Form dar, ein Thema zu behandeln. Eine beeindruckende Verbindung zwischen theoretischen Inhalten und visueller Darbietung sehe ich zudem in den Projekten »In Pieces« von Bryan James, »Pulse« von Markus Kison und »Laws of UX« von Jon Yablonski.

Für meine Abschlussarbeit möchte ich eine visuelle Form finden, welche die Inhalte direkt und ohne Umschweife kommuniziert und die Ästhetik des Webs gleichermaßen mit aufnimmt.

Räumliche Bedienumgebungen

John Underkoffler, welcher unter anderem ein Interface für den Minority Report entwickelt hat, hält einen TED-Talk über die Zukunft der Interfaces.

John Underkoffler, welcher unter anderem ein Interface für den Minority Report entwickelt hat, hält einen TED-Talk über die Zukunft der Interfaces.

Ein wichtiger Standpunkt, den er vertritt, ist der, dass wir uns grundlegende Gedanken über neue Benutzeroberflächen machen müssen.1 Seit der Entwicklung des Macintoshs und dessen Benutzeroberfläche Anfang der 80er Jahre, hat sich auf technologischer Ebene unglaublich viel verändert. Nichtsdestotrotz arbeiten wir nach wie vor mit ähnlichen Systemen.2

Er führt den Raum als wichtige Komponente an, der Computer und deren Programmiersprachen verstehen die Geometrie der realen Welt jedoch nicht.3 In einem ersten Beispiel zeigt er, wie projizierte Objekte in realen Objekten verschwinden können.4 Er zeigt damit, wie virtuelle und nicht-virtuellen verschmelzen und erklärt, dass Eingabe und Ausgabe im selben Raum stattfinden. Er führt ein weiteres Beispiel an, welches ich besonders beeindruckend finde. Das System Urp für »urban planners« ist ein Werkzeug für Architekten, welche nun mit ihren eigenen Händen im realen Raum mit digitaler Unterstützung arbeiten können. Underkoffler spricht davon, dass den Architekten und Stadtplanern damit Modelle zurückgegeben werden, welche einst durch CAD-Systeme konfisziert wurden. Auf einer projizierten Oberfläche können beispielsweise Häusermodelle verschoben werden, welche Schatten werfen. Die Tageszeit wird dabei auf einer Uhr dargestellt, welche auch als reales Modell vorhanden ist, und die manuelle Veränderung der Zeit verändert gleichermaßen den Schattenwurf. Informationen, ob es beispielsweise Probleme mit der Baubehörde geben könnte, werden umgehend mit einbezogen.5
Diesen Anwendungsfall halte ich für ein gelungenes Beispiel, wie die Verbindung zwischen virtueller und nicht-virtueller Welt sinnvoll eingesetzt werden kann. Erstaunlich ist, dass diese »räumlichen Bedienumgebungen« bereits vor 15 Jahren im MIT und Media Lab entstanden sind.6

Räumliche Bedienumgebung Urp
Urp – Urban plannersI

Ein weiteres Beispiel von Underkoffler halte ich dagegen für nicht allzu anwendbar. Ihm werden auf der Leinwand (in der realen Arbeitsumgebung vermutlich kleiner) Bilder angezeigt, welche er mithilfe eines Bedienhandschuhs frei anordnen kann. Er navigiert durch die Galerie, zoomt rein und raus und zeigt Beispiele, wie die Bilder auf verschiedene Arten, z.B. nach Farbe, sortiert werden können.7 Er zeigt, wie Bilder einfach per Handbewegung auf andere Bildschirme geschoben werden können, was vor allem bei der Kollaboration verschiedener Teammitglieder spannend ist.8

Das System an sich halte ich grundsätzlich zwar nicht für schlecht, bei der Bedienung frage ich mich jedoch, ob sie alltagstauglich ist. Mit Blick auf die Zukunft und möglicher Interfaces, sehe ich mich nicht den ganzen Tag wild gestikulierend vor einer projizierten Fläche. Ich bin überzeugt davon, dass Interfaces zunehmend den Körper mit einbinden und halte die direkte Arbeit mit Händen auch grundsätzlich für sinnvoll. Aber diese Art von Bedienung sehe ich eher in zeitlich begrenzenden Umgebungen, wie beispielsweise innerhalb einer Präsentation.

Quellen
  1. Vgl. Underkoffler, John: »Pointing to the future of UI«, URL: https://www.ted.com/talks/john_underkoffler_drive_3d_data_with_a_gesture, TC: 00:01:07–00:02:03, abgerufen am 26.2.2017.
  2. Vgl. Ebd., TC: 00:00:12–00:01:07.
  3. Vgl. Ebd., TC: 00:01:07–00:02:03.
  4. Vgl. Ebd., TC: 00:02:03–00:02:26.
  5. Vgl. Ebd., TC: 00:04:15–00:05:20.
  6. Vgl. Ebd., TC: 00:05:20–00:06:29.
  7. Vgl. Ebd., TC: 00:07:18–00:08:31.
  8. Vgl. Ebd., TC: 00:09:50–00:10:56.
Abbildungen
  1. Eigener Screenshot; Underkoffler, John: »Pointing to the future of UI«, URL: https://www.ted.com/talks/john_underkoffler_drive_3d_data_with_a_gesture, TC: 00:10:22, abgerufen am 26.2.2017.

(Un-)Menschlickeit im digitalen Mittelalter

Der Film »Lo and Behold – Wovon träumt das Internet?« des Regisseurs Werner Herzog geht in seinen zehn Kapiteln der Geschichte des Internets und dessen Auswirkungen auf unsere Gesellschaft nach. In Gesprächen werden beispielsweise »Die Herrlichkeit des Netzes«, »Die dunkle Seite«, »Internet auf dem Mars« oder die Zukunft des Netzes thematisiert. Gesprächspartner sind dabei Leonard Kleinrock, Elon Musk, Sebastian Thrun sowie viele weitere wichtige Protagonisten dessen tägliche Arbeit vom Internet bestimmt wird oder deren Leben durch das Netz massiv verändert wurde.

Der Film »Lo and Behold – Wovon träumt das Internet?« des Regisseurs Werner Herzog geht in seinen zehn Kapiteln der Geschichte des Internets und dessen Auswirkungen auf unsere Gesellschaft nach. In Gesprächen werden beispielsweise »Die Herrlichkeit des Netzes«, »Die dunkle Seite«, »Internet auf dem Mars« oder die Zukunft des Netzes thematisiert. Gesprächspartner sind dabei Leonard Kleinrock, Elon Musk, Sebastian Thrun sowie viele weitere wichtige Protagonisten dessen tägliche Arbeit vom Internet bestimmt wird oder deren Leben durch das Netz massiv verändert wurde. Wie in meiner Dokumentation üblich, möchte ich keine Filmrezension schreiben, sondern lediglich die wichtigen Punkte herauspicken. Vor allem die Kapitel »Künstliche Intelligenz« und »Das Internet des Ichs« sind dabei spannend für mich.

In ersterem prophezeit Sebastian Thrun, dass wir an einen Punkt kommen werden, an dem fast alles von Maschinen übernommen werden kann und dass sie das meiste besser als wir Menschen können. Das liegt unter anderem daran, dass Maschinen sehr viel schneller lernen.1 Zudem erklärt er schon zuvor, dass die Fehler, die selbstfahrende Autos machen, sofort mit anderen – auch »ungeborenen« – Autos geteilt werden. Dadurch wird dieser Fehler niemals wiederholt, was ein enormer Vorteil gegenüber menschlichen Fahrern ist.2

Theologische Revolution

Solche grundlegenden Veränderungen, die durch das Internet und die Maschinen, die für uns denken, einhergehen, benötigen laut Computerwissenschaftler Danny Hillis eine Veränderung unserer Moral. Wir müssten über die Definition, was menschlich sein wirklich bedeutet, nachdenken und er sagt eine theologische Revolution voraus. Wir ergründen und entwickeln eine neue Gesellschaft sowie neue Ideen darüber, was richtig und falsch ist. Er sieht die momentane Zeit zudem als eine unglaublich kreative Zeit in der Menschheitsgeschichte – nicht nur technologisch, sondern auch moralisch und kulturell.3 Dieser Gedanke ist dem Luciano Floridis, der von einer neuen Informationsphilosophie spricht, sehr nahe. Auch er ist der Meinung, dass die Entwicklung einer neuen Philosophie notwendig ist, um dem rasanten Wandel, dem unsere Zeit unterliegt, gerecht zu werden.

Das digitale Mittelalter

Der Computerwissenschaftler sieht eine weitere Entwicklung, die den Gedanken Floridis sehr ähnlich ist. Während der Informationsphilosoph es als »Digitalen Gedächtnisverlust« formuliert (Die Hypergeschichte »), spricht Hillis vom »Digitalen Mittelalter«. Seinen Beobachtungen nach passieren heutzutage viele Dinge deren Hintergründe später nicht mehr nachvollziehbar sind. Während es noch handschriftliche Briefe der Gründerväter der USA gibt, wird heute vieles per E-Mail geklärt. Diese Unterhaltungen vorweg werden höchstwahrscheinlich also nicht mehr rekonstruierbar sein und verloren gehen.4 Während die Ausführung beider ziemlich unterschiedlich sind, entsprechen sie sich im Kern doch sehr. Im Grunde geht es bei beiden um eine nicht vorhandene oder verlorene Historie, welche es den Generationen nach uns sehr schwierig machen wird, die Hintergründe zu verstehen.

Das unsichtbare Internet

Während meines Researchs beschäftigt mich immer wieder das Verschwinden von Schnittstellen. Technologie wird zunehmend unsichtbar und rückt in den Hintergrund. Der Internetpionier Leonard Kleinrock erläutert im Film, dass ein Raum wissen müsste, wenn man da ist. Er spricht von Voice User Interfaces, so dass man mit der Technologie kommunizieren kann, welche wiederum mit Sprache, einem Hologram oder einem Display auf natürliche Weise antworten kann. Auch Gesten, Berührungen oder sogar das Miteinbeziehen des Geruchssinns hält er für möglich. Er vergleicht sie dabei mit der Elektrizität, welche einfach unsichtbar in unseren Wänden eingelassen ist. Zu dieser Unsichtbarkeit müsste sich das Internet jedoch noch entwickeln.5 Ähnlich sieht das der Sicherheitsanalytiker Sam Curry, welcher von Räumen spricht, in denen das Licht nach eigenen Vorlieben gedimmt oder die Musik angeschaltet wird, wenn man den Raum betritt.6 Vor allem der letzte Ansatz eines Smart Homes, ist heutzutage teilweise schon möglich. So können beispielsweise HUE-Lampen eingeschaltet werden, sobald sich das Smartphone mit dem W-LAN verbindet oder Lampen von z. B. Trilux je nach Tageslicht gesteuert werden.

Abschließend liefert mir der Film »Lo and Behold – Wovon träumt das Internet?« leider kaum neue Erkenntnisse oder Ansätze, welche ich für meine Master-Arbeit verwenden kann. Die interessanten Gedanken habe ich hier für mich zusammengefasst, jedoch habe ich vor allem im Hinblick darauf, dass Elon Musk oder Ted Nelson Teil des Films sind, mehr erwartet.

Quellen
  1. Vgl. Herzog, Werner: »Lo and Behold – Wovon träumt das Internet?«, 98 Minuten, Vereinigte Staaten 2016 [Deutschland 2017], TC: 01:23:30–01:24:22, VIII. Künstliche Intelligenz.
  2. Vgl. Ebd., TC: 00:34:56–00:36:18, II. Die Herrlichkeit des Netzes.
  3. Vgl. Ebd., TC: 01:24:23–01:25:08, VIII. Künstliche Intelligenz.
  4. Vgl. Ebd., TC: 01:29:46–01:30:20, IX. Das Internet des Ichs.
  5. Vgl. Ebd., TC: 01:26:17–01:27:20, IX. Das Internet des Ich.
  6. Vgl. Ebd., TC: 01:27:20–01:28:28, IX. Das Internet des Ich.

Die Anfänge der grafischen Benutzeroberfläche

Während meinen Nachforschungen bezüglich der grafischen Veränderungen im Web, gelange ich unweigerlich an den Ursprung der meisten heutigen GUIs. Obwohl das GUI grundsätzlich vom Webdesign zu unterscheiden ist, ist es für mich zum einen wichtig, die Ursprünge dessen zu erkunden, was uns heutzutage die Gestaltung im Web überhaupt ermöglicht. Zum anderen ist für mich der damalige Umgang mit gestalterischen Elementen spannend, welcher noch mehr von der Technologie bestimmt wurde als heute.

Während meinen Nachforschungen bezüglich der grafischen Veränderungen im Web, gelange ich unweigerlich an den Ursprung der meisten heutigen GUIs. Obwohl das GUI grundsätzlich vom Webdesign zu unterscheiden ist, ist es für mich zum einen wichtig, die Ursprünge dessen zu erkunden, was uns heutzutage die Gestaltung im Web überhaupt ermöglicht. Zum anderen ist für mich der damalige Umgang mit gestalterischen Elementen spannend, welcher noch mehr von der Technologie bestimmt wurde als heute.

Die Entwicklung des Konzepts der GUIs wird üblicherweise dem Forschungszentrum Xerox Palo Alto Research Center (Xerox PARC) zugeschrieben. Das ist zwar grundsätzlich richtig, jedoch kann diese Entwicklung nicht gänzlich isoliert betrachtet werden – ihr gingen jahrzehntelange Forschung voraus.

Sketchpad und Spacewar! als Inspiration für Doug Engelbart

Frühe interaktive, grafische Anwendungen wie Ivan Sutherlands »Sketchpad« (1962) oder das von Steve Russell am MIT entwickelte Spiel »Spacewar!« (1962) waren Teil dieser Evolution. Vor allem Sketchpad soll Doug Engelbart in seiner Arbeit inspiriert haben,1 welcher erst 1968 das oN-Line System (NLS) demonstrierte. Das NLS unterstütze dabei schon viele Eigenschaften moderner Computer wie beispielsweise Bitmap-Grafiken, Videokonferenzen, Textverarbeitung oder die kollaborative Bearbeitung von Dokumenten in Echtzeit. Des weiteren erinnert die Benutzung der von ihm erfundenen Maus sowie die Verwendung von Fenstern an heutige Verhältnisse.2

Sketchpad Ivan Sutherland
Der Erfinder Ivan Edward Sutherland bedient sein Programm Sketchpad, welches 1962 innerhalb seiner Dissertation entstanden ist. Sketchpad gilt als erstes Programm mit grafischer Benutzeroberfläche. Mithilfe eines Lichtgriffels, einem Vorläufer der Maus als Eingabegerät, konnte direkt auf dem Bildschirm gezeichnet werden.II
In der Zusammenfassung in einer seiner Schriften heißt es: »Es wurde verwendet, um elektrische, mechanische, wissenschaftliche, mathematische und animierte Zeichnungen zu zeichnen«3.
Spacewar! von Steve Russell
Steve Russells Erfindung »Spacewar!« auf dem PDP-1, welches als eines der ersten grafischen Computerspiele gilt und 1962 fertiggestellt wurde. Auch hier wird der Lichtgriffel als Eingabegerät genutzt.III

Xerox Alto mit dem WIMP Interface

Ein interessanter Verlauf ist der, dass – durch die Reduzierung staatlicher Finanzierungen – viele von Engelbarts Team zum neu gegründeten Xerox PARC wechselten. Dort wurde 1973 mit dem Xerox Alto der erste wirkliche Computer mit einer grafischen Benutzeroberfläche fertiggestellt. Das grafische Konzept orientierte sich dabei an bekannten Mustern, weshalb der 2D-Bildschirm als Oberfläche eines Schreibtisches dargestellt wurde. Innerhalb von einzelnen Rahmen wurden die Programme angezeigt, welche wir heute als Fenster bzw. auch im deutschen als windows kennen. Aus der realen Welt wurden weitere Hilfsmittel wie ein Kalkulator oder die Uhr übernommen, welche frei platzierbar waren. Diese Metapher wird auch »Schreibtisch-Metapher« genannt.4 Bis heute werden Metaphern dieser Art genutzt – noch immer verwenden wir einen sehr abstrahierten Schreibtisch mit Ordnern oder einem Papierkorb. Beides war in dieser Version jedoch noch nicht vorhanden.

Das Alto Team verwendete für seine Gestaltung Windows, Icons, Menüs sowie Zeiger (Pointer). Diese Art wird als WIMP Interface bezeichnet und ist bis heute weitestgehend in Verwendung. Zudem bot Alto wiederverwendbare, grafische Bausteine wie Buttons, Chechboxen oder Tabs an, aus denen GUI-Anwendungen entwickelt werden konnten. Auch sie waren an Objekte der realen Welt angelehnt.5

Grafische Benutzeroberfläche des Xerox Alto
Das Dynabook, entwickelt von Alan Kay, gilt als konzeptioneller Vorläufer des Xerox Alto. Die Grafik zeigt die grafische Benutzeroberfläche des Xerox Alto, welche – dem Bildschirm entsprechend – vertikal statt horizontal ist. Die Grafik zeigt, dass das GUI bereits aus einzelnen, sich überlappenden Fenstern sowie Symbolen bestand. Alan Kay und sein Team entwickelten als Softwareumgebung die objekt-orientierte Programmiersprache SmallTalk. Um mit Dokumenten, Anwendungen und Co. interagieren zu können, konnten Symbole, Dialogfelder und Dropdown-Menüs angeklickt werden.IV

Xerox Star – Cut, Copy, Paste

Vom Xerox Alto gab es nur 2000 Exemplare, mit denen intern oder an Universitäts-Laboren gearbeitet wurde. Sie wurden nie kommerziell verkauft und 1981 kam die Folgeversion Xerox Star mit verbesserter Hard- und Software auf den Markt. Bei dieser Version wurde die Schreibtisch-Metapher weiter ausgereizt, so dass Dateien wie Papier aussahen und in Ordnern oder virtuellen Aktenschränken verstaut werden konnten.6 Auch weitere Funktionen, die wir heute verwenden, wurden mit dem Xerox Star eingeführt. Es sollte die Möglichkeit bestehen, Veränderungen unsichtbar zu machen, was mit Cut, Copy und Paste gelang. Die Idee dahinter war zudem, dass ausgedruckte Dokumente ein perfektes Abbild realer Versionen sein sollten. Das wurde »What-You-See-Is-What-You-Get« (WYSIWYG) genannt7 und ist bis heute ein weit verbreiteter Terminus.

Grafische Benutzeroberfläche des Xerox Star
Grafische Benutzeroberfläche des Xerox StarV

Im folgenden Verlauf möchte ich mich zwar weiterhin mit der Entwicklung grafischer Benutzeroberflächen beschäftigen und etwas detaillierter auf die Interfaces selbst eingehen. Insgesamt wird die Beobachtung aber eher oberflächlich bleiben, da mein Fokus sehr klar auf der Evolution im Web selbst liegt.

Quellen
  1. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:01:58–00:02:36, abgerufen am 12.1.2018.
  2. Vgl. Ebd., TC: 00:02:36–00:02:53.
  3. Sutherland, Ivan Edward: »Sketchpad: A man-machine graphical communication system«, Stand: September 2003, URL: http://www.cl.cam.ac.uk/techreports/UCAM-CL-TR-574.html, abgerufen am 12.1.2018.
  4. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:03:03–00:04:36, abgerufen am 12.1.2018.
  5. Vgl. Ebd.
  6. Vgl. Ebd., TC: 00:06:30–00:07:00.
  7. Vgl. Ebd., TC: 00:07:05–00:07:48.
Abbildungen
  1. Titelbild: Hicks, Michael: »Xerox PARC Alto with mouse and chorded keyset.«, Stand: 3.11.2013, via Wikimedia Commons, abgerufen am 13.1.2018, Lizenz: CC BY 2.0.
  2. Von Kerry Rodden gescanntes Originalfoto von Ivan Sutherland: »Sketchpad Dissertation: Ivan Sutherland operating the Sketchpad system.«, Stand: 1.1.1963, via Wikimedia Commons, abgerufen am 13.1.2018, Lizenz: CC BY-SA 3.0.
  3. Ito, Joi: »Spacewar! auf einer PDP-1 des Computer History Museums.«, Stand: 12.5.2007, via Wikimedia Commons, abgerufen am 13.1.2018, Lizenz: CC BY 2.0.
  4. parc – A Xerox Company: »Smalltalk GUI«, URL: https://www.parc.com/newsroom/media-library.html, abgerufen am 13.1.2018.
  5. Baecker, Ronald M.; Buxton, William; Greenberg, Saul; Grudin, Jonathan: »Reading in Human-computer Interaction: Toward the Year 2000«, Burlington (MA) 1995, S. 57.

evolution of a medium

Mein Master-Projekt wird nun immer konkreter. Nach meiner bisherigen Recherche zur Entwicklung des World Wide Web, präzisiert sich meine Vorstellung, welche theoretische Auseinandersetzung und welche praktische Umsetzung Teil meiner Arbeit werden können.

Mein Master-Projekt wird nun immer konkreter. Nach meiner bisherigen Recherche zur Entwicklung des World Wide Web, präzisiert sich meine Vorstellung, welche theoretische Auseinandersetzung und welche praktische Umsetzung Teil meiner Arbeit werden können.

Die erste Fragestellung innerhalb meines Master-Studiums beinhaltet bereits erste Gedanken meines jetzigen Ansatzes. Nichtsdestotrotz habe ich sehr breit recherchiert, da mir auf meinem Weg unzählige spannende Themen begegnet sind, die mich stets in eine neue Richtung gelenkt haben. Ich hatte viele Ideen von zu plump bis zu komplex und habe enorm viel Kraft in die theoretische Arbeit gesteckt. Ich habe viel gelesen und recherchiert, viel geschrieben und verworfen.

Während meiner Master-Zeit hatte ich ab und an das Gefühl den Wagen fälschlicherweise von hinten aufzurollen. Habe mich aber aus Leidenschaft nicht davon abbringen lassen.
Ich habe mir kein Thema XY ausgesucht für das ich nun ein passendes Medium für die praktische Umsetzung suche, sondern ich beschäftige mich von Anfang an mit dem Medium selbst. So liebe ich beispielsweise Netzkunst, weil sie oft eine besondere Art hat mit dem Medium Web umzugehen und eine außergewöhnliche, visuelle Sprache spricht. Ich interessiere mich für die Auflösung virtueller und nicht-virtueller Grenzen, die Veränderung der Gesellschaft durch die virtuelle Welt und für die Theorien von beispielsweise Flusser und McLuhan. Ich bin überzeugt davon, dass sich Schnittstellen zunehmend auflösen und eine neue Art der Kommunikation entsteht. Ich bin begeistert von neuen Technologien und mich bewegen Projekte, die Theorie und Praxis lückenlos verschmelzen.

Letztendlich merke ich jedoch, dass meine Gedanken häufig um ähnliche Themen kreisen. Dazu gehören wiederkehrend die Anfänge und die Entwicklung des World Wide Web, die mich sowohl visuell, technologisch als auch kulturell interessieren. Das Medium selbst wurde lange wie eines behandelt, das ausschließlich die nicht-virtuelle Welt in die virtuelle überträgt. Webseiten waren »Schaufenster« des realen Lebens, Buttons waren zum Teil rote Knöpfe mit Schrift und Baustellenschilder zeigten, dass die Webseite noch in Bearbeitung ist. Das Verständnis für das Medium wächst zunehmend und wir wissen zwischenzeitlich, dass Webseiten so gut wie immer »under construction« sind. Zum einen kann aus meiner Sicht erst eine spezifische, visuelle Sprache für ein Medium entwickelt werden, sobald das Medium verstanden wird – sprich, dass das Web kein Buch ist. Auf der anderen Seite frage ich mich, ob nicht gerade dieser spielerische Umgang mit einem unbekannten Medium – wie er in den 90er Jahren stattfand – die unantastbarste und »originalste« Sprache von allen spricht.
In meiner bisherige Recherche zeigt sich, dass sich die visuelle Sprache immer weiter von der materiellen Welt entfernt und sich das Web zunehmend zu einem eigenen Medium entwickelt. Neben visueller und kultureller Veränderungen, halte ich hierfür auch die technologischen Entwicklungen für sehr wichtig. So nutzte man teils solange wie nötig die default styles für z.B. Buttons und ersetzt sie nach und nach mit Grafiken und letztendlich Code.

Der bisher stärkste Ansatz ist meiner Ansicht nach eine Ausstellung anlässlich des 25-jährigen Jubiläums des freien Webs. Dabei kann ich mir zum einen eine interaktive Webausstellung vorstellen, aber auch eine nicht-virtuelle Exhibition mit gebauten Räumen voller Sternenhimmeltapeten und MIDI-Sound. Die Ausstellung könnte die Entwicklung des Web zeigen. Dabei wären aus meiner Sicht die visuellen Veränderungen im Vordergrund.
Ich möchte zum einen schon zum Teil gesammelte und katalogisierte UI-Elemente zusammenführen, um grafische Veränderungen deutlich zu zeigen. Die Elemente stammen dabei von verschiedenen Unternehmen, die auch in der Wayback Machine des Internet Archive zu finden sind: https://archive.org/web/. Ein erster Ansatz der Auswahlkriterien ist in meinem Beitrag »Evolution der Webästhetik« zu finden. Dabei steht noch offen, ob diese – dem Plan nach mehrere tausend – Elemente im Zentrum stehen oder einfach nur ein Pattern für die Ausstellung darstellen könnten. Zudem soll eine inhaltlich-kulturelle Komponente hinzukommen, die ich noch erarbeiten muss und eine poetische Ebene enthalten kann. Eine weitere Komponente könnte die Frage nach dem Danach sein, da ich mir unter anderem die Frage stelle, ob grafische Benutzeroberflächen durch neue Technologien wie z.B. Voice Interfaces ersetzt werden können.

An dieser Stelle wird mein Titel »Digitale Primaten« wieder mit der anfänglichen Bedeutung belegt. Nämlich, dass Menschen der Technologie noch immer hinterherhinken und wohl auch nicht mehr aufholen werden. Mein gewählter Arbeitstitel ist »digital primates – evolution of a medium« in englischer oder deutscher Form.

Hyperland: Durch Micons ans Ziel

Der Dokumentarfilm (oder die Fantasy-Dokumentation) »Hyperland« aus dem Jahr 1990 wurde von Douglas Adams geschrieben und von Max Whitby produziert. In dem 50-minütigen Film geht es unter anderem um interaktives Multimedia sowie andere Technologien wie z.B. einen VR-Helm. Er zeigt dabei vorstellbare Ansätze für ein Hypermedium.

Der Dokumentarfilm (oder die Fantasy-Dokumentation1) »Hyperland« aus dem Jahr 1990 wurde von Douglas Adams geschrieben und von Max Whitby produziert. In dem 50-minütigen Film geht es unter anderem um interaktives Multimedia sowie andere Technologien wie z.B. einen VR-Helm. Er zeigt dabei vorstellbare Ansätze für ein Hypermedium.

Der Software-Agent stellt sich vor

Der Hauptdarsteller Douglas Adams schläft vor dem Fernseher ein und trifft in seinem Traum auf Tom Baker – die Personifizierung eines Software-Agenten. Mit der Frage, ob Adams gelangweilt vom linearen, nicht-interaktiven Fernsehen ist, tritt er mit Adams in Kontakt. Da jener aber überfordert mit dieser neuen Form der Kommunikation ist, fordert ihn der Agent auf, mit ihm zu interagieren. Baker beschreibt sich als eine Simulation, eine künstliche und komplett anpassbare Persönlichkeit, die nur als Anwendung in seinem Computer existiert.
Optisch an einen Butler angelehnt, präsentiert er sich dabei als selbstloser Assistent, der jederzeit für jede Art von Arbeit bereit ist. Er könne ihm sofortigen Zugang zu jedem Stück Information, das digital irgendwo auf der Welt gespeichert ist, ermöglichen: Jedes Bild, jeder Film, jeder Sound, jedes Buch, jede Statistik, jeder Fakt. Jede Verbindung zwischen allem, was er sich nur vorstellen kann.2

Hyperland | Konfigurationsoberfläche
Konfigurationsoberfläche für den Software-Agenten Tom BakerII

Als nächstes stellt der Agent die Konfigurationsoberfläche vor, von wo aus Adams alle Einstellungen vornehmen kann. Über eine grafische Benutzeroberfläche hat man die Wahl, wie der Assistent sprechen soll – ob forsch oder freundlich oder mit welchem Akzent –, was er an hat oder welche Spezies er sein soll.3 Es wird suggeriert, dass der Nutzer die komplette Kontrolle besitzt und alles erdenkliche auch möglich ist.
Bei der Frage, welchen Namen diese Software hat, nennt Tom Baker eine ganze Liste: Dynabook, Hyperspace, Cyberia, Infinite Virtual Address Space, Intelligent TV, Interactive Television, Interactive Multimedia oder Hypertext.4

Anlehnung an ein Hypermedium

Hyperland ist in seinem Aufbau selbst an ein Hypermedium angelehnt. So klickt sich Adams mithilfe seines Agenten über sogenannte Micons – ein Kunstwort aus Moving und Icons – durch den Informationsraum. Die geloopten Micons stehen dabei für eine Idee, ein Konzept oder ein Stück Information in irgendeiner Form.5
Neben diversen Beispielen interaktiver Systeme stellt Tom Baker Auszüge der historischen Entwicklung vor. So erwähnt er Vannevar Bushs Memex, Ted Nelsons Hypertext-Idee, die Gründung des MIT Media Labs und des Multimedia Labs, sowie Robert Abel,6 welcher als Pionier der Computeranimation und visueller Effekte7 oder sogar als Vater interaktiver Erfahrungen gilt.

Adams gelangt dabei zusammen mit Baker immer tiefer in die Informationssphäre, was am Beispiel des Atlantic Monthly, in dem Vannevar Bush seinen berühmten Essay »As We May Think« veröffentlichte, demonstriert wird. Douglas Adams wählt naheliegenderweise den Atlantik als nächstes Ziel. Hierüber gelangen sie zur Ökologie, Ozeanografie, Schifffahrt, Literatur und zu einem Live Feed. Der Live Feed zeigt als Quellen die Labrador-Basis und den Azoren-Gibraltar-Rücken. Auf Nachfrage, ob das wirklich live wäre, gesteht Baker ein, dass die Bilder 10 Sekunden Verzögerung hätten, was also live wäre.
Als weiteren »Tiefgang« wird die Sparte Literatur vorgestellt, welche passend zum Atlantik, assoziative Verknüpfungen zu Melville, Conrad, Hemingway, Coloridge, CS Forrester oder »Mehr« zeigt. Texte werden dabei parallel vorgelesen, da die Autoren scheinbar über Wasser schreiben.8

Im weiteren Verlauf werden verschiedene Systeme vorgestellt, so z. B. die interaktive Anwendung »Life Story – Demonstration Prototype« des MIT Labs. Auf den Film »Life Story« zugeschnitten, können beispielsweise spezielle Inhalte ausgewählt oder Transkriptionen abgerufen werden. Das Team bestand aus Steve Gano, Kristee Kreitman, Kristina Hooper, Mike Naimark und Fabrice Florin. Letzterer spricht im Interview davon, dass das interessante an Multimedia die Tatsache ist, dass man viele Stories zusammenführen kann. Es gibt nicht nur eine, sondern eine Verflechtung vieler. Diese Vielzahl macht aus seiner Sicht den Unterschied, so dass man von einer zur anderen wandert und den Themenkomplex aus unterschiedlichsten Blickwinkeln betrachten und miteinander vergleichen kann.9

Resümee

Für meine Nachforschungen hat der Film inhaltlich leider keinen großen Mehrwert. Zum einen liebe ich jedoch die Art und Weise, wie er umgesetzt ist. Zum anderen faszinieren mich die damaligen Ansichten, welche einerseits sehr zukunftsweisend wirken, andererseits aber sicher genau am Geist der Zeit liegen. Mitten im Aufbruch und längst auf dem Weg in ein neues Zeitalter.

Quellen
  1. Vgl. »Hyperland« in: »Wikipedia, the free encyclopedia«, Stand: 7.3.2017, URL: https://en.wikipedia.org/wiki/Hyperland, abgerufen am 6.12.2017.
  2. Vgl. Whitby, Max; geschrieben von: Adams, Douglas: »Hyperland«, Dokumentation, 50 Minuten, Vereinigtes Königreich 1990, TC: 00:03:17–00:05:14.
  3. Vgl. Ebd., TC: 00:05:14–00:06:18.
  4. Vgl. Ebd., TC: 00:06:32–00:06:40.
  5. Vgl. Ebd., TC: 00:07:20–00:08:10.
  6. Vgl. Ebd., TC: 00:06:40–00:07:20.
  7. Vgl. »Robert Abel (animator)« in: »Wikipedia, the free encyclopedia«, Stand: 28.8.2017, URL: https://en.wikipedia.org/wiki/Robert_Abel_(animator), abgerufen am 6.12.2017.
  8. Vgl. Whitby, Max; geschrieben von: Adams, Douglas: »Hyperland«, Dokumentation, 50 Minuten, Vereinigtes Königreich 1990, TC: 00:12:0–00:14:20.
  9. Vgl. Ebd., TC: 00:31:32–00:32:53.
Abbildungen
  1. Titelbild: Eigener Screenshot; Whitby, Max; geschrieben von: Adams, Douglas; mprove: »Hyperland‹«, Dokumentation, 50 Minuten, Vereinigtes Königreich 1990, URL: https://vimeo.com/72501076, TC: 00:07:27, abgerufen am 6.12.2017.
  2. Vgl. Ebd., TC: 00:06:14.

Die Erarbeitung eines Designsystems für digitale Produkte

Zur weiteren Recherche im Bezug auf Designsysteme arbeite ich mit dem Buch »Design Systems – A practical guide to creating design languages for digital products.« von Alla Kholmatova. Im Gesamten dient es als gute Grundlage, die die Umsetzung eines Designsystems in der Praxis zeigt.

Zur weiteren Recherche im Bezug auf Designsysteme arbeite ich mit dem Buch »Design Systems – A practical guide to creating design languages for digital products.« von Alla Kholmatova. Das Buch erscheint digital in zwei Hälften – eine Mitte des Jahres, die andere im September 2017. Anschließend liegt das Buch auch als Printausgabe vor.

Im Gesamten dient es als gute Grundlage, die die Umsetzung eines Designsystems in der Praxis zeigt. Mit vielen Beispielen von Unternehmen wie sipgate, TED, Airbnb oder FutureLearn wird verständlich, inwiefern sich die Erstellung der sowie die Arbeit mit Designsystemen von Team zu Team unterscheiden. Parameter wie z. B. die Team- und Projektgröße oder die generelle Arbeitsweise sind dafür entscheidend und müssen individuell gehandhabt werden.

In kleineren Teams hat der einzelne mehr Einblick und Verantwortung, in größeren müssen Verantwortlichkeiten eventuell anders verteilt werden.1 Zudem müssen die Designprinzipien für jeden verständlich sein. Das bedeutet entweder, dass im Team wirklich jeder weiß, welche Grundsätze gelten oder dass die fundamentale Gestaltungslinie eindeutig dokumentiert ist. Auch in der Anwendung der Systeme muss klar sein, ob die Regeln strikt oder eher locker eingehalten werden. Während beispielsweise bei Airbnb alles exakt festgelegt ist und die Pattern strikt angewendet werden müssen,2 sind bei dem kleineren Team von TED ein offener Umgang und mehr Flexibilität zu finde.3 Bei einer rigorosen Einhaltung der Regeln muss das Designsystem dementsprechend so gut konzipiert sein, dass die Gestaltung trotz Modularität nicht generisch wirkt.4

Bei der Dokumentation bzw. im allgemeinen Verständnis des jeweiligen Systems ist zudem das gemeinsame Sprachverständnis wichtig. So nennt sie das Beispiel eines Sequenz-Moduls.5 Dieses Modul sollte für jeden Sequenz heißen, nicht »Wizards Control« oder »Fancy Bubbles«.6 Des Weiteren sollten die Ausdrücke eindeutig so gewählt werden, dass man auch als Designer, der nicht bis in die Tiefen des Projekts involviert ist, weiß um welches Element es sich handelt. Neben dem klaren Einsatz des Elements werden Dopplungen durch Neugestaltung verhindert. Bestimmte Buttons wurden bei FutureLearn »Minions« genannt, ein großer Button heißt »Boss«7. Durch diese Benennung wird klar, dass es nur einen großen Button auf der Seite geben kann, da es nur einen Boss gibt. Diese metaphorische Benennung halte ich – insofern man für alle Elemente ähnliche Bezeichnungen finden kann – für sehr vorteilhaft. Ein weiteres Beispiel ist die »Whisperbox« sowie eine zugefügte Komponente namens »Boombox«. Schon im Wortlaut wird klar, welches der beiden zurückhaltend leise und welches prominent laut ist. Die Autorin schlägt generell vor sich vorzustellen, dass das Interface nicht visuell ist, sondern laut vorgelesen wird. Dadurch erkennt man schnell, ob man in Bezug auf die »Visual loudness scall« bereits ein Element der gleichen Lautstärke vorhanden ist.8

Kholmatova unterteilt die Pattern in zwei große Gruppen. Die funktionalen sowie die, die der Wahrnehmung zuzuordnen sind. Zur Unterscheidung kann man sich vorstellen, dass funktionale im HTML-, zweitere typischerweise im CSS-Code zu finden sind.9 Noch klarer macht sie es mit dem Beispiel eines Hauses, indem alle Möbel funktional dieselben sein können. Jeder hat etwa einen Tisch, ein Sofa oder ein Bett. Und doch macht der Stil den großen Unterschied, ob man sich in der Umgebung wohl oder sogar völlig fehl am Platz fühlt.

Insgesamt könnte ich noch unzählige weitere Absätze verfassen. Wenn man in diesem Bereich arbeitet, sind zwar einige Dinge nicht überraschend neu, dennoch fühlt es sich gut an sie zum einen gesammelt niedergeschrieben zu sehen und zum anderen einen Einblick in die Arbeit anderer zu bekommen. Vor allem die Methodik anderer Unternehmen zu verstehen, finde ich sehr spannend. Zudem gibt es natürlich trotzdem viele neue Erkenntnisse und das Buch hilft hervorragend die eigene Arbeitsweise zu analysieren und zu hinterfragen. Aus diesem Grund empfehle ich das Buch absolut jedem, der sich für Designsysteme interessiert.

Quellen
  1. Vgl. Kholmatova, Alla: »Design Systems«, Freiburg 2017, S. 144.
  2. Vgl. Ebd., S. 136.
  3. Vgl. Ebd., S. 140.
  4. Vgl. Ebd., S. 99.
  5. Vgl. Ebd., S. 29.
  6. Vgl. Ebd., Freiburg 2017, S. 30.
  7. Ebd., S. 114.
  8. Vgl. Ebd., S. 78.
  9. Vgl. Ebd., S. 27.

oN-Line System – Template des modernen Computers

An verschiedenen Stellen bin ich auf Doug Engelbart, Forscher an der Standford University, gestoßen. Eine seiner Visionen war, dass Hypertext als Werkzeug für die Arbeit im Team genutzt wird und dass Personen in einem sehr nahen und natürlichen Weg mit Maschinen kommunizieren können.

An verschiedenen Stellen bin ich auf Doug Engelbart, Forscher an der Standford University, gestoßen. Eine seiner Visionen war, dass Hypertext als Werkzeug für die Arbeit im Team genutzt wird und dass Personen in einem sehr nahen und natürlichen Weg mit Maschinen kommunizieren können.1 In den 60er Jahren erschuf er das kollaborative Hypertext-System »oN-Line System« (NLS) und gilt als Erfinder der Computermaus.2 Die Erfindung seiner Einhand-Tastatur mit nur fünf Tasten, sieht Licklider rückblickend sogar als eine der wahrscheinlich größten Erfindungen.3

Engelbart gilt als stark beeinflusst von Vannevar Bush und ist zudem Autor von »Augmenting Human Intellect: A Conceptual Framework« (1962).4 Damit ist die Fähigkeit eines Menschen gemeint, »sich einer komplexen Problemsituation zu nähern, Verständnis für seine speziellen Bedürfnisse zu entwickeln und Problemlösungen abzuleiten. Unter erhöhter Fähigkeit wird in diesem Zusammenhang eine Mischung aus Folgendem verstanden: schnelleres Verständnis, besseres Verständnis, die Möglichkeit, in einer bisher zu komplexen Situation einen brauchbaren Grad an Verständnis zu gewinnen, schnellere Lösungen, bessere Lösungen und die Möglichkeit Lösungen für Probleme zu finden, die vorher unlösbar schienen«5. Zudem sieht er die Wichtigkeit, dass Ahnungen, Ausprobieren, immaterielle Werte und das menschliche »Gefühl für eine Situation« sinnvollerweise mit den rationalen Gegebenheiten der elektronischen Hilfsmittel koexistieren.6

Seine Ausarbeitung gilt als Pionierarbeit seiner Zeit und seine Denkweise ist der Lickliders sehr nahe. Die auf den ersten Blick für meine Arbeit relevantere Entwicklung ist jedoch die des oN-Line Systems. Selbstverständlich kann beides nicht gänzlich getrennt voneinander betrachtet werden, da genau dieses System zur Erweiterung der menschlichen Intelligenz bestimmt war.7 Jedoch möchte ich mich nicht zu sehr in seinem sehr umfangreichen, theoretischen Konzept verstricken.

Das oN-Line System

Wie schon erwähnt ist das oN-Line System ein Hypertext-System. Der Prototyp wurde erstmals 1968 demonstriert und Alex Wright hält es im Wesentlichen für das Template für den modernen Computer.8 Ian Ritchie beschreibt wie Engelbart das System mit Headset-Mikrophon mittels 5-Finger-Tastatur und der ersten Computermaus der Welt demonstriert und zwischen Dokumenten und Graphiken weiter schaltet.9 Aus Ritchies Sicht war das Problem unter anderem das, dass ein Computer zu dieser Zeit mehrere Millionen Pfund kostete und damit als Heimcomputer nicht wirklich praktisch war.10 Wright erläutert weiter, dass das System bereits Hyperlinks und ein Videokonferenz-System enthält,11 was mir als sehr fortschrittlich erscheint. Es gilt als das erste System, das den praktischen Einsatz von mit Hyperlinks vernetzten Dokumenten, der Maus, Raster-Scan-Monitoren, nach Relevanz organisierten Informationen, einer Bildschirmverwaltung, Präsentationsprogrammen und anderen modernen Computing-Konzepten angewandt hat.12

Für mich immer wieder erstaunlich ist die Tatsache, wie früh daran gearbeitet wurde Informationen nach Relevanz zu sortieren und wie lange es gedauert hat bis es mit dem World Wide Web tatsächlich praktikabel für Jedermann umgesetzt wurde. Natürlich gibt es davor schon analoge Systeme, die sich wie im Falle von Paul Otlet durch die Verbindung von Inhalten abheben oder fiktive Anwendungen, die wie bei Vannevar Bushs Memex Assoziationen zwischen Dokumenten auf elektronischem Wege hervorbringen sollten.
Gleichermaßen lässt sich der Antrieb, neue Wege für die Organisation von Informationen zu finden, als logische Konsequenz der menschlichen Entwicklung sehen und sich in den historischen Kontext einordnen. So nahm neben der Fülle an Informationen auch die Abhängigkeit von eben diesen massiv zu. Wohlstand und Fortschritt sind in der Hypergeschichte, in der wir uns beispielsweise in Deutschland befinden, enorm an sie gebunden. Zudem sieht man in Tim Berners-Lee Konzept von Linked Open Data eine weitere Evolution, welche mich stark an »The World City« erinnert, mit der Paul Otlet das Wissen der Menschheit vereinen wollte. Auch bei Linked Open Data ist letztendlich das Ziel alle Daten zusammenzutragen, so dass sie nicht auf lokalen Rechnern oder in geschlossenen Systemen verloren gehen. Zwar unterscheiden sich Informationen und Wissen grundlegend, aber durch das Zusammenführen der Daten bzw. Informationen lässt sich nicht nur Wissen herauslesen, sondern sogar neues generieren. So werden nämlich Sachverhalte assoziativ verbunden, welche vorher nicht als zusammenhängend betrachtet wurden.

Diese abschließenden Gedanken bringen mir insofern neue Erkenntnisse für meine Arbeit, dass mir der Gesamtkontext nun immer klarer wird. Die Recherche über vergangene Entwicklungen, die zeitliche Einordnung sowie aktuelle Konzepte helfen mir enorm beim Verständnis. In diesem Zusammenhang wird mir zudem bewusst, das Informationsdesign eine große Rolle in meiner Arbeit spielen könnte.

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 6.
  2. Vgl. Ebd., S. 50.
  3. Vgl. Licklider, Joseph Carl Robnett, Yoshiki Ohshima: »Some Reflections on Early History by J.C.R. Licklider (VPRI 0093)«, Stand: 5.8.2015, URL: https://www.youtube.com/watch?v=SN–t9jXQc0, TC: 00:12:22–00:13:50, abgerufen am 20.8.2017.
  4. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:36:11–00:37:18, abgerufen am 18.8.2017.
  5. Engelbart, Doug: »Augmenting Human Intellect: A Conceptual Framework«, Stand: Oktober 1962, URL: https://www.dougengelbart.org/pubs/augment-3906.html#2, abgerufen am 22.8.2017.
  6. Vgl. Ebd.
  7. Vgl. Ritchie, Ian: »The day I turned down Tim Berners-Lee«, URL: https://www.ted.com/talks/ian_ritchie_the_day_i_turned_down_tim_berners_lee/, TC: 00:01:17–00:01:51, abgerufen am 20.7.2017.
  8. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:38:04–00:39:36, abgerufen am 18.8.2017.
  9. Vgl. Ritchie, Ian: »The day I turned down Tim Berners-Lee«, URL: https://www.ted.com/talks/ian_ritchie_the_day_i_turned_down_tim_berners_lee/, TC: 00:01:51–00:02:24, abgerufen am 20.7.2017.
  10. Vgl. Ebd., TC: 00:02:24–00:02:37.
  11. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:38:04–00:39:36, abgerufen am 18.8.2017.
  12. Vgl. Gust, Kate, Software Preservation Group: »NLS Augment Index«, Stand: 6.11.2006, URL: http://www.softwarepreservation.org/projects/nlsproject, abgerufen am 22.8.2017.
Abbildungen
  1. Titelbild: DARPA: »oN-Line System«, URL: https://www.darpa.mil/about-us/timeline/nls, abgerufen am 14.9.2017.

Die Schaffung veränderbarer Räume im Web

Im Anschluss an meinen Text »Von der No-Layout-Ära zur wiedergewonnenen Fluidität des Webs« möchte ich mich kurz und knapp mit einem Artikel von Ethan Marcotte aus dem Jahr 2010 beschäftigen. Marcotte, Begründer des Terminus »Responsive Web Design«, beschreibt darin seinen Ansatz, Webseiten unabhängiger von ausgewählten Endgeräten zu entwickeln.

Im Anschluss an meinen Text »Von der No-Layout-Ära zur wiedergewonnenen Fluidität des Webs« möchte ich mich kurz und knapp mit einem Artikel von Ethan Marcotte aus dem Jahr 2010 beschäftigen. Marcotte, Begründer des Terminus »Responsive Web Design«, beschreibt darin seinen Ansatz, Webseiten unabhängiger von ausgewählten Endgeräten zu entwickeln. Er verfolgt dabei den Vorschlag mit Media Queries zu arbeiten, auf welche ich an dieser Stelle nicht weiter eingehen möchte. Sie sind zwischenzeitlich zum Standard-Werkzeug responsiver Gestaltung geworden.

Viel reizvoller finde ich seine Verknüpfung zwischen »responsive architecture« und der Gestaltung im Web. Dabei geht es grundsätzlich um die Frage, »wie physische Räume auf die Anwesenheit von Passanten reagieren können«1. Mit Bezug auf das Buch Interactive Architecture von Michael Fox und Miles Kemp, kristallisiert er den feinen Unterschied heraus: Es geht nicht darum unveränderliche Räume zu schaffen, sondern darum, dass sich die Nutzer und die Struktur gegenseitig beeinflussen können.2 Das ist vor allen Dingen wichtig, da das Web ein vergängliches Medium ist. Innerhalb weniger Jahre ändern sich Fensterbreiten, Bildschirmauflösungen, Benutzereinstellungen oder installierte Schriftarten.3 Viel mehr spricht er sich dagegen aus, das Design auf immer mehr unterschiedliche Endgeräte zuschneiden zu wollen. Er ist überzeugt davon, dass wir als Webdesigner »ein optimales Seherlebnis entwerfen und standardbasierte Technologien in unser Design einbetten können, um sie nicht nur flexibler zu machen, sondern auch an die Medien anzupassen, die sie rendern«4. Nur so kann man effektiv mit der Tatsache arbeiten, dass sich die Landschaft an angebotener Betrachtungsmöglichkeiten enorm schnell ändert.5

Wichtig ist Marcotte dabei nicht nur das visuelle Ergebnis, sondern auch die Möglichkeit die Benutzerfreundlichkeit verbessern zu können. So kann beispielsweise Fitts’ Gesetz über Touch-Geräte besser umgesetzt werden.6

Die drei technischen Zutaten für RWD

Als primäre Zutaten zur Umsetzung von responsiven Webdesigns sieht Marcotte flüssige Raster, flexible Bilder und Medienabfragen. Zudem ist eine andere Denkweise in Bezug auf das Medium erforderlich,7 das sich letztendlich sehr stark vom Printdesign unterscheidet und somit sehr viele neue Herausforderungen an den Gestalter herangetragen hat.

Abschließend ist der Ansatz der Media Queries aus heutiger Sicht eine Selbstverständlichkeit. Im Jahr 2010 war die Einführung des »Responsive Web Design« jedoch eine massive Neuerung. Schon zuvor gab es z. B. verschiedene Bildschirmgrößen oder -auflösungen und schon durch das iPhone, das 2007 auf den Markt kam, ist das Bedürfnis gewachsen, flexibler reagieren zu können. Langfristig macht es bei der Masse an Geräten aber natürlich keinen Sinn für jedes separate Versionen zu gestalten. In der Übergangszeit und auch bis heute, sieht man zudem Webseiten, welche komplett abgekoppelt für mobile Endgeräte entwickelt sind und sogar mit einer eigenen Subdomain angesprochen werden. In manchen Fällen macht das sicher nach wie vor Sinn, doch insgesamt sollte im Vordergrund stehen, sich anpassende Seiten zu gestalten, die auch die nächsten Endgeräte überstehen.
In Bezug auf mein Thema finde ich es außerdem sehr spannend, wie sich erneut Technologie, Design und das Bedürfnis der Menschen gegenseitig beeinflussen und Schritt für Schritt in ihrer Evolution voranbringen.

Quellen
  1. Marcotte, Ethan: »Responsive Web Design«, Stand: 25.5.2010, URL: https://alistapart.com/article/responsive-web-design, Absatz 8, abgerufen am 26.6.2017.
  2. Vgl. Ebd., Absatz 9.
  3. Vgl. Ebd., Absatz 2.
  4. Ebd., Absatz 10.
  5. Vgl. Ebd., Absatz 3.
  6. Vgl. Ebd., Absatz 27.
  7. Vgl. Ebd., Absatz 31.

In Pieces: Hinter den Kulissen

Bereits Mitte letzten Jahres habe ich das Projekt »In Pieces« vorgestellt. Seitdem möchte ich mich etwas näher mit dem technischen Hintergrund auseinandersetzen, da mich das Projekt nachhaltend begeistert hat und ich es sehr interessant finde, dass es basierend auf CSS umgesetzt wurde.

Bereits Mitte letztens Jahres habe ich die interaktive Ausstellung »In Pieces« von Bryan James vorgestellt. Damals hatte ich fälschlicherweise noch den Titel »Species in pieces« verwendet.
Seitdem möchte ich mich etwas näher mit dem technischen Hintergrund auseinandersetzen, da mich das Projekt nachhaltig begeistert hat und ich es sehr interessant finde, dass es basierend auf CSS umgesetzt wurde.

Neben der Dokumentation, die auf der Projektseite selbst zu finden ist, bin ich auf »The Making Of ›In Pieces‹: Designing an Interactive Exhibition With CSS Clip Paths« auf Smashing Magazine gestoßen. Hier erklärt Bryan James ausführlich seine Vorgehensweise und auf welche Probleme er während des Prozesses gestoßen ist. Da die Dokumentation sowie das Making Of sehr detailliert sind, möchte ich den technischen Hintergrund nicht einfach wiedergeben, sondern lediglich die für mich spannenden Punkte herausgreifen.

Die Outlines des Pfeilgiftfrosches in Illustrator
Die Outlines des Pfeilgiftfrosches in IllustratorI

Zunächst finde ich es erstaunlich, dass die Polygone aus denen die Tiere zusammengesetzt sind mit der CSS-Eigenschaft clip-path generiert wurden. Ich bin mehr Designerin als Entwicklerin, so dass mir das breit gefächerte Verständnis fehlt. Jedoch war meine Vermutung die, dass mit SVG-Grafiken gearbeitet wurde, die dann via Code verändert und bewegt werden. Zur Erstellung der Formen stellt Bryan James das Tool Clippy » vor. Mit dieser Browseranwendung können eigene sowie vorgefertigte Masken ausgewählt werden. Der dazugehörige Code erscheint dabei direkt am unteren Rand des Browsers. Schade finde ich, dass man den Code nicht direkt im Browser ändern kann, um die erstellte Form selbst noch einmal im Detail zu ändern. Zwar ist ein klickbares Logo von Codepen zu sehen, dessen Sinn erschließt sich mir aber leider nicht ganz, da sich nichts ändert oder öffnet. Davon abgesehen, ist es aber ein einfaches, schönes Tool, um visuell die Formen zu erstellen. Den Code kann man nachträglich immerhin selbst ändern, so dass ich das nicht als sehr großen Nachteil empfinde.

Als weitere spannende Lösung stellt James eine Funktion vor, die ermöglicht die prozentualen Werte eines Punktes auszulesen. Er nutzt eine PNG-Datei als Unterstützung und durch einen Klick wird ein Fenster mit den Daten des jeweiligen Punkts zum Kopieren ausgegeben. Die Funktion ist im Making Of zu finden.

Aus grafischer bzw. konzeptioneller Sicht finde ich es zudem überraschend, dass die 30 Tiere jeweils aus etwa 30 Polygonen bestehen. Das war mir im Vorfeld nicht bewusst bzw. habe ich nicht darauf geachtet.

Eine weitere bemerkenswerte Herangehensweise sehe ich in der Maskierung von Bildern mit Zahlen durch die Polygone als Hilfestellung. Eine simple Methode, um die Ränder der Formen hervorzuheben, um sie anschließend zueinander passend zu verändern. So können feine Linien vermieden werden, die zwischen den Gebilden entstehen, wenn sie exakt aufeinander liegen.

Visuell ansprechend finde ich außerdem den von ihm verwendeten und erwähnten Schimmer-Effekt. Generell bin ich kein Fan von Schimmern, Schatten oder beispielsweise Verläufen. Doch der Einsatz im Web kann bei dosierter Anwendung sehr reizvoll sein. Im Vergleichsbild seiner Grafiken sieht man deutlich, dass sie durch den Schimmer-Effekt sehr viel hochwertiger wirken.

Schlussendlich finde ich es großartig, dass Bryan James das Projekt und den Prozess so ausführlich dokumentiert. Einen Einblick in die Arbeitsweise und die Problemlösungen machen deutlich, wie das große Ganze Schritt für Schritt und Hürde für Hürde gewachsen ist. Dass die Arbeit beinahe wegen zu großer Probleme beendet wurde, motiviert zudem sich an mancher Stelle weiter durchzubeißen. Denn das Ergebnis finde ich nach wie vor so imposant, dass es Mut macht dem ein oder anderen Hindernis zu trotzen. Zudem inspiriert mich die interaktive Ausstellung so sehr, dass ich mich nun mit mehr technischem Verständnis, selbst an einer erstmaligen Gestaltung durch Polygone versuchen möchte.

Abbildungen
  1. James, Bryan: »The Making Of ›In Pieces‹: Designing an Interactive Exhibition With CSS Clip Paths«, Stand: 2.6.2015, URL: https://www.smashingmagazine.com/2015/06/the-making-of-in-pieces/, abgerufen am 2.3.2017.

Struktureller Aufbau des Webs und die Koexistenz von Mensch und Maschine

Nach meiner ersten Auseinandersetzung mit Tim Berners-Lees Buch, möchte ich im folgenden weiteren Gedanken nachgehen. Dabei geht es unter anderem um den Aufbau des Webs, welchen ich vor allem strukturell näher betrachten möchte. Zudem finde ich den Ansatz eines universellen Informationsraums, in dem Mensch und Maschine harmonisch koexistieren sehr faszinierend.

Nach meiner ersten Auseinandersetzung mit Tim Berners-Lees Buch (Die Vision eines Visionärs »), möchte ich im folgenden weiteren Gedanken nachgehen. Dabei geht es unter anderem um den Aufbau des Webs, welchen ich vor allem strukturell näher betrachten möchte. Zudem finde ich den Ansatz eines universellen Informationsraums, in dem Mensch und Maschine harmonisch koexistieren sehr faszinierend.

Hypertext als non-lineare Grundlage

Während das Internet grundsätzlich nur das infrastrukturelle Fundament für das World Wide Web bildet, basiert die Kernidee des World Wide Webs auf Hypertext. Laut Berners-Lee war seine Aufgabe lediglich beides zu »verheiraten«.1 Nachdem es zuvor schon ähnliche Konzepte gab, wurde der Begriff Hypertext im Jahr 1965 von Ted Nelson geprägt. Zum einen schrieb Ted Nelson von »Literarischen Maschinen«: Von Computern, die dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren.2 Zum anderen ist an dieser Stelle wichtig zu wissen, dass es sich bei Hypertext um einen dynamischen Text handelt, dessen einzelne Bestandteile durch Querverweise vernetzt sind. Dieser enzyklopädische Ansatz ist fundamental für die Entwicklung des World Wide Webs und sein non-lineares Format.

Auf Grundlage dieser Struktur, entwickelt Tim Berners-Lee den Vorläufer des World Wide Webs »Enquire«, das auf Knoten (Nodes) basiert, die – der Reihe nach – miteinander verlinkt sind. Er vergleicht das Software-Projekt mit dem menschlichen Gehirn, welches gleichermaßen netzartig funktioniert und zufällige Assoziationen zulässt.3 Dabei sind die Verbindungsmöglichkeiten unbegrenzt und zuvor nicht berücksichtigte Verbindungen können sichtbar werden.4 Diese Unbeschränktheit ist eine Voraussetzung dafür, dass das Web als universelle Resource dienen kann.5

Hyperspace

Laut Tim Berners-Lee ist das Web kein physisches »Ding«, sondern ein Raum in dem Informationen existieren können.6 An späterer Stelle nennt er diese Hypertext-Umgebung »Hyperspace«.7 Es war essenziell, dass Berners-Lee etwas schafft, das keine komplette Umstrukturierung der vorherigen Arbeit sowie Umformatierung sämtlicher Daten verlangt. Ihm war wichtig ein System zu kreieren, welches für jeden akzeptabel ist und mit so wenig wie möglich Regeln bzw. Beschränkungen auskommt.8 Denn nur dann, wenn Menschen selbst in der Lage sind Informationen einzuspeisen und Informationen zu verbinden,9 kann dieser universelle Informationsraum entstehen. Und nur was in diesem Informationsraum besteht, ist von informationellem Wert. Das »World Wide Web Consortium« selbst handelt dabei nach der Maxime, dass alles, was nicht in diesem Hyperspace – im Web – vorhanden ist, nicht exitierst.10

Das erinnert mich zum einen an Luciano Floridis Blick auf die Infosphäre (Zwischen Realität und Fiktion »), welche jedoch auch Menschen als informationelle Wesen mit in diese Sphäre aufnimmt. Zum anderen an Felix Stalders Betrachtung des raumzeitlichen Horizonts (Neuer Raum – neue Zeit: Neu denken »). Stalder beschreibt dabei, dass alles, was nicht »hier« ist, unerreichbar und alles, was nicht »jetzt« ist, verschwunden ist.
Zudem sehe ich in Bezug auf die netzartige Struktur einen Zusammenhang zu Marshall McLuhan, welcher von der Auflösung von Raum und Zeit spricht, sowie die Veränderung unserer westlich geprägten, sequentiellen Denkweise voraussagt (Das globale Dorf – Raum, Zeit und Dynamik »). Hier sehe ich vor allem das World Wide Web als einschneidendes Medium, welches als non-lineares Format unsere Gewohnheiten grundsätzlich verändert. Hier fände ich spannend, inwiefern nachfolgende Generationen non-linear geprägt werden. Meine Generation (Jahrgang 1986) ist noch sehr sequentiell aufgewachsen und in das Medium Web reingewachsen. Zudem halte ich unsere aktuelle Lebenswelt noch immer für sehr linear ausgelegt.

Human-Computer-Interaction und die Verschmelzung zu einem großen Informatiosnraum

Um das World Wide Web nicht nur als Medium zu sehen, in das man »einsteigen« kann, ist die Zugänglichkeit enorm wichtig. Für Berners-Lee war der Zugang noch sehr umständlich und so hatte er schon damals Ideen, welche für uns heute eine Selbstverständlichkeit sind. Mehrere Minuten warten bis der Computer hochgefahren ist, um sich dann über die Telefonleitung ins Netz einzuwählen, nahm einfach viel zu viel Zeit in Anspruch. Er träumte davon, dass Computerbildschirme immer erreichbar sind, wenn man sie benötigt und hatte die Idee von sofortiger und ständiger Verfügbarkeit.11 Er hat bereits damals die Vorstellung, dass der Computer ein ständiger Begleiter und gutes Werkzeug darstellt, um aufkommende Ideen sofort festzuhalten und sie nicht zu verlieren.12 Zwar gibt es noch immer Leute, die weder Smartphone noch Daten-Flat besitzen, doch im Großen und Ganzen ist genau dieser Fall eingetreten. Das Smartphone ist als kleiner Pocket-Computer ständiger Begleiter vieler, die an den meisten Orten auch durchgehend online sind. Das ist auch die Onlife-Erfahrung von der Floridi spricht (Von Loops und der Hyper-Realität »): Die Unterscheidung von on- und offline wird es zukünftig kaum noch geben.

Eine weitere Selbstverständlichkeit ist, dass Technologie heute zunehmend transparenter wird. Das sieht Berners-Lee als Voraussetzung für den intuitiven Umgang mit ihr. Er denkt diese Transparenz jedoch noch weiter: Computer und Netzwerke sollten seiner Ansicht nach völlig aus dem Weg gehen, da es letztendlich unwichtig ist, wo Information gespeichert wird. Die Daten und die Werkzeuge, um auf sie zuzugreifen sollten unabhängig voneinander sein – er nennt das das Konzept der Ortsunabhängigkeit. Ob Hypertext oder lokaler Ordner – beides sind für ihn gleichermaßen Informationen. Er ist auch der Meinung, dass Dateinamen verschwinden müssen und jede Datei eine andere Art von URL erhalten sollte.
Weiter kann er sich vorstellen, dass URLs komplett verschwinden und man nur noch Hyperlinks sieht.13

Diesen Ansatz halte ich für spannend sowie in seiner Argumentation richtig. Eine Vorstellung davon wie das aussehen könnte, habe ich jedoch nicht. Hierfür müsste sich die komplette Ordnerstruktur auflösen, an der wir in unserer analogen Denkweise festhalten. Grundsätzlich wäre dieser Ansatz genau der richtige, um Daten nicht selbst vorzusortieren, sondern diese Arbeit den »Verbindungen« und einer anderen Art der Kategorisierung zu überlassen. Jedoch stelle ich mir die Sortierung insofern schwierig vor, dass beispielsweise bei der grafischen Arbeit auf lokale Daten zugegriffen werden muss. Zum einen werden dabei nicht alle möglichen Suchergebnisse über dieses Thema oder den Kunden benötigt, zum anderen ist hier eine zeitliche Abfolge in der Dateistruktur sehr wichtig. Zudem kann ich mir vorstellen, dass sich die grafische Nutzeroberfläche, die sehr intuitiv angelegt ist, dadurch grundlegend ändert.

Der Begründer des World Wide Webs sah das Web selbst noch nicht als universellen Informationsraum an. Daten sind auf verschiedenste Art und Weise getrennt voneinander gespeichert und oft nicht in Beziehung gesetzt. Hier kommt das semantische Web ins Spiel, welches auch als Web 3.0 bezeichnet wird. Dabei geht es darum, maschinenlesbare Formate zu nutzen, um den Algorithmen zu ermöglichen, nicht nur stichwortartige, sondern auch kontextuale Zusammenhänge erschließen zu können. Als grundlegenden Baustein nennt er RDF, das Resource Description Framework, das auf XML basiert und logische Aussagen über Dinge trifft. Er nennt das Beispiel, dass durch logische Schlussfolgerungen maschinell erkannt werden kann, dass »Mittlere Tagestemperatur« dasselbe wie »Tagesdurchschnittstemperatur« bedeutet. Das Marktforschungsunternehmen Gartner vermutet in einer Präsentation aus dem Jahr 2007, dass 2017 die meisten Webseiten mit einer Form von semantischem Hypertext ausgestattet sind.14 Inwieweit das semantische Web tatsächlich da ist, kann ich momentan aber weder beurteilen noch sicher herausfinden.

Das semantische Web wird uns dabei helfen, die unzähligen Informationen aus dem World Wide Web zu filtern – ohne maschinelle Hilfe wäre das für uns Menschen zwischenzeitlich unmöglich. Tim Berners-Lee ist davon überzeugt, dass der Computer uns bei der Lösung großer analytischer Probleme helfen wird und hält es für wichtig, dass das Web den Menschen dabei unterstützt, sowohl intuitiv als auch analytisch zu sein. Unsere Gesellschaft benötigt beide Funktionen.15
Zudem ist er sich sicher, dass die Menschheit durch die Zusammenarbeit mit Maschinen nur profitieren kann. Er nennt das World Wide Web als Ort, wo Mensch und Maschine in einer idealen, kraftvollen Mischung koexistieren werden.16
Diese Ansicht teil auch Michael Dertouzos in seinem Vorwort. Er glaubt entgegen vieler Menschen, die davon überzeugt sind, dass Technologie uns entmenschlicht, dass sie ein untrennbares Kind der Menschheit ist. Mensch und Maschine müssen für echten Fortschritt Hand in Hand gehen, ohne dass einer als Diener des anderen handelt.17
Mit dieser Thematik habe ich mich bereits in »Die 4. Revolution« befasst und auch ich bin überzeugt davon, dass wir mit der richtigen Nutzung der jeweils stärkeren Potenztiale eine völlig neue Entwicklungsstufe erreichen und eine wunderbare Koexistenz von Mensch und Maschine führen können.

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 6.
  2. Vgl. Ebd., S. 5.
  3. Vgl. Ebd., S. 10.
  4. Vgl. Ebd., S. 3.
  5. Vgl. Ebd., S. 99.
  6. Vgl. Ebd., S. 36.
  7. Vgl. Ebd., S. 206.
  8. Vgl. Ebd., S. 15.
  9. Vgl. Ebd., S. 201.
  10. Vgl. Ebd., S. 163.
  11. Vgl. Ebd., S. 158 f.
  12. Vgl. Ebd., S. 159 f.
  13. Vgl. Ebd.
  14. Vgl. Gartner Report: »Finding and Exploiting Value in Semantic Web Technologies on the Web« 2007, in: Herman, Ivan: »What is being done today?«, Stand: 14.12.2009, URL: https://www.w3.org/2009/Talks/1214-Darmstadt-IH/Applications.pdf, S. 3, abgerufen am 18.2.2017.
  15. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 201.
  16. Vgl. Ebd., S. 158.
  17. Vgl. Ebd., S. IX.

Präsentation IV

In meiner Präsentation stelle ich nicht nur das 2. Semester vor, sondern gebe auch einen oberflächlichen Überblick des 1. Semesters. In diesem Beitrag verweise ich auf die einzelnen Themen und Projekte.

In meiner Präsentation stelle ich nicht nur das 2. Semester vor, sondern gebe auch einen oberflächlichen Überblick des 1. Semesters. In diesem Beitrag verweise ich auf die einzelnen Themen und Projekte. Bei Bezugnahme auf Autoren mache ich hier keine Quellenangaben. Die Quellen sind im jeweiligen Beitrag angegeben.

Analyse grafischer Veränderungen

Im 1. Semester hatte ich im Großen und Ganzen zwei Schwerpunkte. Zum einen die Analyse der grafischen Veränderungen von Webseiten seit den 90er Jahren. Basierend auf Screenshots habe ich dabei die verändernden Text-Bild-Verhältnisse, sowie Interaktionen untersucht.
Das ist dahingehend sehr spannend, dass sich das Web und die Gestaltung durch neue technologische Möglichkeiten verändert haben, aber auch durch die Gesellschaft bzw. durch deren Nutzung und Ansprüchen stark beeinflusst wurden.
Web-Analyse: google.de seit 2001 »

Veränderte Internetnutzung

Mit der Nutzung des Internets beschäftigen sich auch die ARD-ZDF-Onlinestudien, mit denen ich mich auseinandergesetzt habe. Die Umfragen gibt es seit ca. 15 Jahren.
Nutzung von Bewegtbild (ARD/ZDF-Onlinestudie) »
Die Nutzung des Internets unterwegs (ARD/ZDF-Onlinestudie) »

Die Studien sind wiederum wichtig für meinen 2. Schwerpunkt, in dem es um Erzählformen geht bzw. um die Fragestellungen, welche neuen Erzählformen durch neue Medien entstehen können.

Netzkunst

Eine Erzählform, die oft nicht als solche wahrgenommen wird, ich aber sehr spannend finde, ist die Netzkunst. Aus meiner Sicht besitzt sie eine spezielle Ästhetik und arbeitet sehr mit dem Medium selbst. Es wird nicht einfach als zu füllender Platz missbraucht, sondern das Medium und die Technik selbst werden zum Teil der Erzählung gemacht. So z. B. die Frames bei Olia Lialinas »My boyfriend came back from war!«
Olia Lialinas »My boyfriend came back from the war!« »

Zusätzlich finde ich Künstler spannend, die im Netz mit dem Netz arbeiten wie z. B. Addie Wagenknecht. Sie hat generell kritische Arbeiten und eine Arbeit ist beispielsweise ein Diskurs zwischen webbasierten Erfahrungen (lolcatz, memes, gifs) und historisch geschlossenen Systemen, welche die physische Welt regieren. Das Internet ist nach ihr demokratischer Natur, aber kein demokratisches Medium. Sie stellt zudem fest, dass wir mehr auf die Bildschirme als aus unseren Fenstern schauen.
Von Dildodrohnen und lolzcat »

Trans- und crossmediale Erzählungen

Des Weiteren habe ich mich mit trans- und crossmedialen Erzählungen beschäftigt. Darunter auch »about:kate«, welche mit user-generated content und 2nd-Screen-Anwendungen gearbeitet hat.
About:Kate – »Wann haben Sie bemerkt, dass Sie nicht mehr wissen, wer Sie sind?« »

Film und Game

Mit »Fort McMoney« habe ich mich im Bereich Dokumentarspiel auseinandergesetzt. Es enthält viele Cut scenes, spielerisch erlangt man hier neues Wissen. Generell ist Gamification ein wichtiges Thema, denn das Spiel wird als neues Leitmedium angesehen.
Als Erzählform finde ich es an sich spannend, jedoch hat nicht jeder Interesse sich mühevoll durch einen Film oder das Spiel zu spielen.
Das Doku-Game »Fort MyMoney« von David Dufrense »

In Bezug auf die Kombination Film-Game habe ich eine Ausstellung im Filmmuseum Frankfurt besucht: »Film und Games. Ein Wechselspiel«, die genau diesen Aspekt beleuchtet. Schon Ende der 80er beeinflussen sich Game und Film gegenseitig, heutzutage verschmelzen die Medien noch mehr.
»Film und Games. Ein Wechselspiel.« im Filmmuseum Frankfurt

Neben dieser temporären Ausstellung im Filmmuseum, halte ich die allgemeine für sehr interessant. Vor allem mit Blick auf Geräte zur Wiedergabe von Bildern oder für die Erzeugung von Bewegtbildern. Teilweise erinnern sie an heutige Geräte. Generell hatte ich mich bereits mit Augmented und Virtual Reality beschäftigt. Hier hatte ich die Überlegung, ob nicht sogar eine Transformation aus dem Digitalen ins Analoge zu schaffen ist.
Mechanische GIF: Das Giphoscope »

Natürliche Art der Erzählung

Am Ende des 1. Semesters war meine Erkenntnis, dass sich alles Richtung »natürliche Art der Erzählung« entwickelt. Ähnlich wie vor der Schrift als alles noch dynamischer war. Dazu habe ich Parameter aufgestellt, welche solche Erzählungen erfüllen müssten:
Rückbesinnung auf eine natürliche Art der Erzählung »

Projekte: Eye-Tracking-Demo und Giphy-Experiment

In Bezug auf transparente Schnittstellen, entwickelte ich mit zwei Medientechnikern in einer sehr kurzen Zeit eine Eye-Tracking-Demo. Der einzige Anspruch war zu zeigen, was möglich ist. Das Thema »Mystery« war dabei nicht unbedingt meins, jedoch fand ich es spannend, an so einem Projekt mitzuarbeiten. Die großen Fragen waren, was geht und was nicht, was ist grafisch umsetzbar und wo sind die Grenzen.
Das verlassene Haus »

Des Weiteren habe ich mein Giphy-Experiment vorgestellt:
Erstes Experiment mit der giphy-Bibliothek »

Eine weitere Projektidee ist eine Erzählung zu entwickeln, die automatisch bebildert wird. Das widerspricht Byung Chul Hans These, dass Wissen narrativ und Informationen additiv sind. Von daher ist es aus meiner Sicht grundsätzlich nicht möglich, Narrationen automatisiert aus Daten zu generieren. Jedoch ist meine Überlegung die, eine Narration mit genauem Rahmen und exakten Parametern für Daten zu schaffen, um sich einer automatisch bebilderten Erzählung anzunähern.

Eine weitere Idee, die aus dem Giphy-Experiment entstanden ist, ist eine personalisierte Bildsprache zu entwickeln. Dabei müsste der große Datenpool auf dem eigenen Rechner genau getaggt und beschrieben oder zukünftig per Bilderkennung analysiert werden. Die eigene Sprache wird bei dieser Idee in Bilder übersetzt.

Loop-Erzählungen

Eine Loop-Erzählung mithilfe von giphy z. B. als Rauminstallation zu erarbeiten wäre ein weiterer Ansatz.
Dieser Ansatz ist meiner These aus dem 1. Semester, nämlich dass wir durch die Schrift sequentiell denken, sehr nahe. Wir sind als Europäer im Gegensatz zu orientalischen Ländern sehr linkshemisphärisch geprägt. Insgesamt denken wir sehr in Kausalitäten und alles hat einen zeitlichen Aufbau. McLuhan spricht davon, dass wir zunehmend in einer Welt der Gleichzeitigkeit leben und die Zeit aufgehört hat und der Raum verschwunden ist. Durch Loop-Erzählung wäre die Positionierung aufgelöst – es gäbe keinen klaren Zeitpunkt. Die Geschichte würde sich nach und nach – non-linear – erschließen.
Das globale Dorf – Raum, Zeit und Dynamik
Von Loops und der Hyper-Realität »

Interface und Interaction Design

Momentan sind all diese Ansätze auf Eis gelegt, um mich neu zu orientieren. Insgesamt finde ich nämlich sowohl das Web an sich als auch Medieninstallationen sehr spannend. Es wäre auch eine Kombination beider Medien denkbar.

Daher habe ich mich zunächst wieder darauf konzentriert, Beispiele für Weberzählungen zu finden.
Für das schönste Beispiel halte ich Species in Pieces: Eine interaktive Ausstellung »: Species in Pieces (Projekt) »

Des Weiteren habe ich mich mit Interaction Design beschäftigt. So z. B. mit Conversational User Interfaces, welche teilweise die graphischen Benutzeroberflächen ersetzen sollen. Zudem find ich den Ansatz der emphatischen Interaktion interessant, welcher sich darauf konzentriert, inwiefern Rückmeldungen für den Menschen wichtig und sinnvoll sind. Ein schönes Beispiel fand ich hier das eines Baggerfahrers, der jahrelang Bagger fährt und plötzlich eine Fernbedienung bekommt. Hier muss durch Rückmeldung wieder eine Verbindung zum Material aufgebaut werden.
CUI – Conversational User Interface »
Natural User Interface – Die unsichtbaren Schnittstellen »
Empathische Interaktion »

Medieninstallation

Abschließend stelle ich zwei Installationen von Markus Kison vor. Eine davon ist »Pulse« dessen Zentrum ein Gummiobjekt ist, das auf dessen acht Seiten die Grundemotionen des Menschen darstellt. Die Daten kommen dabei via APIs n Echtzeit aus WordPress-Blogs.
»Pulse« von Markus Kison »
»Touched Echo« von Markus Kison »

Der momentane Stand ist der, dass ich große Motivation habe eine Medieninstallation zu bauen, die in irgendeiner Form auf Echtzeitdaten zurückgreift. Dafür werde ich weiter recherchieren, um genaueres über Technologie und Medienechnik zu erfahren.

Abbildungen
  1. Titelbild: Studio SML: Projekte – Deutsches Filmmuseum Frankfurt, Änderung zum Zweck der Präsentation meiner Recherche: Headline sowie Quellenangabe, abgerufen am 30.1.2016.

CUI – Conversational User Interface

Welche Vorteil bietet das Conversational User Interface zu graphischen Benutzeroberflächen? Sind Einkäufe innerhalb von Messenger-Diensten tatsächlich die Zukunft?

Welchen Vorteil bietet das Conversational User Interface gegenüber graphischer Benutzeroberflächen? Sind Einkäufe innerhalb von Messenger-Diensten tatsächlich die Zukunft? Durch diverse Artikel im Internet bin ich auf Conversational User Interfaces aufmerksam geworden. Was sich auf den ersten Blick spannend anhört, möchte ich im zweiten Schritt genauer überprüfen. Daher möchte ich mich im kommenden weiter mit CUIs auseinandersetzen und innerhalb meiner Dokumentation davon berichten.

»Touched Echo« von Markus Kison

Durch Jakob Behrends Buch »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter« wurde ich auf Markus Kisons Arbeit »Touched Echo« aufmerksam, die sehr spannend und eindrücklich umgesetzt ist.

Durch Jakob Behrends Buch »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter« wurde ich auf Markus Kisons Arbeit »Touched Echo« aufmerksam.

Die Grundlage der Arbeit bilden Soundaufnahmen aus dem Jahr 1945, als deutsche Städte im 2. Weltkrieg nieder gebombt wurden. Das Audiomaterial wird dabei erst übertragen, wenn sich der Besucher mit den Ellenbogen auf ein mit selbstgebauten Schalleitern präpariertes Geländer abstützt und sich mit den Händen die Ohren zuhält. Technisch ist das durch eine Knochenleitung möglich, die für Hörgeräte entwickelt und verwendet wird. Wie Kison auf seiner Projektseite beschreibt, nimmt der Besucher dadurch eine natürliche Haltung ein, die die Menschen wohl auch damals unter anderem eingenommen haben: Eine gebeugte Haltung mit zugehaltenen Ohren, um sich vor der Lautstärke der Angriffe zu schützen.

Neben der technischen Umsetzung, halte ich das Gesamtkonzept für herausragend. Geschichte wird damit erlebbarer gemacht und der Besucher wird gezwungenermaßen in eine ähnliche – wenn natürlich auch unbedrohte – Situation versetzt. Ohne es selbst ausprobieren zu können, schätze ich, dass die Arbeit einen hohen Grad an Immersion mitbringt und die geschichtliche Auseinandersetzung – im Gegensatz zu ein paar Postern – tatsächlich stattfindet. Des Weiteren beeindruckt mich wie hier Medienkunst und Geschichte miteinander verschmelzen. »Touched Echo« halte ich deshalb im Bereich der digitalen Medienkunst für sehr inspirierend.

Abbildungen
  1. Kison, Markus: »Touched Echo Osnabrueck«, abgerufen am 23.7.2016, Lizenz: CC BY-NC-SA 2.0.

Empathische Interaktion

In »The digital turn – Design in the Era of Interactive Technologies« spricht Björn Bertrand in seinem Essay »The Empathetic Interaction« darüber, wie durch Reize eine Verbindung zwischen Mensch und Maschine hergestellt werden kann.

In »The digital turn – Design in the Era of Interactive Technologies« spricht Björn Bertrand in seinem Essay »The Empathic Interaction« darüber, wie durch Reize eine Verbindung zwischen Mensch und Maschine hergestellt werden kann.1

Bertrand nutzt dafür das Beispiel eines langjährigen Kranfahrers, der seine Arbeit mit absoluter Routine erledigt. Jeder Handgriff sitzt, er lenkt den Kran beinahe blind und sein Körper ist mit dem Kran fast schon eins. Sie sind miteinander verbunden.
Auf der anderen Seite nutzt er das Beispiel eines Autofahrers, der wir selbst sein könnten: In einer Kurve klingt das Auto komisch und der Fahrer hält an. Das akustische Signal hat ihn davor gewarnt, dass irgendetwas nicht stimmen kann. Dass irgendetwas nicht »normal« ist, nicht wie sonst in seiner alltäglichen Routine als Autofahrer. In der Routine, in der er eins mit dem Auto ist und jede Abweichung – durch welchen Reiz auch immer – bemerkt.

Im nächsten Schritt erhält der Kranfahrer eine Fernsteuerung für seinen Kran. Er kann frei wählen, von welcher Position er ihn steuert, doch sowohl die neue Position als auch die andere Steuerung führen dazu, dass eine körperliche Distanz aufgebaut wird. Das alltägliche Gefühl der Verbundenheit ist verflogen, da er das Fahrzeug nun völlig anders steuert und die körperliche Verbindung nicht im gleichen Maß wie bisher vorhanden ist. Um diese Distanz wieder abzubauen, kann in der Fernsteuerung beispielsweise eine Vibration eingebaut werden – eine taktile Rückmeldung. Zwar bedeutet das noch immer, dass es eine Zeit der Umgewöhnung benötigt, doch der Körper lernt diese neue Routine und er kann sich wieder zunehmend in den Kran einfühlen. Das Autobeispiel zeigt, dass nicht nur taktile Reize in Frage kommen. In diesem Fall waren es akustische Warnsignale und auch andere Reize wären möglich. Bertrand schreibt, dass Empathie in der Regel aus einem komplexen Zustand der Stimulation entsteht. Durch eine empathische Interaktion kann also die Distanz zwischen Mensch und Maschine abgebaut werden, ein »Gefühl dafür« kann entstehen. Und wie Bertrand schon andeutet, dürfen wir nicht vergessen, dass der Mensch mit seinem Körper an die Umwelt gebunden ist.2

Veräußerung des menschlichen Körpers

An dieser Stelle möchte ich Marshall McLuhans Interpretation des Narziss einfließen lassen, der sein eigenes Spiegelbild im Wasser sieht. Laut McLuhan handelt die Sage nicht davon, dass er sich in sein Spiegelbild verliebte. Sie handelt primär davon, dass »Menschen sofort von jeder Ausweitung ihrer selbst in einem andern Stoff als dem menschlichen fasziniert sind«3. Dies betrifft sowohl Medien als auch beispielsweise Werkzeuge. Demnach ist eine abgebaute Distanz zu dem jeweiligen Stoff enorm wichtig, um eine tatsächliche Verbindung zwischen ihm und dem Körper herzustellen.

Rückmeldung im Web

Ich halte Bertrands Ansichten für sehr entscheidend beim Interaction als auch Interface Design. Zwar scheint es zum einen selbsterklärend und zum anderen selbstverständlich. Doch ich denke, dass das ein nicht zu unterschätzender Ansatz ist, der nach wie vor viel zu oft unbeachtet bleibt. Im Web erhält man visuelle Rückmeldungen durch z. B. Farbe beim MouseOver oder textliche Rückmeldungen beim Absenden eines Formulars. Obwohl beides meiner Ansicht nach völlig selbstverständliche Mechanismen sind, die zum Standard geworden sind, findet man noch immer unzählige Webseiten, die diese Kleinigkeiten nicht beachten.
Seit wenigen Jahren sieht man durch scroll activated animations den eigenen »Scroll-Einfluss«: Objekte bewegen sich dabei abgestimmt auf das Scroll-Verhalten. Scrollt man nach unten, kann sich beispielsweise ein Objekt aufbauen, dass sich wieder abbaut, wenn man zurück scrollt. Teilweise mag das als Spielerei und Effekthascherei abgestempelt werden, nichtsdestotrotz machen Seiten dieser Art unheimlich viel Spaß. Zusätzlich sehe ich darin eine hervorragende Möglichkeit die Distanz abzubauen und den eigenen Körper, die eigenen Tätigkeiten im Web abzubilden. Macht es gerade deshalb so viel Spaß?

Stimulation in virtuellen Realitäten

Ich denke in jedem Bereich ist bezüglich der empathischen Interaktion viel Raum nach oben. Zwar sind die Beispiele Bertrands eher im Bereich Arbeit und alltäglicher Routine angesiedelt. Ich denke dabei eher an graphische Benutzeroberflächen oder Welten, die via Virtual Reality betreten werden können. Vor allem bei letzterem darf nicht vergessen werden, dass der Körper in die Umwelt eingebunden ist. Meine ersten Gehversuche mit der Google Cardboard (Erste Gehversuche mit der Google Cardboard ») habe ich im privaten Raum gemacht. Ich habe dabei auf Kopfhörer verzichtet, so dass lediglich der visuelle Reiz vollständig übrig blieb, der Sound kam dabei aus den Handy-Boxen. Obwohl ich nur auf visueller Ebene in die virtuelle Realität eingetaucht bin, war die Immersion immens und es war schwierig sich im realen Raum zu orientieren. In anderen Beispielen, wie im Labor des Fachbereichs Medien der Hochschule Düsseldorf, werden noch zusätzliche Reize, wie beispielsweise ein Ventilator für die Windsimulation eingesetzt.
Durch Stimulation wie diese werden aus meiner Sicht Raum und Zeit aufgelöst, der Körper geht in der virtuellen Realität auf. Ich finde es dabei immer wieder spannend, wie wenig Stimulation nötig ist, um das Gehirn auszutricksen. Zwar bietet Virtual Reality momentan gerade diesen Anreiz in einer virtuellen Realität abzutauchen und sich aufzulösen. Langfristig stellt sich mir jedoch die Frage, wie es möglich ist, seinen Körper und die Umgebung so gut als möglich einzubinden, sprich eine Verbindung herzustellen. Vor allem bin ich mir zur Zeit unsicher, ob Reize wie der Wind dafür sorgen, dass man sich noch mehr in der virtuellen Umgebung auflöst oder ob man gerade dadurch seinen Körper noch mehr in einer Verbindung spürt. Beides kann viel Spaß bereiten, aber unabhängig davon wie ich beide Möglichkeiten bewerte, halte ich es für essentiell sich dieser Wege bewusst zu sein.

Den Beitrag und die Erkenntnisse von Bertrand halte ich bisher für einen der spannendsten Ansätze für mein Master-Thema. Sicherlich ließe sich das auch mit der Frage nach Interaktivität, die ich als mögliche neue Richtung festgehalten habe, verbinden.

Quellen
  1. Vgl. Betrand, Björn: »The empathetic Interaction«, in: Junge, Barbara; Eds.: Berzina, Zane; Scheiffele, Walter; Westerveld, Wim; Zwick, Carola, »The digital turn – Design in the Era of Interactive Technologies«, Berlin 2012, S. 138–143.
  2. Vgl. Ebd.
  3. Baltes, Martin; Böhler, Fritz; Höltschl, Rainer; Reuß, Jürgen (Alle Hg.): »Medien verstehen – Der McLuhan-Reader«, Mannheim 1997, S. 120.

Personas: Wer verbirgt sich hinter dem »Nutzer«?

Neben bekannten Methoden der Zielgruppenanalyse wie beispielsweise das »Sinus-Modell« stellt Marco Spies in »Branded Interactions – digitale Markenerlebnisse planen und gestalten« die mir unbekannte Methode der »Personas« vor. Diese Methode der Zielgruppenanalyse halte ich für sehr einleuchtend und naheliegend und möchte deshalb bei Gelegenheit selbst Personas erstellen.

Neben bekannten Methoden der Zielgruppenanalyse wie beispielsweise das »Sinus-Modell« stellt Marco Spies in »Branded Interactions – digitale Markenerlebnisse planen und gestalten« die mir unbekannte Methode der »Personas« vor.

Bei Personas handelt es sich laut Spies um die Beschreibung »typischer Vertreter einer Zielgruppe oder eines speziellen Zielgruppensegments«.1 Genauer definiert er sie als hypothetisch, archetypisch und spezifisch. Das heißt sie sind zum einen keine realen Personen und stellen keinen Durchschnittsnutzer, sondern einzelne Individuen dar. Diese besitzen besondere Eigenschaften, Erfahrungen und Verhaltensweisen.2

Bei den Personas geht es demnach nicht darum, Nutzer in allgemeine Modelle einzuordnen und die ganze Gruppe zu betrachten, sondern um die Vorstellung einzelner Personen, die auf unterschiedlichste Art und Weise mit dem Medium in Berührung kommen.

Daten einer Persona

Zum einen gehört dazu Spies’ Cousin Felix, der die Nintendo DS und Wii nutzt, zum anderen gehört auch seine Tante in die Zielgruppe, da sie die Spiele für den noch jungen Cousin kauft.3 Um sich diese Personen genau vorzustellen und deren Wünsche und Bedürfnisse einordnen zu können, werden Personas erstellt, durch die versucht wird die Zielperson genau zu charakterisieren. Das geschieht zum einen durch Personalisierungsdaten (Name, Foto), soziodemographische Daten (Alter, Geschlecht, Beruf, …), psychografische Daten (Wünsche, Werte, Lebensstil, Hobbys, …), technografische Daten (technische Aussattung, Nutzungsverhalten, …) und geographische Daten (Wohnort, Land, Kultur, …).4

Personas helfen dabei, sich in den Nutzer hineinzuversetzen und sie stets vor Augen zu haben, sollte es Unklarheiten innerhalb der Entwicklung des Konzepts geben. Mit »Persona Moodboards« werden die Zielpersonen visualisiert und geben ein klares Bild darüber ab, wer letztendlich der Nutzer der Anwendung sein könnte. Ich halte Personas für eine sehr spannende Methode der Zielgruppenanalyse. Durch die Analyse erhält man keine abstrakten Mileu-Zuordnungen wie beispielsweise das »Traditionelle Milieu« oder das »Hedonistische Mileu«, sondern eine sehr konkrete Vorstellung darüber, wer die Anwendung letztendlich nutzen könnte und wie die jeweiligen Anforderungen sind. Jeder besitzt im Verwandten- und Bekanntenkreis Menschen aus sämtlichen Zielgruppen. Dabei haben die Großeltern andere Anforderungen als die Eltern, die wiederum andere als Kinder oder Freunde. Durch die konkrete Vorstellung der jeweiligen Person werden die Bedürfnisse sehr deutlich und vereinfachen den Entwicklungsprozess immens. Da ich diese Methode so einleuchtend finde, möchte ich bei Gelegenheit selbst Personas erstellen, um mögliche Zielgruppen meines Masterprojekts darzustellen.

Quellen
  1. Spies, Marco: »Branded interactions: digitale Markenerlebnisse planen und gestalten«, Mainz 2012, S. 81.
  2. Vgl. Ebd.
  3. Vgl. Ebd., S. 82.
  4. Vgl. Ebd.

Natural User Interfaces – Die unsichtbaren Schnittstellen

Marco Spies erwähnt in seinem Buch »Branded interactions : digitale Markenerlebnisse planen und gestalten« das Natural User Interface (NUI), durch das Eingabegeräte wie z. B. die Maus oder Tastatur überflüssig werden. NUI bezieht sich dabei auf die »Art der Nutzung, nicht auf das Interface selbst.« Welche neuen Möglichkeiten eröffnen sich und welche Potentiale können genutzt werden?

Marco Spies erwähnt in seinem Buch »Branded Interactions: digitale Markenerlebnisse planen und gestalten« das Natural User Interface (NUI), durch das Eingabegeräte wie z. B. die Maus oder Tastatur überflüssig werden. NUI bezieht sich dabei auf die »Art der Nutzung, nicht auf das Interface selbst«1.
Luciano Floridi erwähnt bereits, dass Schnittstellen immer transparenter werden (Erkenntnisse und Eindrücke zu Luciano Floridis Buch»Die 4. Revolution« ») und Spies beschreibt, dass Interfaces nicht automatisch »Natural« sind, wenn z. B. an bekannten Mouse-Interaktions-Mustern festgehalten wird. Des Weiteren empfiehlt er, dass sich Gestalter von bekannten click-and-point Design Pattern frei machen sollten.2

Veränderung der Strukturen digitaler Inhalte

Diese Tatsache bringt viele neue Herausforderungen für den Gestalter mit sich. Auch wenn sich das NUI eher auf die Art und Weise der Interaktion bezieht, stellen sich Fragen inhaltlicher und gestalterischer Natur. Aus meiner Sicht könnten sich sämtliche Strukturen digitaler Inhalte verändern. Steht die Art der Eingabe erstmal fest, sei es beispielsweise via Spracheingabe oder via freier Gesten durch Hardware wie der Microsoft Kinect, müssen sämtliche bisherige Pattern (Interaktionsmöglichkeiten) überdacht werden. Benötigt man auf Webseiten noch Navigationshilfen wie beispielsweise »Zurück-Buttons« oder Breadcrumbs, wenn man sich auch durch Gesten wie beispielsweise Swipen behelfen kann? Benötigt man generell noch eine Navigation wie bisher oder könnte auch hier eine völlig neue Art gefunden werden? Wie sieht eine Suchfunktion aus, die nicht mehr zwingend grafisch sein müsste, sondern ähnlich wie »Google Now« funktionieren könnte?

Verschmelzung der virtuellen und analogen Welt

Ich sehe hier viel Potential, digitale Inhalte noch spezieller auf digitale Medien zuzuschneiden. Viele Inhalte sind bisher nach wie vor der analogen Welt entrissen, so haben beispielsweise eBooks noch immer Seitenzahlen, die aus meiner Sicht völlig überflüssig sind. Andererseits sehe ich noch viel Raum für Annäherungen zwischen der virtuellen und analogen Welt, welche durch Natural User Interfaces bereits enger aneinander rücken. In den Bestrebungen Innovation zu schaffen, sehe ich häufig ein übergeordnetes Ziel: Die Verschmelzung der virtuellen und analogen Welt. Wie können Muster der analogen Welt noch mehr im Virtuellen eingesetzt werden, so dass sie einerseits nicht einfach stupide überführt werden, jedoch bekannte Interaktionsmuster von Menschen abgerufen werden können? Da sich Menschen mit der Technologie verändern und an sie anpassen, stellt sich die weitere Frage, welche Muster es überhaupt wert sind wieder aufgegriffen zu werden und welche man getrost fallen lassen kann.

Natural User Interfaces wird definitiv ein Thema sein, das meinen Master begleiten wird. Hier sehe ich sowohl im technischen als auch im gestalterischen Bereich sehr viel Potential für gestalterische Experimente und Innovationen.

Quellen
  1. Spies, Marco: »Branded interactions: digitale Markenerlebnisse planen und gestalten«, Mainz 2012, S. 223.
  2. Vgl. Ebd.

»Do not enter« – Storytelling mit Eye-Tracking

Das gemeinsame Projekt mit zwei Studenten des Bereichs Medientechnik ist nun abgeschlossen. Wie bereits in vorherigen Beiträgen berichtet ging es darum eine Demo zu bauen, die zeigt, welche möglichen Funktionen ein Eye-Tracker bietet.

Das gemeinsame Projekt mit zwei Studenten des Bereichs Medientechnik ist nun abgeschlossen. Wie bereits in vorherigen Beiträgen berichtet ging es darum eine Demo zu bauen, die zeigt, welche möglichen Funktionen ein Eye-Tracker bietet.

Die Reise führt den Nutzer durch ein verlassenes Haus, durch das er via Augen navigieren kann. Unterwegs werden Eye-Tracker-spezifische Möglichkeiten berücksichtigt. So kann z. B. in der Eingangshalle eine Taschenlampe mit den Augen gesteuert werden. An späterer Stelle wie z. B. dem Schlafzimmer mit Spiegel entwischt ein Gespenst, wenn man in den Spiegel schaut oder das Piano im nächsten Raum gibt Töne von sich, wenn man darauf schaut.

Die Reise durch das Haus ist letztendlich keine richtige Story, sondern eine passende Aneinanderreihung von Fotos, die eine einigermaßen einheitliche Welt aufbauen sollen.

Der Prozess

Die Arbeit mit den Medientechnikern war sehr angenehm und gut aufeinander abgestimmt. Man merkt jedoch schnell, an welchen Stellen Probleme zwischen den zwei Disziplinen Medientechnik und Design auftauchen und wo man sich gut abstimmen muss. So ist nicht jedes Design technisch umsetzbar und es müssen natürlich Kompromisse geschlossen werden. Ein Beispiel hierfür ist ein »Zurück-Pfeil«, den ich im Entwurf sowohl kleiner gestaltet als auch an anderer Stelle, näher am Rand, positioniert hatte. Das war jedoch nicht möglich, da der Eye-Tracker auf einen so kleinen Bereich am Rand nicht reagiert hat.


Passwort: eyetracking

Der Abschluss

Abschließend bin ich aus grafischer und konzeptioneller Sicht zwar nicht zufrieden mit dem Genre und Projekt an sich, dennoch war es eine gute Erfahrung in der Zusammenarbeit beider Disziplinen und eine gute Möglichkeit die Technik des Eye-Tracking für meine Arbeit in Betracht zu ziehen. Insgesamt halte ich es für keine Technologie, die eine große Zukunft im Bereich Storytelling haben wird, jedoch könnte es eine Funktion sein, die ähnlich der Webcam standardmäßig im Computer integriert ist.
Zusätzlich muss man natürlich kritisch hinterfragen, wie gut eine Technologie ist, die so sehr auf den reinen Instinkt abzielt. Damit ist es nicht nur möglich gezielt Inhalte auszuwählen. Wenn die Reaktionszeit des Eye-Trackers sehr schnell eingestellt ist, entscheidet der erste instinktive Blick und man ist ihm voll und ganz ausgesetzt.

Abbildungen

Die Bilder sind der Reihenfolge nach im Video zu finden.

1. AUSSENANSICHT
Alle: Lizenzfrei

2. EINGANGSHALLE
Eingangshalle | Zlatko Unger | Persönliche Zustimmung
Änderungen: Farbe, Belichtung , Einbau des Kerzenständers

Kerzenständer | Rod Waddington | CC BY-NC-SA 2.0
Änderungen: Einbau in Eingangshalle, Animation der Flammen, freigestellt

3. FLUR
Flur | stimpy023 (Flickr) | CC BY-NC-ND 2.0
Änderungen: Farbe, Belichtung

4. PIANOZIMMER
Zimmer | Vincent Ferron | CC BY-NC 2.0
Änderungen: Farbe, Belichtung

5. SCHLAFZIMMER
Zimmer | Vincent Ferron | CC BY-NC 2.0
Änderungen: Farbe, Belichtung, Änderung der Türfarbe

6. BILLIARDRAUM
Zimmer | Vincent Ferron | CC BY-NC 2.0
Änderungen: Farbe, Belichtung, Einbau einer animierten Maus

7. FLUR NACH BILLIARDRAUM
Flur | wildhack (Flickr) | CC BY-NC-SA 2.0
Änderungen: Farbe, Belichtung

8. LEERES ZIMMER
Bilderrahmen: Lizenzfrei
Bild im Bilderrahmen | Sarah Ackerman | CC BY 2.0
Änderungen: Farbe, Belichtung, Einbau des Bilderrahmens in den Raum, Einbau des Bildes in den Rahmen, Bild im Rahmen: Einbau eines Portraits

DREI ZIMMER ROSE HALL
Raum 1, Raum 2, Raum 3 | Sarah Ackerman | CC BY 2.0
Änderungen: Farbe, Belichtung, Portraiteinbau (R. 1), Türeinbau (R. 2)

9. KÄSTCHEN
Kästchen | Matthew Tomlinson | CC BY-NC 2.0
Änderungen: Farbe, Belichtung, Einbau einer Postkarte

Das verlassene Haus

Für unser Eye-Tracking-Projekt basteln wir gerade an einem Storyboard und testen die technischen Möglichkeiten des Geräts. In zwei Wochen soll die Demo dann vorgestellt werden.

Für das Eye-Tracking-Projekt (Wieso Eye-Tracking anstatt der Bedienung mit einer Maus oder der Tastatur? ») haben wir uns bereits für das mir ferne Genre »Mystery« entschieden. Genauer möchten wir ein verlassenes Haus entwerfen, durch das man via Eye-Tracking navigieren kann. Grundlage des Projekts sollen dabei Fotografien aus dem Netz sein, die mit der CC0-Lizenz gekennzeichnet sind.

Die Wahl des Genres ist damit begründet, dass hier besondere Eigenheiten des Eye-Trackings verwendet werden können. Für die reine Navigation durch ein Haus ständen genügend Alternativen wie z. B. die Maus zur Verfügung und würden den Einsatz von Eye-Tracking – aus meiner Sicht – nicht rechtfertigen. Viel mehr können damit beispielsweise Szenarien entwickelt werden, in denen ein Objekt reagiert, wenn man darauf schaut oder gerade dann, wenn es außerhalb des Blickes ist und nur durch eine Bewegung im Augenwinkel vermutet werden kann.

Für das Haus entwickele ich momentan ein erstes Storyboard, während die zwei Studenten aus dem Bereich Medientechnik verschiedene technische Möglichkeiten des Eye-Trackers testen. Die besondere Schwierigkeit beim Storyboard ist die Suche nach Fotografien, die natürlich auch die Entwicklung des Verlaufs beeinflussen. Durch die CC0-Lizenzen fällt es schwer ein einheitliches Bild zu schaffen. Die Unterschiede sollen, wenn möglich, durch anschließende Bildbearbeitung abgeschwächt werden.

Für die restliche Bearbeitung haben wir nun noch genau zwei Wochen Zeit bis die Demo vorgestellt werden soll.

Storytelling mit Hilfe von Eye-Tracking

Eine erste praktische Anwendung, um einen konkreteren Ansatz für meine Master-Arbeit zu finden.

Um einen konkreteren Ansatz für mein Master-Projekt zu finden, hat mich Prof. Anja Vormann in Kontakt mit Christian Geiger gebracht, der an der Hochschule Düsseldorf Professor für Mixed Reality und Visualisierung ist. Nach einem ersten Vortreffen, konnte der Kontakt zu zwei Studenten aus dem Bereich Medientechnik hergestellt werden. Gemeinsam möchten wir nun bis Ende April ein Projekt realisieren, das in erster Linie dazu dient, Möglichkeiten eines Eye-Trackers zu zeigen. Mit der Nutzung eines Eye-Tracker von tobii wurde bereits eine kleine Anwendung realisiert, in der man bei der Fokussierung festgelegter Punkte in die nächste Bildebene gelangt. So ist zu Beginn beispielsweise ein Haus mit Fenstern, beim Blick auf eine Weltkugel im Fenster gelangt man in das Zimmer. So arbeitet man sich Ebene für Ebene vor bis sich das ganze als Endlosschleife wiederholt.
Unsere Aufgabe ist es nun, eine ähnliche Anwendung umzusetzen, die die Möglichkeiten mit zusammenhängendem Inhalt zeigt. Dabei soll zunächst keine »Story« im eigentlichen Sinn entstehen, die Inhalte sollten jedoch nicht einfach lose und unabhängig voneinander sein.