(Un-)Menschlickeit im digitalen Mittelalter

Der Film »Lo and Behold – Wovon träumt das Internet?« des Regisseurs Werner Herzog geht in seinen zehn Kapiteln der Geschichte des Internets und dessen Auswirkungen auf unsere Gesellschaft nach. In Gesprächen werden beispielsweise »Die Herrlichkeit des Netzes«, »Die dunkle Seite«, »Internet auf dem Mars« oder die Zukunft des Netzes thematisiert. Gesprächspartner sind dabei Leonard Kleinrock, Elon Musk, Sebastian Thrun sowie viele weitere wichtige Protagonisten dessen tägliche Arbeit vom Internet bestimmt wird oder deren Leben durch das Netz massiv verändert wurde.

Der Film »Lo and Behold – Wovon träumt das Internet?« des Regisseurs Werner Herzog geht in seinen zehn Kapiteln der Geschichte des Internets und dessen Auswirkungen auf unsere Gesellschaft nach. In Gesprächen werden beispielsweise »Die Herrlichkeit des Netzes«, »Die dunkle Seite«, »Internet auf dem Mars« oder die Zukunft des Netzes thematisiert. Gesprächspartner sind dabei Leonard Kleinrock, Elon Musk, Sebastian Thrun sowie viele weitere wichtige Protagonisten dessen tägliche Arbeit vom Internet bestimmt wird oder deren Leben durch das Netz massiv verändert wurde. Wie in meiner Dokumentation üblich, möchte ich keine Filmrezension schreiben, sondern lediglich die wichtigen Punkte herauspicken. Vor allem die Kapitel »Künstliche Intelligenz« und »Das Internet des Ichs« sind dabei spannend für mich.

In ersterem prophezeit Sebastian Thrun, dass wir an einen Punkt kommen werden, an dem fast alles von Maschinen übernommen werden kann und dass sie das meiste besser als wir Menschen können. Das liegt unter anderem daran, dass Maschinen sehr viel schneller lernen.1 Zudem erklärt er schon zuvor, dass die Fehler, die selbstfahrende Autos machen, sofort mit anderen – auch »ungeborenen« – Autos geteilt werden. Dadurch wird dieser Fehler niemals wiederholt, was ein enormer Vorteil gegenüber menschlichen Fahrern ist.2

Theologische Revolution

Solche grundlegenden Veränderungen, die durch das Internet und die Maschinen, die für uns denken, einhergehen, benötigen laut Computerwissenschaftler Danny Hillis eine Veränderung unserer Moral. Wir müssten über die Definition, was menschlich sein wirklich bedeutet, nachdenken und er sagt eine theologische Revolution voraus. Wir ergründen und entwickeln eine neue Gesellschaft sowie neue Ideen darüber, was richtig und falsch ist. Er sieht die momentane Zeit zudem als eine unglaublich kreative Zeit in der Menschheitsgeschichte – nicht nur technologisch, sondern auch moralisch und kulturell.3 Dieser Gedanke ist dem Luciano Floridis, der von einer neuen Informationsphilosophie spricht, sehr nahe. Auch er ist der Meinung, dass die Entwicklung einer neuen Philosophie notwendig ist, um dem rasanten Wandel, dem unsere Zeit unterliegt, gerecht zu werden.

Das digitale Mittelalter

Der Computerwissenschaftler sieht eine weitere Entwicklung, die den Gedanken Floridis sehr ähnlich ist. Während der Informationsphilosoph es als »Digitalen Gedächtnisverlust« formuliert (Die Hypergeschichte »), spricht Hillis vom »Digitalen Mittelalter«. Seinen Beobachtungen nach passieren heutzutage viele Dinge deren Hintergründe später nicht mehr nachvollziehbar sind. Während es noch handschriftliche Briefe der Gründerväter der USA gibt, wird heute vieles per E-Mail geklärt. Diese Unterhaltungen vorweg werden höchstwahrscheinlich also nicht mehr rekonstruierbar sein und verloren gehen.4 Während die Ausführung beider ziemlich unterschiedlich sind, entsprechen sie sich im Kern doch sehr. Im Grunde geht es bei beiden um eine nicht vorhandene oder verlorene Historie, welche es den Generationen nach uns sehr schwierig machen wird, die Hintergründe zu verstehen.

Das unsichtbare Internet

Während meines Researchs beschäftigt mich immer wieder das Verschwinden von Schnittstellen. Technologie wird zunehmend unsichtbar und rückt in den Hintergrund. Der Internetpionier Leonard Kleinrock erläutert im Film, dass ein Raum wissen müsste, wenn man da ist. Er spricht von Voice User Interfaces, so dass man mit der Technologie kommunizieren kann, welche wiederum mit Sprache, einem Hologram oder einem Display auf natürliche Weise antworten kann. Auch Gesten, Berührungen oder sogar das Miteinbeziehen des Geruchssinns hält er für möglich. Er vergleicht sie dabei mit der Elektrizität, welche einfach unsichtbar in unseren Wänden eingelassen ist. Zu dieser Unsichtbarkeit müsste sich das Internet jedoch noch entwickeln.5 Ähnlich sieht das der Sicherheitsanalytiker Sam Curry, welcher von Räumen spricht, in denen das Licht nach eigenen Vorlieben gedimmt oder die Musik angeschaltet wird, wenn man den Raum betritt.6 Vor allem der letzte Ansatz eines Smart Homes, ist heutzutage teilweise schon möglich. So können beispielsweise HUE-Lampen eingeschaltet werden, sobald sich das Smartphone mit dem W-LAN verbindet oder Lampen von z. B. Trilux je nach Tageslicht gesteuert werden.

Abschließend liefert mir der Film »Lo and Behold – Wovon träumt das Internet?« leider kaum neue Erkenntnisse oder Ansätze, welche ich für meine Master-Arbeit verwenden kann. Die interessanten Gedanken habe ich hier für mich zusammengefasst, jedoch habe ich vor allem im Hinblick darauf, dass Elon Musk oder Ted Nelson Teil des Films sind, mehr erwartet.

Quellen
  1. Vgl. Herzog, Werner: »Lo and Behold – Wovon träumt das Internet?«, 98 Minuten, Vereinigte Staaten 2016 [Deutschland 2017], TC: 01:23:30–01:24:22, VIII. Künstliche Intelligenz.
  2. Vgl. Ebd., TC: 00:34:56–00:36:18, II. Die Herrlichkeit des Netzes.
  3. Vgl. Ebd., TC: 01:24:23–01:25:08, VIII. Künstliche Intelligenz.
  4. Vgl. Ebd., TC: 01:29:46–01:30:20, IX. Das Internet des Ichs.
  5. Vgl. Ebd., TC: 01:26:17–01:27:20, IX. Das Internet des Ich.
  6. Vgl. Ebd., TC: 01:27:20–01:28:28, IX. Das Internet des Ich.

Die Anfänge der grafischen Benutzeroberfläche

Während meinen Nachforschungen bezüglich der grafischen Veränderungen im Web, gelange ich unweigerlich an den Ursprung der meisten heutigen GUIs. Obwohl das GUI grundsätzlich vom Webdesign zu unterscheiden ist, ist es für mich zum einen wichtig, die Ursprünge dessen zu erkunden, was uns heutzutage die Gestaltung im Web überhaupt ermöglicht. Zum anderen ist für mich der damalige Umgang mit gestalterischen Elementen spannend, welcher noch mehr von der Technologie bestimmt wurde als heute.

Während meinen Nachforschungen bezüglich der grafischen Veränderungen im Web, gelange ich unweigerlich an den Ursprung der meisten heutigen GUIs. Obwohl das GUI grundsätzlich vom Webdesign zu unterscheiden ist, ist es für mich zum einen wichtig, die Ursprünge dessen zu erkunden, was uns heutzutage die Gestaltung im Web überhaupt ermöglicht. Zum anderen ist für mich der damalige Umgang mit gestalterischen Elementen spannend, welcher noch mehr von der Technologie bestimmt wurde als heute.

Die Entwicklung des Konzepts der GUIs wird üblicherweise dem Forschungszentrum Xerox Palo Alto Research Center (Xerox PARC) zugeschrieben. Das ist zwar grundsätzlich richtig, jedoch kann diese Entwicklung nicht gänzlich isoliert betrachtet werden – ihr gingen jahrzehntelange Forschung voraus.

Sketchpad und Spacewar! als Inspiration für Doug Engelbart

Frühe interaktive, grafische Anwendungen wie Ivan Sutherlands »Sketchpad« (1962) oder das von Steve Russell am MIT entwickelte Spiel »Spacewar!« (1962) waren Teil dieser Evolution. Vor allem Sketchpad soll Doug Engelbart in seiner Arbeit inspiriert haben,1 welcher erst 1968 das oN-Line System (NLS) demonstrierte. Das NLS unterstütze dabei schon viele Eigenschaften moderner Computer wie beispielsweise Bitmap-Grafiken, Videokonferenzen, Textverarbeitung oder die kollaborative Bearbeitung von Dokumenten in Echtzeit. Des weiteren erinnert die Benutzung der von ihm erfundenen Maus sowie die Verwendung von Fenstern an heutige Verhältnisse.2

Sketchpad Ivan Sutherland
Der Erfinder Ivan Edward Sutherland bedient sein Programm Sketchpad, welches 1962 innerhalb seiner Dissertation entstanden ist. Sketchpad gilt als erstes Programm mit grafischer Benutzeroberfläche. Mithilfe eines Lichtgriffels, einem Vorläufer der Maus als Eingabegerät, konnte direkt auf dem Bildschirm gezeichnet werden.II
In der Zusammenfassung in einer seiner Schriften heißt es: »Es wurde verwendet, um elektrische, mechanische, wissenschaftliche, mathematische und animierte Zeichnungen zu zeichnen«3.
Spacewar! von Steve Russell
Steve Russells Erfindung »Spacewar!« auf dem PDP-1, welches als eines der ersten grafischen Computerspiele gilt und 1962 fertiggestellt wurde. Auch hier wird der Lichtgriffel als Eingabegerät genutzt.III

Xerox Alto mit dem WIMP Interface

Ein interessanter Verlauf ist der, dass – durch die Reduzierung staatlicher Finanzierungen – viele von Engelbarts Team zum neu gegründeten Xerox PARC wechselten. Dort wurde 1973 mit dem Xerox Alto der erste wirkliche Computer mit einer grafischen Benutzeroberfläche fertiggestellt. Das grafische Konzept orientierte sich dabei an bekannten Mustern, weshalb der 2D-Bildschirm als Oberfläche eines Schreibtisches dargestellt wurde. Innerhalb von einzelnen Rahmen wurden die Programme angezeigt, welche wir heute als Fenster bzw. auch im deutschen als windows kennen. Aus der realen Welt wurden weitere Hilfsmittel wie ein Kalkulator oder die Uhr übernommen, welche frei platzierbar waren. Diese Metapher wird auch »Schreibtisch-Metapher« genannt.4 Bis heute werden Metaphern dieser Art genutzt – noch immer verwenden wir einen sehr abstrahierten Schreibtisch mit Ordnern oder einem Papierkorb. Beides war in dieser Version jedoch noch nicht vorhanden.

Das Alto Team verwendete für seine Gestaltung Windows, Icons, Menüs sowie Zeiger (Pointer). Diese Art wird als WIMP Interface bezeichnet und ist bis heute weitestgehend in Verwendung. Zudem bot Alto wiederverwendbare, grafische Bausteine wie Buttons, Chechboxen oder Tabs an, aus denen GUI-Anwendungen entwickelt werden konnten. Auch sie waren an Objekte der realen Welt angelehnt.5

Grafische Benutzeroberfläche des Xerox Alto
Das Dynabook, entwickelt von Alan Kay, gilt als konzeptioneller Vorläufer des Xerox Alto. Die Grafik zeigt die grafische Benutzeroberfläche des Xerox Alto, welche – dem Bildschirm entsprechend – vertikal statt horizontal ist. Die Grafik zeigt, dass das GUI bereits aus einzelnen, sich überlappenden Fenstern sowie Symbolen bestand. Alan Kay und sein Team entwickelten als Softwareumgebung die objekt-orientierte Programmiersprache SmallTalk. Um mit Dokumenten, Anwendungen und Co. interagieren zu können, konnten Symbole, Dialogfelder und Dropdown-Menüs angeklickt werden.IV

Xerox Star – Cut, Copy, Paste

Vom Xerox Alto gab es nur 2000 Exemplare, mit denen intern oder an Universitäts-Laboren gearbeitet wurde. Sie wurden nie kommerziell verkauft und 1981 kam die Folgeversion Xerox Star mit verbesserter Hard- und Software auf den Markt. Bei dieser Version wurde die Schreibtisch-Metapher weiter ausgereizt, so dass Dateien wie Papier aussahen und in Ordnern oder virtuellen Aktenschränken verstaut werden konnten.6 Auch weitere Funktionen, die wir heute verwenden, wurden mit dem Xerox Star eingeführt. Es sollte die Möglichkeit bestehen, Veränderungen unsichtbar zu machen, was mit Cut, Copy und Paste gelang. Die Idee dahinter war zudem, dass ausgedruckte Dokumente ein perfektes Abbild realer Versionen sein sollten. Das wurde »What-You-See-Is-What-You-Get« (WYSIWYG) genannt7 und ist bis heute ein weit verbreiteter Terminus.

Grafische Benutzeroberfläche des Xerox Star
Grafische Benutzeroberfläche des Xerox StarV

Im folgenden Verlauf möchte ich mich zwar weiterhin mit der Entwicklung grafischer Benutzeroberflächen beschäftigen und etwas detaillierter auf die Interfaces selbst eingehen. Insgesamt wird die Beobachtung aber eher oberflächlich bleiben, da mein Fokus sehr klar auf der Evolution im Web selbst liegt.

Quellen
  1. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:01:58–00:02:36, abgerufen am 12.1.2018.
  2. Vgl. Ebd., TC: 00:02:36–00:02:53.
  3. Sutherland, Ivan Edward: »Sketchpad: A man-machine graphical communication system«, Stand: September 2003, URL: http://www.cl.cam.ac.uk/techreports/UCAM-CL-TR-574.html, abgerufen am 12.1.2018.
  4. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:03:03–00:04:36, abgerufen am 12.1.2018.
  5. Vgl. Ebd.
  6. Vgl. Ebd., TC: 00:06:30–00:07:00.
  7. Vgl. Ebd., TC: 00:07:05–00:07:48.
Abbildungen
  1. Titelbild: Hicks, Michael: »Xerox PARC Alto with mouse and chorded keyset.«, Stand: 3.11.2013, via Wikimedia Commons, abgerufen am 13.1.2018, Lizenz: CC BY 2.0.
  2. Von Kerry Rodden gescanntes Originalfoto von Ivan Sutherland: »Sketchpad Dissertation: Ivan Sutherland operating the Sketchpad system.«, Stand: 1.1.1963, via Wikimedia Commons, abgerufen am 13.1.2018, Lizenz: CC BY-SA 3.0.
  3. Ito, Joi: »Spacewar! auf einer PDP-1 des Computer History Museums.«, Stand: 12.5.2007, via Wikimedia Commons, abgerufen am 13.1.2018, Lizenz: CC BY 2.0.
  4. parc – A Xerox Company: »Smalltalk GUI«, URL: https://www.parc.com/newsroom/media-library.html, abgerufen am 13.1.2018.
  5. Baecker, Ronald M.; Buxton, William; Greenberg, Saul; Grudin, Jonathan: »Reading in Human-computer Interaction: Toward the Year 2000«, Burlington (MA) 1995, S. 57.

Hyperland: Durch Micons ans Ziel

Der Dokumentarfilm (oder die Fantasy-Dokumentation) »Hyperland« aus dem Jahr 1990 wurde von Douglas Adams geschrieben und von Max Whitby produziert. In dem 50-minütigen Film geht es unter anderem um interaktives Multimedia sowie andere Technologien wie z.B. einen VR-Helm. Er zeigt dabei vorstellbare Ansätze für ein Hypermedium.

Der Dokumentarfilm (oder die Fantasy-Dokumentation1) »Hyperland« aus dem Jahr 1990 wurde von Douglas Adams geschrieben und von Max Whitby produziert. In dem 50-minütigen Film geht es unter anderem um interaktives Multimedia sowie andere Technologien wie z.B. einen VR-Helm. Er zeigt dabei vorstellbare Ansätze für ein Hypermedium.

Der Software-Agent stellt sich vor

Der Hauptdarsteller Douglas Adams schläft vor dem Fernseher ein und trifft in seinem Traum auf Tom Baker – die Personifizierung eines Software-Agenten. Mit der Frage, ob Adams gelangweilt vom linearen, nicht-interaktiven Fernsehen ist, tritt er mit Adams in Kontakt. Da jener aber überfordert mit dieser neuen Form der Kommunikation ist, fordert ihn der Agent auf, mit ihm zu interagieren. Baker beschreibt sich als eine Simulation, eine künstliche und komplett anpassbare Persönlichkeit, die nur als Anwendung in seinem Computer existiert.
Optisch an einen Butler angelehnt, präsentiert er sich dabei als selbstloser Assistent, der jederzeit für jede Art von Arbeit bereit ist. Er könne ihm sofortigen Zugang zu jedem Stück Information, das digital irgendwo auf der Welt gespeichert ist, ermöglichen: Jedes Bild, jeder Film, jeder Sound, jedes Buch, jede Statistik, jeder Fakt. Jede Verbindung zwischen allem, was er sich nur vorstellen kann.2

Hyperland | Konfigurationsoberfläche
Konfigurationsoberfläche für den Software-Agenten Tom BakerII

Als nächstes stellt der Agent die Konfigurationsoberfläche vor, von wo aus Adams alle Einstellungen vornehmen kann. Über eine grafische Benutzeroberfläche hat man die Wahl, wie der Assistent sprechen soll – ob forsch oder freundlich oder mit welchem Akzent –, was er an hat oder welche Spezies er sein soll.3 Es wird suggeriert, dass der Nutzer die komplette Kontrolle besitzt und alles erdenkliche auch möglich ist.
Bei der Frage, welchen Namen diese Software hat, nennt Tom Baker eine ganze Liste: Dynabook, Hyperspace, Cyberia, Infinite Virtual Address Space, Intelligent TV, Interactive Television, Interactive Multimedia oder Hypertext.4

Anlehnung an ein Hypermedium

Hyperland ist in seinem Aufbau selbst an ein Hypermedium angelehnt. So klickt sich Adams mithilfe seines Agenten über sogenannte Micons – ein Kunstwort aus Moving und Icons – durch den Informationsraum. Die geloopten Micons stehen dabei für eine Idee, ein Konzept oder ein Stück Information in irgendeiner Form.5
Neben diversen Beispielen interaktiver Systeme stellt Tom Baker Auszüge der historischen Entwicklung vor. So erwähnt er Vannevar Bushs Memex, Ted Nelsons Hypertext-Idee, die Gründung des MIT Media Labs und des Multimedia Labs, sowie Robert Abel,6 welcher als Pionier der Computeranimation und visueller Effekte7 oder sogar als Vater interaktiver Erfahrungen gilt.

Adams gelangt dabei zusammen mit Baker immer tiefer in die Informationssphäre, was am Beispiel des Atlantic Monthly, in dem Vannevar Bush seinen berühmten Essay »As We May Think« veröffentlichte, demonstriert wird. Douglas Adams wählt naheliegenderweise den Atlantik als nächstes Ziel. Hierüber gelangen sie zur Ökologie, Ozeanografie, Schifffahrt, Literatur und zu einem Live Feed. Der Live Feed zeigt als Quellen die Labrador-Basis und den Azoren-Gibraltar-Rücken. Auf Nachfrage, ob das wirklich live wäre, gesteht Baker ein, dass die Bilder 10 Sekunden Verzögerung hätten, was also live wäre.
Als weiteren »Tiefgang« wird die Sparte Literatur vorgestellt, welche passend zum Atlantik, assoziative Verknüpfungen zu Melville, Conrad, Hemingway, Coloridge, CS Forrester oder »Mehr« zeigt. Texte werden dabei parallel vorgelesen, da die Autoren scheinbar über Wasser schreiben.8

Im weiteren Verlauf werden verschiedene Systeme vorgestellt, so z. B. die interaktive Anwendung »Life Story – Demonstration Prototype« des MIT Labs. Auf den Film »Life Story« zugeschnitten, können beispielsweise spezielle Inhalte ausgewählt oder Transkriptionen abgerufen werden. Das Team bestand aus Steve Gano, Kristee Kreitman, Kristina Hooper, Mike Naimark und Fabrice Florin. Letzterer spricht im Interview davon, dass das interessante an Multimedia die Tatsache ist, dass man viele Stories zusammenführen kann. Es gibt nicht nur eine, sondern eine Verflechtung vieler. Diese Vielzahl macht aus seiner Sicht den Unterschied, so dass man von einer zur anderen wandert und den Themenkomplex aus unterschiedlichsten Blickwinkeln betrachten und miteinander vergleichen kann.9

Resümee

Für meine Nachforschungen hat der Film inhaltlich leider keinen großen Mehrwert. Zum einen liebe ich jedoch die Art und Weise, wie er umgesetzt ist. Zum anderen faszinieren mich die damaligen Ansichten, welche einerseits sehr zukunftsweisend wirken, andererseits aber sicher genau am Geist der Zeit liegen. Mitten im Aufbruch und längst auf dem Weg in ein neues Zeitalter.

Quellen
  1. Vgl. »Hyperland« in: »Wikipedia, the free encyclopedia«, Stand: 7.3.2017, URL: https://en.wikipedia.org/wiki/Hyperland, abgerufen am 6.12.2017.
  2. Vgl. Whitby, Max; geschrieben von: Adams, Douglas: »Hyperland«, Dokumentation, 50 Minuten, Vereinigtes Königreich 1990, TC: 00:03:17–00:05:14.
  3. Vgl. Ebd., TC: 00:05:14–00:06:18.
  4. Vgl. Ebd., TC: 00:06:32–00:06:40.
  5. Vgl. Ebd., TC: 00:07:20–00:08:10.
  6. Vgl. Ebd., TC: 00:06:40–00:07:20.
  7. Vgl. »Robert Abel (animator)« in: »Wikipedia, the free encyclopedia«, Stand: 28.8.2017, URL: https://en.wikipedia.org/wiki/Robert_Abel_(animator), abgerufen am 6.12.2017.
  8. Vgl. Whitby, Max; geschrieben von: Adams, Douglas: »Hyperland«, Dokumentation, 50 Minuten, Vereinigtes Königreich 1990, TC: 00:12:0–00:14:20.
  9. Vgl. Ebd., TC: 00:31:32–00:32:53.
Abbildungen
  1. Titelbild: Eigener Screenshot; Whitby, Max; geschrieben von: Adams, Douglas; mprove: »Hyperland‹«, Dokumentation, 50 Minuten, Vereinigtes Königreich 1990, URL: https://vimeo.com/72501076, TC: 00:07:27, abgerufen am 6.12.2017.
  2. Vgl. Ebd., TC: 00:06:14.

In Pieces: Hinter den Kulissen

Bereits Mitte letzten Jahres habe ich das Projekt »In Pieces« vorgestellt. Seitdem möchte ich mich etwas näher mit dem technischen Hintergrund auseinandersetzen, da mich das Projekt nachhaltend begeistert hat und ich es sehr interessant finde, dass es basierend auf CSS umgesetzt wurde.

Bereits Mitte letztens Jahres habe ich die interaktive Ausstellung »In Pieces« von Bryan James vorgestellt. Damals hatte ich fälschlicherweise noch den Titel »Species in pieces« verwendet.
Seitdem möchte ich mich etwas näher mit dem technischen Hintergrund auseinandersetzen, da mich das Projekt nachhaltig begeistert hat und ich es sehr interessant finde, dass es basierend auf CSS umgesetzt wurde.

Neben der Dokumentation, die auf der Projektseite selbst zu finden ist, bin ich auf »The Making Of ›In Pieces‹: Designing an Interactive Exhibition With CSS Clip Paths« auf Smashing Magazine gestoßen. Hier erklärt Bryan James ausführlich seine Vorgehensweise und auf welche Probleme er während des Prozesses gestoßen ist. Da die Dokumentation sowie das Making Of sehr detailliert sind, möchte ich den technischen Hintergrund nicht einfach wiedergeben, sondern lediglich die für mich spannenden Punkte herausgreifen.

Die Outlines des Pfeilgiftfrosches in Illustrator
Die Outlines des Pfeilgiftfrosches in IllustratorI

Zunächst finde ich es erstaunlich, dass die Polygone aus denen die Tiere zusammengesetzt sind mit der CSS-Eigenschaft clip-path generiert wurden. Ich bin mehr Designerin als Entwicklerin, so dass mir das breit gefächerte Verständnis fehlt. Jedoch war meine Vermutung die, dass mit SVG-Grafiken gearbeitet wurde, die dann via Code verändert und bewegt werden. Zur Erstellung der Formen stellt Bryan James das Tool Clippy » vor. Mit dieser Browseranwendung können eigene sowie vorgefertigte Masken ausgewählt werden. Der dazugehörige Code erscheint dabei direkt am unteren Rand des Browsers. Schade finde ich, dass man den Code nicht direkt im Browser ändern kann, um die erstellte Form selbst noch einmal im Detail zu ändern. Zwar ist ein klickbares Logo von Codepen zu sehen, dessen Sinn erschließt sich mir aber leider nicht ganz, da sich nichts ändert oder öffnet. Davon abgesehen, ist es aber ein einfaches, schönes Tool, um visuell die Formen zu erstellen. Den Code kann man nachträglich immerhin selbst ändern, so dass ich das nicht als sehr großen Nachteil empfinde.

Als weitere spannende Lösung stellt James eine Funktion vor, die ermöglicht die prozentualen Werte eines Punktes auszulesen. Er nutzt eine PNG-Datei als Unterstützung und durch einen Klick wird ein Fenster mit den Daten des jeweiligen Punkts zum Kopieren ausgegeben. Die Funktion ist im Making Of zu finden.

Aus grafischer bzw. konzeptioneller Sicht finde ich es zudem überraschend, dass die 30 Tiere jeweils aus etwa 30 Polygonen bestehen. Das war mir im Vorfeld nicht bewusst bzw. habe ich nicht darauf geachtet.

Eine weitere bemerkenswerte Herangehensweise sehe ich in der Maskierung von Bildern mit Zahlen durch die Polygone als Hilfestellung. Eine simple Methode, um die Ränder der Formen hervorzuheben, um sie anschließend zueinander passend zu verändern. So können feine Linien vermieden werden, die zwischen den Gebilden entstehen, wenn sie exakt aufeinander liegen.

Visuell ansprechend finde ich außerdem den von ihm verwendeten und erwähnten Schimmer-Effekt. Generell bin ich kein Fan von Schimmern, Schatten oder beispielsweise Verläufen. Doch der Einsatz im Web kann bei dosierter Anwendung sehr reizvoll sein. Im Vergleichsbild seiner Grafiken sieht man deutlich, dass sie durch den Schimmer-Effekt sehr viel hochwertiger wirken.

Schlussendlich finde ich es großartig, dass Bryan James das Projekt und den Prozess so ausführlich dokumentiert. Einen Einblick in die Arbeitsweise und die Problemlösungen machen deutlich, wie das große Ganze Schritt für Schritt und Hürde für Hürde gewachsen ist. Dass die Arbeit beinahe wegen zu großer Probleme beendet wurde, motiviert zudem sich an mancher Stelle weiter durchzubeißen. Denn das Ergebnis finde ich nach wie vor so imposant, dass es Mut macht dem ein oder anderen Hindernis zu trotzen. Zudem inspiriert mich die interaktive Ausstellung so sehr, dass ich mich nun mit mehr technischem Verständnis, selbst an einer erstmaligen Gestaltung durch Polygone versuchen möchte.

Abbildungen
  1. James, Bryan: »The Making Of ›In Pieces‹: Designing an Interactive Exhibition With CSS Clip Paths«, Stand: 2.6.2015, URL: https://www.smashingmagazine.com/2015/06/the-making-of-in-pieces/, abgerufen am 2.3.2017.

Präsentation IV

In meiner Präsentation stelle ich nicht nur das 2. Semester vor, sondern gebe auch einen oberflächlichen Überblick des 1. Semesters. In diesem Beitrag verweise ich auf die einzelnen Themen und Projekte.

In meiner Präsentation stelle ich nicht nur das 2. Semester vor, sondern gebe auch einen oberflächlichen Überblick des 1. Semesters. In diesem Beitrag verweise ich auf die einzelnen Themen und Projekte. Bei Bezugnahme auf Autoren mache ich hier keine Quellenangaben. Die Quellen sind im jeweiligen Beitrag angegeben.

Analyse grafischer Veränderungen

Im 1. Semester hatte ich im Großen und Ganzen zwei Schwerpunkte. Zum einen die Analyse der grafischen Veränderungen von Webseiten seit den 90er Jahren. Basierend auf Screenshots habe ich dabei die verändernden Text-Bild-Verhältnisse, sowie Interaktionen untersucht.
Das ist dahingehend sehr spannend, dass sich das Web und die Gestaltung durch neue technologische Möglichkeiten verändert haben, aber auch durch die Gesellschaft bzw. durch deren Nutzung und Ansprüchen stark beeinflusst wurden.
Web-Analyse: google.de seit 2001 »

Veränderte Internetnutzung

Mit der Nutzung des Internets beschäftigen sich auch die ARD-ZDF-Onlinestudien, mit denen ich mich auseinandergesetzt habe. Die Umfragen gibt es seit ca. 15 Jahren.
Nutzung von Bewegtbild (ARD/ZDF-Onlinestudie) »
Die Nutzung des Internets unterwegs (ARD/ZDF-Onlinestudie) »

Die Studien sind wiederum wichtig für meinen 2. Schwerpunkt, in dem es um Erzählformen geht bzw. um die Fragestellungen, welche neuen Erzählformen durch neue Medien entstehen können.

Netzkunst

Eine Erzählform, die oft nicht als solche wahrgenommen wird, ich aber sehr spannend finde, ist die Netzkunst. Aus meiner Sicht besitzt sie eine spezielle Ästhetik und arbeitet sehr mit dem Medium selbst. Es wird nicht einfach als zu füllender Platz missbraucht, sondern das Medium und die Technik selbst werden zum Teil der Erzählung gemacht. So z. B. die Frames bei Olia Lialinas »My boyfriend came back from war!«
Olia Lialinas »My boyfriend came back from the war!« »

Zusätzlich finde ich Künstler spannend, die im Netz mit dem Netz arbeiten wie z. B. Addie Wagenknecht. Sie hat generell kritische Arbeiten und eine Arbeit ist beispielsweise ein Diskurs zwischen webbasierten Erfahrungen (lolcatz, memes, gifs) und historisch geschlossenen Systemen, welche die physische Welt regieren. Das Internet ist nach ihr demokratischer Natur, aber kein demokratisches Medium. Sie stellt zudem fest, dass wir mehr auf die Bildschirme als aus unseren Fenstern schauen.
Von Dildodrohnen und lolzcat »

Trans- und crossmediale Erzählungen

Des Weiteren habe ich mich mit trans- und crossmedialen Erzählungen beschäftigt. Darunter auch »about:kate«, welche mit user-generated content und 2nd-Screen-Anwendungen gearbeitet hat.
About:Kate – »Wann haben Sie bemerkt, dass Sie nicht mehr wissen, wer Sie sind?« »

Film und Game

Mit »Fort McMoney« habe ich mich im Bereich Dokumentarspiel auseinandergesetzt. Es enthält viele Cut scenes, spielerisch erlangt man hier neues Wissen. Generell ist Gamification ein wichtiges Thema, denn das Spiel wird als neues Leitmedium angesehen.
Als Erzählform finde ich es an sich spannend, jedoch hat nicht jeder Interesse sich mühevoll durch einen Film oder das Spiel zu spielen.
Das Doku-Game »Fort MyMoney« von David Dufrense »

In Bezug auf die Kombination Film-Game habe ich eine Ausstellung im Filmmuseum Frankfurt besucht: »Film und Games. Ein Wechselspiel«, die genau diesen Aspekt beleuchtet. Schon Ende der 80er beeinflussen sich Game und Film gegenseitig, heutzutage verschmelzen die Medien noch mehr.
»Film und Games. Ein Wechselspiel.« im Filmmuseum Frankfurt

Neben dieser temporären Ausstellung im Filmmuseum, halte ich die allgemeine für sehr interessant. Vor allem mit Blick auf Geräte zur Wiedergabe von Bildern oder für die Erzeugung von Bewegtbildern. Teilweise erinnern sie an heutige Geräte. Generell hatte ich mich bereits mit Augmented und Virtual Reality beschäftigt. Hier hatte ich die Überlegung, ob nicht sogar eine Transformation aus dem Digitalen ins Analoge zu schaffen ist.
Mechanische GIF: Das Giphoscope »

Natürliche Art der Erzählung

Am Ende des 1. Semesters war meine Erkenntnis, dass sich alles Richtung »natürliche Art der Erzählung« entwickelt. Ähnlich wie vor der Schrift als alles noch dynamischer war. Dazu habe ich Parameter aufgestellt, welche solche Erzählungen erfüllen müssten:
Rückbesinnung auf eine natürliche Art der Erzählung »

Projekte: Eye-Tracking-Demo und Giphy-Experiment

In Bezug auf transparente Schnittstellen, entwickelte ich mit zwei Medientechnikern in einer sehr kurzen Zeit eine Eye-Tracking-Demo. Der einzige Anspruch war zu zeigen, was möglich ist. Das Thema »Mystery« war dabei nicht unbedingt meins, jedoch fand ich es spannend, an so einem Projekt mitzuarbeiten. Die großen Fragen waren, was geht und was nicht, was ist grafisch umsetzbar und wo sind die Grenzen.
Das verlassene Haus »

Des Weiteren habe ich mein Giphy-Experiment vorgestellt:
Erstes Experiment mit der giphy-Bibliothek »

Eine weitere Projektidee ist eine Erzählung zu entwickeln, die automatisch bebildert wird. Das widerspricht Byung Chul Hans These, dass Wissen narrativ und Informationen additiv sind. Von daher ist es aus meiner Sicht grundsätzlich nicht möglich, Narrationen automatisiert aus Daten zu generieren. Jedoch ist meine Überlegung die, eine Narration mit genauem Rahmen und exakten Parametern für Daten zu schaffen, um sich einer automatisch bebilderten Erzählung anzunähern.

Eine weitere Idee, die aus dem Giphy-Experiment entstanden ist, ist eine personalisierte Bildsprache zu entwickeln. Dabei müsste der große Datenpool auf dem eigenen Rechner genau getaggt und beschrieben oder zukünftig per Bilderkennung analysiert werden. Die eigene Sprache wird bei dieser Idee in Bilder übersetzt.

Loop-Erzählungen

Eine Loop-Erzählung mithilfe von giphy z. B. als Rauminstallation zu erarbeiten wäre ein weiterer Ansatz.
Dieser Ansatz ist meiner These aus dem 1. Semester, nämlich dass wir durch die Schrift sequentiell denken, sehr nahe. Wir sind als Europäer im Gegensatz zu orientalischen Ländern sehr linkshemisphärisch geprägt. Insgesamt denken wir sehr in Kausalitäten und alles hat einen zeitlichen Aufbau. McLuhan spricht davon, dass wir zunehmend in einer Welt der Gleichzeitigkeit leben und die Zeit aufgehört hat und der Raum verschwunden ist. Durch Loop-Erzählung wäre die Positionierung aufgelöst – es gäbe keinen klaren Zeitpunkt. Die Geschichte würde sich nach und nach – non-linear – erschließen.
Das globale Dorf – Raum, Zeit und Dynamik
Von Loops und der Hyper-Realität »

Interface und Interaction Design

Momentan sind all diese Ansätze auf Eis gelegt, um mich neu zu orientieren. Insgesamt finde ich nämlich sowohl das Web an sich als auch Medieninstallationen sehr spannend. Es wäre auch eine Kombination beider Medien denkbar.

Daher habe ich mich zunächst wieder darauf konzentriert, Beispiele für Weberzählungen zu finden.
Für das schönste Beispiel halte ich Species in Pieces: Eine interaktive Ausstellung »: Species in Pieces (Projekt) »

Des Weiteren habe ich mich mit Interaction Design beschäftigt. So z. B. mit Conversational User Interfaces, welche teilweise die graphischen Benutzeroberflächen ersetzen sollen. Zudem find ich den Ansatz der emphatischen Interaktion interessant, welcher sich darauf konzentriert, inwiefern Rückmeldungen für den Menschen wichtig und sinnvoll sind. Ein schönes Beispiel fand ich hier das eines Baggerfahrers, der jahrelang Bagger fährt und plötzlich eine Fernbedienung bekommt. Hier muss durch Rückmeldung wieder eine Verbindung zum Material aufgebaut werden.
CUI – Conversational User Interface »
Natural User Interface – Die unsichtbaren Schnittstellen »
Empathische Interaktion »

Medieninstallation

Abschließend stelle ich zwei Installationen von Markus Kison vor. Eine davon ist »Pulse« dessen Zentrum ein Gummiobjekt ist, das auf dessen acht Seiten die Grundemotionen des Menschen darstellt. Die Daten kommen dabei via APIs n Echtzeit aus WordPress-Blogs.
»Pulse« von Markus Kison »
»Touched Echo« von Markus Kison »

Der momentane Stand ist der, dass ich große Motivation habe eine Medieninstallation zu bauen, die in irgendeiner Form auf Echtzeitdaten zurückgreift. Dafür werde ich weiter recherchieren, um genaueres über Technologie und Medienechnik zu erfahren.

Abbildungen
  1. Titelbild: Studio SML: Projekte – Deutsches Filmmuseum Frankfurt, Änderung zum Zweck der Präsentation meiner Recherche: Headline sowie Quellenangabe, abgerufen am 30.1.2016.

»Touched Echo« von Markus Kison

Durch Jakob Behrends Buch »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter« wurde ich auf Markus Kisons Arbeit »Touched Echo« aufmerksam, die sehr spannend und eindrücklich umgesetzt ist.

Durch Jakob Behrends Buch »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter« wurde ich auf Markus Kisons Arbeit »Touched Echo« aufmerksam.

Die Grundlage der Arbeit bilden Soundaufnahmen aus dem Jahr 1945, als deutsche Städte im 2. Weltkrieg nieder gebombt wurden. Das Audiomaterial wird dabei erst übertragen, wenn sich der Besucher mit den Ellenbogen auf ein mit selbstgebauten Schalleitern präpariertes Geländer abstützt und sich mit den Händen die Ohren zuhält. Technisch ist das durch eine Knochenleitung möglich, die für Hörgeräte entwickelt und verwendet wird. Wie Kison auf seiner Projektseite beschreibt, nimmt der Besucher dadurch eine natürliche Haltung ein, die die Menschen wohl auch damals unter anderem eingenommen haben: Eine gebeugte Haltung mit zugehaltenen Ohren, um sich vor der Lautstärke der Angriffe zu schützen.

Neben der technischen Umsetzung, halte ich das Gesamtkonzept für herausragend. Geschichte wird damit erlebbarer gemacht und der Besucher wird gezwungenermaßen in eine ähnliche – wenn natürlich auch unbedrohte – Situation versetzt. Ohne es selbst ausprobieren zu können, schätze ich, dass die Arbeit einen hohen Grad an Immersion mitbringt und die geschichtliche Auseinandersetzung – im Gegensatz zu ein paar Postern – tatsächlich stattfindet. Des Weiteren beeindruckt mich wie hier Medienkunst und Geschichte miteinander verschmelzen. »Touched Echo« halte ich deshalb im Bereich der digitalen Medienkunst für sehr inspirierend.

Abbildungen
  1. Kison, Markus: »Touched Echo Osnabrueck«, abgerufen am 23.7.2016, Lizenz: CC BY-NC-SA 2.0.

Die Abstufungen von Interaktivität

In »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter« von stellt Jakob Behrends die Abstufungen von Interaktivität vor, die er von Goertz (2004) zitiert.

In »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter« von stellt Jakob Behrends die Abstufungen von Interaktivität vor, die er von Goertz (2004) zitiert.

Medien teilen sich auf in reaktiv, responsiv und interaktiv.
Reaktiv stellt eine sehr schwache Form von Interaktivität dar. So nennt er beispielsweise Fahrgeschäfte im Supermarkt, die auf einen Münzeinwurf reagieren und sich daraufhin in Bewegung setzen. Auf einen Schlüsselreiz folgt lediglich eine klare Aktion. Responsive Medien sind dagegen schon eine Vorstufe interaktiver Medien. So sind das beispielsweise Medien die mittels Sensoren auf die Umwelt reagieren oder Radioregler, die bestimmte Funktionen unterstützen. Der Lautstärke- oder Frequenzregler besitzen dabei feste Funktionen, die von uns nicht abänderbar sind. Als interaktiv oder auch hochgradig interaktiv sieht er Anwendungen, die es ermöglichen »mediale Inhalte zu verändern bzw. zu hinterlegen«. Des Weiteren hält er »Steuerbarkeit von Zeitpunkt, Tempo und Abfolge der Rezeption« für einen wichtigen Faktor. Als multiinteraktiv werden Medien bezeichnet, über die mehrere Nutzer gleichzeitig partizipieren können.1

Obwohl letzteres die Voraussetzung verlangt, dass Medien abänderbar sind, bin ich unschlüssig, ob das tatsächliche Interaktivität bedeutet. Damit habe ich mich in meinem Beitrag »Imitation von Interaktivität« beschäftigt.

Ich möchte der Frage nach Interaktivität weiter auf den Grund gehen, da mir die Definitionen keine ausreichende Antwort auf tatsächliche Interaktivität geben kann. Noch immer hinterfrage ich die Tatsache, dass entweder eine vorgefertigte Reaktion programmiert wurde – und damit meinem Verständnis nach nicht interaktiv ist – oder ohnehin ein Mensch auf der anderen Seite der Leitung sitzt.

Quellen
  1. Vgl. (ganzer Absatz) Behrends, Jakob: »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter«, Stuttgart 2015, S. 23.

Empathische Interaktion

In »The digital turn – Design in the Era of Interactive Technologies« spricht Björn Bertrand in seinem Essay »The Empathetic Interaction« darüber, wie durch Reize eine Verbindung zwischen Mensch und Maschine hergestellt werden kann.

In »The digital turn – Design in the Era of Interactive Technologies« spricht Björn Bertrand in seinem Essay »The Empathic Interaction« darüber, wie durch Reize eine Verbindung zwischen Mensch und Maschine hergestellt werden kann.1

Bertrand nutzt dafür das Beispiel eines langjährigen Kranfahrers, der seine Arbeit mit absoluter Routine erledigt. Jeder Handgriff sitzt, er lenkt den Kran beinahe blind und sein Körper ist mit dem Kran fast schon eins. Sie sind miteinander verbunden.
Auf der anderen Seite nutzt er das Beispiel eines Autofahrers, der wir selbst sein könnten: In einer Kurve klingt das Auto komisch und der Fahrer hält an. Das akustische Signal hat ihn davor gewarnt, dass irgendetwas nicht stimmen kann. Dass irgendetwas nicht »normal« ist, nicht wie sonst in seiner alltäglichen Routine als Autofahrer. In der Routine, in der er eins mit dem Auto ist und jede Abweichung – durch welchen Reiz auch immer – bemerkt.

Im nächsten Schritt erhält der Kranfahrer eine Fernsteuerung für seinen Kran. Er kann frei wählen, von welcher Position er ihn steuert, doch sowohl die neue Position als auch die andere Steuerung führen dazu, dass eine körperliche Distanz aufgebaut wird. Das alltägliche Gefühl der Verbundenheit ist verflogen, da er das Fahrzeug nun völlig anders steuert und die körperliche Verbindung nicht im gleichen Maß wie bisher vorhanden ist. Um diese Distanz wieder abzubauen, kann in der Fernsteuerung beispielsweise eine Vibration eingebaut werden – eine taktile Rückmeldung. Zwar bedeutet das noch immer, dass es eine Zeit der Umgewöhnung benötigt, doch der Körper lernt diese neue Routine und er kann sich wieder zunehmend in den Kran einfühlen. Das Autobeispiel zeigt, dass nicht nur taktile Reize in Frage kommen. In diesem Fall waren es akustische Warnsignale und auch andere Reize wären möglich. Bertrand schreibt, dass Empathie in der Regel aus einem komplexen Zustand der Stimulation entsteht. Durch eine empathische Interaktion kann also die Distanz zwischen Mensch und Maschine abgebaut werden, ein »Gefühl dafür« kann entstehen. Und wie Bertrand schon andeutet, dürfen wir nicht vergessen, dass der Mensch mit seinem Körper an die Umwelt gebunden ist.2

Veräußerung des menschlichen Körpers

An dieser Stelle möchte ich Marshall McLuhans Interpretation des Narziss einfließen lassen, der sein eigenes Spiegelbild im Wasser sieht. Laut McLuhan handelt die Sage nicht davon, dass er sich in sein Spiegelbild verliebte. Sie handelt primär davon, dass »Menschen sofort von jeder Ausweitung ihrer selbst in einem andern Stoff als dem menschlichen fasziniert sind«3. Dies betrifft sowohl Medien als auch beispielsweise Werkzeuge. Demnach ist eine abgebaute Distanz zu dem jeweiligen Stoff enorm wichtig, um eine tatsächliche Verbindung zwischen ihm und dem Körper herzustellen.

Rückmeldung im Web

Ich halte Bertrands Ansichten für sehr entscheidend beim Interaction als auch Interface Design. Zwar scheint es zum einen selbsterklärend und zum anderen selbstverständlich. Doch ich denke, dass das ein nicht zu unterschätzender Ansatz ist, der nach wie vor viel zu oft unbeachtet bleibt. Im Web erhält man visuelle Rückmeldungen durch z. B. Farbe beim MouseOver oder textliche Rückmeldungen beim Absenden eines Formulars. Obwohl beides meiner Ansicht nach völlig selbstverständliche Mechanismen sind, die zum Standard geworden sind, findet man noch immer unzählige Webseiten, die diese Kleinigkeiten nicht beachten.
Seit wenigen Jahren sieht man durch scroll activated animations den eigenen »Scroll-Einfluss«: Objekte bewegen sich dabei abgestimmt auf das Scroll-Verhalten. Scrollt man nach unten, kann sich beispielsweise ein Objekt aufbauen, dass sich wieder abbaut, wenn man zurück scrollt. Teilweise mag das als Spielerei und Effekthascherei abgestempelt werden, nichtsdestotrotz machen Seiten dieser Art unheimlich viel Spaß. Zusätzlich sehe ich darin eine hervorragende Möglichkeit die Distanz abzubauen und den eigenen Körper, die eigenen Tätigkeiten im Web abzubilden. Macht es gerade deshalb so viel Spaß?

Stimulation in virtuellen Realitäten

Ich denke in jedem Bereich ist bezüglich der empathischen Interaktion viel Raum nach oben. Zwar sind die Beispiele Bertrands eher im Bereich Arbeit und alltäglicher Routine angesiedelt. Ich denke dabei eher an graphische Benutzeroberflächen oder Welten, die via Virtual Reality betreten werden können. Vor allem bei letzterem darf nicht vergessen werden, dass der Körper in die Umwelt eingebunden ist. Meine ersten Gehversuche mit der Google Cardboard (Erste Gehversuche mit der Google Cardboard ») habe ich im privaten Raum gemacht. Ich habe dabei auf Kopfhörer verzichtet, so dass lediglich der visuelle Reiz vollständig übrig blieb, der Sound kam dabei aus den Handy-Boxen. Obwohl ich nur auf visueller Ebene in die virtuelle Realität eingetaucht bin, war die Immersion immens und es war schwierig sich im realen Raum zu orientieren. In anderen Beispielen, wie im Labor des Fachbereichs Medien der Hochschule Düsseldorf, werden noch zusätzliche Reize, wie beispielsweise ein Ventilator für die Windsimulation eingesetzt.
Durch Stimulation wie diese werden aus meiner Sicht Raum und Zeit aufgelöst, der Körper geht in der virtuellen Realität auf. Ich finde es dabei immer wieder spannend, wie wenig Stimulation nötig ist, um das Gehirn auszutricksen. Zwar bietet Virtual Reality momentan gerade diesen Anreiz in einer virtuellen Realität abzutauchen und sich aufzulösen. Langfristig stellt sich mir jedoch die Frage, wie es möglich ist, seinen Körper und die Umgebung so gut als möglich einzubinden, sprich eine Verbindung herzustellen. Vor allem bin ich mir zur Zeit unsicher, ob Reize wie der Wind dafür sorgen, dass man sich noch mehr in der virtuellen Umgebung auflöst oder ob man gerade dadurch seinen Körper noch mehr in einer Verbindung spürt. Beides kann viel Spaß bereiten, aber unabhängig davon wie ich beide Möglichkeiten bewerte, halte ich es für essentiell sich dieser Wege bewusst zu sein.

Den Beitrag und die Erkenntnisse von Bertrand halte ich bisher für einen der spannendsten Ansätze für mein Master-Thema. Sicherlich ließe sich das auch mit der Frage nach Interaktivität, die ich als mögliche neue Richtung festgehalten habe, verbinden.

Quellen
  1. Vgl. Betrand, Björn: »The empathetic Interaction«, in: Junge, Barbara; Eds.: Berzina, Zane; Scheiffele, Walter; Westerveld, Wim; Zwick, Carola, »The digital turn – Design in the Era of Interactive Technologies«, Berlin 2012, S. 138–143.
  2. Vgl. Ebd.
  3. Baltes, Martin; Böhler, Fritz; Höltschl, Rainer; Reuß, Jürgen (Alle Hg.): »Medien verstehen – Der McLuhan-Reader«, Mannheim 1997, S. 120.

Interaktivität im Digitalen

Nach meinem Einzelgespräch mit Professor Dr. Stefan Asmus könnte eine weitere Richtung in meinem Masterthema »Interaktivität im Digitalen sein«. Dieses Thema halte ich zunächst für sehr spannend und hat mich schon vor wenigen Monaten beschäftigt.

Gestern hatte ich ein Einzelgespräch mit Professor Dr. Stefan Asmus bezüglich meines Masterthemas. Während des Gesprächs kristallisierte sich eine mögliche Richtung meines Projekts heraus. Bereits im Februar habe ich mich damit beschäftigt, wie interaktiv Interaktivität tatsächlich ist (Imitation von Interaktivität »). Sämtliche »Dinge« tragen heutzutage den Begriff interaktiv mit sich: Interaktive Erzählung, Serie oder interaktiver Film. Dabei habe ich mir die Frage gestellt, ob der Begriff Interaktivität wirklich bedeutet, dass auf eine Eingabe – unabhängig welcher Art – lediglich eine vordefinierte Ausgabe erfolgt.
Aus diesem Grund könnte eine mögliche neue Richtung »Interaktivität im Digitalen« sein. Hierfür hat mir Stefan Asmus das Buch »Interaktivität: Ein transdisziplinärer Schlüsselbegriff« von Claus Leggewie und Christoph Bieber empfohlen. Des Weiteren steht das Buch »Interreaction – Interaktive Medien und Kommunikation im Raum. Eine Einführung für Gestalter« von Jakob Behrends auf meiner To-Do-Liste.
Wie bereits in meinem vorherigen Beitrag zu diesem Thema erwähnt, gehe ich davon aus, dass erst mit komplexer Künstlicher Intelligenz tatsächliche Interaktivität hergestellt werden kann. Da ein Algorithmus seinen Zustand nicht von alleine ändern kann und das eine Voraussetzung für Interaktivität ist, halte ich jedoch auch das für beinahe ausgeschlossen.
Ich werde mich dem Thema widmen und dann entscheiden, in welche Richtung der Weg tatsächlich weiter führen wird.

For better coffee

»For better Coffee« » verrät fünf essentielle Tipps für besseren Kaffee. Die Seite der finnländischen Freese Coffee Company zeigt parallel zu den Tipps illustrativ den Prozess von der Kaffeebohne bishin zum heißen und duftenden Kaffee. Wie »Kaipo Che!« » wird die Story mit Unterstützung von scroll activated animations erzählt.

»For better Coffee« verrät fünf essentielle Tipps für besseren Kaffee. Die Seite der finnischen Freese Coffee Company zeigt parallel zu den Tipps illustrativ den Prozess von der Kaffeebohne bis hin zum heißen und duftenden Kaffee. Wie »Kaipo Che!« wird die Story mit Unterstützung von scroll activated animations erzählt.

Screenshot »For better Coffee«: Die Bohne wandert Richtung Mahlmaschine
Screenshot »For better Coffee«: Die Bohne wandert Richtung MahlmaschineII
Screenshot »For better Coffee«: Der fertige Kaffee wird ausgegossen
Screenshot »For better Coffee«: Der fertige Kaffee wird ausgegossenIII

Bis zu Regel #1 wandert die ganze Bohne mit durch den Bildschirm, bevor sie vor Regel #2 gemahlen wird. Als Nächstes verschwindet das gemahlene Pulver in einem Filter und wird kurz vor der vierten in einer Kanne aufgebrüht. Der fertige Kaffee fließt beim weiteren Scrollen durch die vierte Regel bis zu der letzten, um direkt in einer Tasse zu landen mit dem Tipp »Drink it fresh«. Jede Regel wird ergänzt durch die Frage »Why is this so important?«, die bei einem Klick auf die Frage in einem überlagerten Bildschirm weiß auf schwarz beantwortet wird.

Screenshot: For better Coffee: Why is this so important?
Screenshot von »For better Coffee«: Why is this so important?IV

Die Website finde ich nicht nur aus dem Grund empfehlenswert, weil ich persönlich Seiten mit scroll activated animations durch die man die Grafik spielerisch beeinflussen kann. Ich halte »For better Coffee« vor allem deshalb für eine empfehlenswerte Erzählung, da sie das Thema an sich sowohl mit der visuell-ästhetischen als auch mit der technologischen Ebene hervorragend verbindet. So einleuchtend wie diese Verbindung zu sein scheint, so selten findet man sie jedoch im World Wide Web.

Abbildungen
  1. Eigene Screenshot; Freese Coffee Company: »For better coffee«, URL: forbetter.coffee/, abgerufen am 29.6.2016.
  2. Ebd.
  3. Ebd.
  4. Ebd.

Species in Pieces: Eine interaktive Ausstellung 

»Species in Pieces« von Bryan James, zeigt gefährdete Tierarten in einer ästhetisch hochwertigen interaktiven Ausstellung.

»Species in Pieces« von Bryan James, welches sich selbst als »interaktive Ausstellung« beschreibt, zeigt gefährdete Tierarten.
Das Löwenäffchen, der goldene Giftfrosch, die Waldeule und 27 andere sind sehr abstrakt durch die Zusammensetzung unterschiedlich eingefärbter Dreiecke dargestellt. Sie besitzen eine, aus meiner Sicht, sehr starke Formsprache und die »Gesamterfahrung« der Seite ist beeindruckend. Sie ist insgesamt sehr reduziert und ästhetisch schön gestaltet. Klassische Hintergrundmusik unterstützt die einzelnen Formen, die sich langsam durch den Raum bewegen, um sich zum jeweiligen Tier zusammenzusetzen. Sie unterstreicht den leichten, fast schon schwerelosen, Eindruck, der einen beinahe meditativ in diesem Projekt versinken lässt.

Species in Pieces | 30. Drill
Dynamischer Zusammenbau | Species in Pieces | 30. DrillII

Weiterführende Informationen

Für jedes Tier sind zusätzlich Informationen bereitgestellt: das Vorkommen, die Art der Gefährdung, statistische Werte, weiterführende Links oder ein Video.

Zusatzinformation | Species in Pieces | 30. DrillII
Zusatzinformation | Species in Pieces | 30. DrillIII
Beispielhaftes Video | Species in Pieces | 30. DrillIII
Beispielhaftes Video | Species in Pieces | 30. DrillIV

CSS-basierte Entwicklung

Neben der Ausstellungs-Erfahrung und der grafisch hochwertigen Darstellung, ist für mich auch die technische Seite interessant und gleichzeitig beeindruckend. Da ich zunächst davon ausging, dass es ein durch WebGL unterstütztes Projekt handelt, überrascht es mich umso mehr, dass es eine rein CSS-basierte Seite ist. Das dokumentiert der Entwickler Bryan James ausführlich auf der Seite.

Dokumentation des ProjektsIV
Dokumentation des ProjektsV

Ich halte »Species in Pieces« für ein großartiges Projekt, in dem Technologie und Design erfolgreich zusammengeführt werden. Sie werten sich wechselseitig auf, anstatt das Gegenüber zu Kompromissen zu zwingen. Das Projekt zeigt mir erneut, dass interaktive Erzählungen im Web auch ohne Einsatz tausend verschiedener Medien funktionieren kann. Zwar setzt Bryan James neben Text und Grafik z. B. auch Videos ein. Diese sind jedoch so dezent verpackt und eingestreut, dass sie sich nicht aufdrängen. Ein Mindestmaß an Information auf jeder Seite sorgt dafür, dass man sich gänzlich auf die inhaltlichen Aspekte fokussieren und konzentrieren kann.

Abschließend habe ich nach diesem Projekt selbst Lust, die grafischen Möglichkeiten mittels CSS weiter auszuloten als bisher. Bisher hat sich der Einsatz meist auf das Bauen von unzähligen Layouts, die Einbindung künstlerischer oder grafischer Arbeiten oder die Entwicklung eines Webprojekts durch den Zusammenbau einzelner medialer Elemente beschränkt. Eine grafische Arbeit entwickelt durch den Code selbst wäre an dieser Stelle eine neue Herausforderung.

Abbildungen
  1. Titelbild: Eigener Screenshot; James, Bryan: »Species in pieces«, URL: www.species-in-pieces.com, abgerufen am 17.6.2016.
  2. Ebd.
  3. Ebd.
  4. Ebd.
  5. Ebd.

Natural User Interfaces – Die unsichtbaren Schnittstellen

Marco Spies erwähnt in seinem Buch »Branded interactions : digitale Markenerlebnisse planen und gestalten« das Natural User Interface (NUI), durch das Eingabegeräte wie z. B. die Maus oder Tastatur überflüssig werden. NUI bezieht sich dabei auf die »Art der Nutzung, nicht auf das Interface selbst.« Welche neuen Möglichkeiten eröffnen sich und welche Potentiale können genutzt werden?

Marco Spies erwähnt in seinem Buch »Branded Interactions: digitale Markenerlebnisse planen und gestalten« das Natural User Interface (NUI), durch das Eingabegeräte wie z. B. die Maus oder Tastatur überflüssig werden. NUI bezieht sich dabei auf die »Art der Nutzung, nicht auf das Interface selbst«1.
Luciano Floridi erwähnt bereits, dass Schnittstellen immer transparenter werden (Erkenntnisse und Eindrücke zu Luciano Floridis Buch»Die 4. Revolution« ») und Spies beschreibt, dass Interfaces nicht automatisch »Natural« sind, wenn z. B. an bekannten Mouse-Interaktions-Mustern festgehalten wird. Des Weiteren empfiehlt er, dass sich Gestalter von bekannten click-and-point Design Pattern frei machen sollten.2

Veränderung der Strukturen digitaler Inhalte

Diese Tatsache bringt viele neue Herausforderungen für den Gestalter mit sich. Auch wenn sich das NUI eher auf die Art und Weise der Interaktion bezieht, stellen sich Fragen inhaltlicher und gestalterischer Natur. Aus meiner Sicht könnten sich sämtliche Strukturen digitaler Inhalte verändern. Steht die Art der Eingabe erstmal fest, sei es beispielsweise via Spracheingabe oder via freier Gesten durch Hardware wie der Microsoft Kinect, müssen sämtliche bisherige Pattern (Interaktionsmöglichkeiten) überdacht werden. Benötigt man auf Webseiten noch Navigationshilfen wie beispielsweise »Zurück-Buttons« oder Breadcrumbs, wenn man sich auch durch Gesten wie beispielsweise Swipen behelfen kann? Benötigt man generell noch eine Navigation wie bisher oder könnte auch hier eine völlig neue Art gefunden werden? Wie sieht eine Suchfunktion aus, die nicht mehr zwingend grafisch sein müsste, sondern ähnlich wie »Google Now« funktionieren könnte?

Verschmelzung der virtuellen und analogen Welt

Ich sehe hier viel Potential, digitale Inhalte noch spezieller auf digitale Medien zuzuschneiden. Viele Inhalte sind bisher nach wie vor der analogen Welt entrissen, so haben beispielsweise eBooks noch immer Seitenzahlen, die aus meiner Sicht völlig überflüssig sind. Andererseits sehe ich noch viel Raum für Annäherungen zwischen der virtuellen und analogen Welt, welche durch Natural User Interfaces bereits enger aneinander rücken. In den Bestrebungen Innovation zu schaffen, sehe ich häufig ein übergeordnetes Ziel: Die Verschmelzung der virtuellen und analogen Welt. Wie können Muster der analogen Welt noch mehr im Virtuellen eingesetzt werden, so dass sie einerseits nicht einfach stupide überführt werden, jedoch bekannte Interaktionsmuster von Menschen abgerufen werden können? Da sich Menschen mit der Technologie verändern und an sie anpassen, stellt sich die weitere Frage, welche Muster es überhaupt wert sind wieder aufgegriffen zu werden und welche man getrost fallen lassen kann.

Natural User Interfaces wird definitiv ein Thema sein, das meinen Master begleiten wird. Hier sehe ich sowohl im technischen als auch im gestalterischen Bereich sehr viel Potential für gestalterische Experimente und Innovationen.

Quellen
  1. Spies, Marco: »Branded interactions: digitale Markenerlebnisse planen und gestalten«, Mainz 2012, S. 223.
  2. Vgl. Ebd.

Interaktives Schenken: Eine kommerzielle Web-Erzählung

Als Beispiel für eine kommerzielle Web-Erzählung habe ich ausgewählt. Der Däne Georg Arthur Jensen war Silberschmied, Designer und Künstler und so findet man auf www.georgjensen.com erstmal eine übliche Produktseite. Auf der Subdomain findet man dagegen ausgewählte Produkte in einer Erzählung präsentiert.

Als Beispiel für eine kommerzielle Web-Erzählung habe ich »gift of giving« ausgewählt. Der Däne Georg Arthur Jensen war Silberschmied, Designer und Künstler und so findet man auf www.georgjensen.com erstmal eine übliche Produktseite.
Auf der Subdomain findet man dagegen ausgewählte Produkte in einer Erzählung präsentiert. Man folgt in einzelnen Filmsequenzen verschiedenen Protagonisten auf einer Feier und kann bei Vier-Augen-Gesprächen auswählen, was dem Gegenüber geschenkt werden soll. Hat man ein Geschenk ausgewählt, folgt die nächste Sequenz, in der die Geschenkübergabe abgespielt wird. Anschließend wird das Produkt am Rande weiter angezeigt, so dass man bei Bedarf durch einen Klick weitere Details einsehen kann.

Screenshot: Gift of giving
Eine beschenkte FrauII

Auch wenn mich persönlich Web-Erzählungen, die rein für das Bewerben von Produkten gedacht sind, grundsätzlich nicht sonderlich interessieren, halte ich die Seite giving.georgjensen.com für gelungen. Die Möglichkeit einzelne Filmsequenzen mit interaktiven Momenten zu mischen, die den Verlauf ändern, finde ich spannend. Vor allem als Produktpräsentation, die nach wie vor sehr häufig langweilig inszeniert sind, halte ich das für einen wichtigen Schritt in die richtige Richtung.

Abbildungen
  1. Titelbild: Eigener Screenshot, Georg Jensen A/S, »gift of giving«, URL: www.giving.georgjensen.com/, abgerufen am 4.5.2016.
  2. Ebd.

Web-Erzählungen mit scroll activated animations

»Kaipo Che!« ist mehr Informationsseite über ein Kite Festival in Goa als eine tatsächliche Web-Erzählung. Dennoch möchte ich es als Beispiel zeigen, da es den Umgang mit den seit 1–2 Jahren häufig verwendeten scroll activated animations zeigt. Dabei werden, wie der Name schon ahnen lässt, Animationen durch das Scrollen beeinflusst.

»Kaipo Che!« ist mehr Informationsseite über ein Kite Festival in Goa als eine tatsächliche Web-Erzählung. Dennoch möchte ich es als Beispiel zeigen, da es den Umgang mit den seit 1–2 Jahren häufig verwendeten scroll activated animations zeigt. Dabei werden, wie der Name schon ahnen lässt, Animationen durch das Scrollen beeinflusst. Die Animationen werden dabei nicht einfach ausgelöst, sondern der Nutzer kann durch die Scrollgeschwindigkeit selbst Einfluss auf die Geschwindigkeit der Animationen nehmen.
Die Website zeigt zunächst das Logo von Kaipo Che!, sowie ein Schiff, das auf dem Wasser schwimmt. Scrollt man nach unten, zerbricht das Schiff durch einen Wal der nach oben springt. So verändert sich das Bild fortlaufend, wenn man weiter nach unten scrollt. Häuser mit fliegenden Drachen zoomen ein und wieder aus, später sieht man Menschen, die die Drachen halten. Des Weiteren erhält man Einblick in die Wohnhäuser, die offen gezeigt werden. Zwischendurch erhält der Nutzer die Information über das Kite Festival mit dem Datum und dem Ort, sowie genauere Informationen am Ende der Seite, die sich auf das Wesentliche konzentrieren.

Eindruck der Website

Grundsätzlich halte ich die Website für eine schöne Idee, ein Kite Festival zu bewerben. Die Illustrationen ergeben ein einheitliches Gesamtbild und es macht Spaß durch die Seite zu scrollen, um zu sehen, was als nächstes passiert. Dennoch ist innerhalb des illustrierten Parts nur eine einzige Information zu finden, nämlich dass es sich um das Goa Kite Festival handelt und wann und wo es stattfindet. Zwar bin ich Fan davon, Dinge nicht zu überladen und nur die nötigsten Informationen aufzunehmen, aber für diese eine Information scheint mir die Seite trotz minimalistischer Grafik etwas zu aufwändig und aufgebläht. Das Projekt zeigt jedoch, wie erwähnt, die scroll activated animations und findet daher einen Platz in meiner Auswahl.

Veranstaltungsseite für das Goa Kite Flying Festival 2016 auf www.kaipoche.co/II
Veranstaltungsseite für das Goa Kite Flying Festival 2016 auf www.kaipoche.coII

Zwischen Usability und User Experience

Die scroll activated animations finden sich zwischenzeitlich in unzähligen Webseiten, um eine spannende interaktive Komponente mit einzubringen. Ich persönlich mag Webseiten mit solchen Animationen sehr, da es Spaß macht, selbst das Bild der Seite zu verändern. Dennoch war bei Kaipo Che! schon bei Google der Hinweis, dass sie leider nicht auf Smartphones und Tablet funktioniert. Hier stellt sich mir die Frage, wie sehr die Usability eingeschränkt werden sollte, nur um eine tolle User Experience zu schaffen. In diesem Fall gibt es eine gute, alternative Lösung: Eine Illustration sowie alle Informationen kurz und knapp aufgelistet.
In anderen Fällen drängt sich die Frage nach Usability und User Experience jedoch auf. Dabei geht es nicht nur um Animationen dieser Art, sondern auch um multimediale Erzählungen oder anderen Seiten, die z. B. durch fehlerhafte Funktionsweise oder lange Ladezeiten zu Frustration beim Nutzer führen kann.
Letztere Fragestellung will ich weiter verfolgen, da ich das für ein wichtiges Thema halte, bei dem auch der Gestalter aufgefordert ist, umsetzbare Lösungen anzubieten.

Abbildungen
  1. Titelbild: Eigener Screenshot, Beard Design, »Kaipoche«, URL: www.kaipoche.co, abgerufen am 26.4.2016.
  2. Eigener Screenshot, Beard Design, »Kaipoche«, URL: www.kaipoche.co, abgerufen am 26.4.2016.

»Do not enter« – Storytelling mit Eye-Tracking

Das gemeinsame Projekt mit zwei Studenten des Bereichs Medientechnik ist nun abgeschlossen. Wie bereits in vorherigen Beiträgen berichtet ging es darum eine Demo zu bauen, die zeigt, welche möglichen Funktionen ein Eye-Tracker bietet.

Das gemeinsame Projekt mit zwei Studenten des Bereichs Medientechnik ist nun abgeschlossen. Wie bereits in vorherigen Beiträgen berichtet ging es darum eine Demo zu bauen, die zeigt, welche möglichen Funktionen ein Eye-Tracker bietet.

Die Reise führt den Nutzer durch ein verlassenes Haus, durch das er via Augen navigieren kann. Unterwegs werden Eye-Tracker-spezifische Möglichkeiten berücksichtigt. So kann z. B. in der Eingangshalle eine Taschenlampe mit den Augen gesteuert werden. An späterer Stelle wie z. B. dem Schlafzimmer mit Spiegel entwischt ein Gespenst, wenn man in den Spiegel schaut oder das Piano im nächsten Raum gibt Töne von sich, wenn man darauf schaut.

Die Reise durch das Haus ist letztendlich keine richtige Story, sondern eine passende Aneinanderreihung von Fotos, die eine einigermaßen einheitliche Welt aufbauen sollen.

Der Prozess

Die Arbeit mit den Medientechnikern war sehr angenehm und gut aufeinander abgestimmt. Man merkt jedoch schnell, an welchen Stellen Probleme zwischen den zwei Disziplinen Medientechnik und Design auftauchen und wo man sich gut abstimmen muss. So ist nicht jedes Design technisch umsetzbar und es müssen natürlich Kompromisse geschlossen werden. Ein Beispiel hierfür ist ein »Zurück-Pfeil«, den ich im Entwurf sowohl kleiner gestaltet als auch an anderer Stelle, näher am Rand, positioniert hatte. Das war jedoch nicht möglich, da der Eye-Tracker auf einen so kleinen Bereich am Rand nicht reagiert hat.


Passwort: eyetracking

Der Abschluss

Abschließend bin ich aus grafischer und konzeptioneller Sicht zwar nicht zufrieden mit dem Genre und Projekt an sich, dennoch war es eine gute Erfahrung in der Zusammenarbeit beider Disziplinen und eine gute Möglichkeit die Technik des Eye-Tracking für meine Arbeit in Betracht zu ziehen. Insgesamt halte ich es für keine Technologie, die eine große Zukunft im Bereich Storytelling haben wird, jedoch könnte es eine Funktion sein, die ähnlich der Webcam standardmäßig im Computer integriert ist.
Zusätzlich muss man natürlich kritisch hinterfragen, wie gut eine Technologie ist, die so sehr auf den reinen Instinkt abzielt. Damit ist es nicht nur möglich gezielt Inhalte auszuwählen. Wenn die Reaktionszeit des Eye-Trackers sehr schnell eingestellt ist, entscheidet der erste instinktive Blick und man ist ihm voll und ganz ausgesetzt.

Abbildungen

Die Bilder sind der Reihenfolge nach im Video zu finden.

1. AUSSENANSICHT
Alle: Lizenzfrei

2. EINGANGSHALLE
Eingangshalle | Zlatko Unger | Persönliche Zustimmung
Änderungen: Farbe, Belichtung , Einbau des Kerzenständers

Kerzenständer | Rod Waddington | CC BY-NC-SA 2.0
Änderungen: Einbau in Eingangshalle, Animation der Flammen, freigestellt

3. FLUR
Flur | stimpy023 (Flickr) | CC BY-NC-ND 2.0
Änderungen: Farbe, Belichtung

4. PIANOZIMMER
Zimmer | Vincent Ferron | CC BY-NC 2.0
Änderungen: Farbe, Belichtung

5. SCHLAFZIMMER
Zimmer | Vincent Ferron | CC BY-NC 2.0
Änderungen: Farbe, Belichtung, Änderung der Türfarbe

6. BILLIARDRAUM
Zimmer | Vincent Ferron | CC BY-NC 2.0
Änderungen: Farbe, Belichtung, Einbau einer animierten Maus

7. FLUR NACH BILLIARDRAUM
Flur | wildhack (Flickr) | CC BY-NC-SA 2.0
Änderungen: Farbe, Belichtung

8. LEERES ZIMMER
Bilderrahmen: Lizenzfrei
Bild im Bilderrahmen | Sarah Ackerman | CC BY 2.0
Änderungen: Farbe, Belichtung, Einbau des Bilderrahmens in den Raum, Einbau des Bildes in den Rahmen, Bild im Rahmen: Einbau eines Portraits

DREI ZIMMER ROSE HALL
Raum 1, Raum 2, Raum 3 | Sarah Ackerman | CC BY 2.0
Änderungen: Farbe, Belichtung, Portraiteinbau (R. 1), Türeinbau (R. 2)

9. KÄSTCHEN
Kästchen | Matthew Tomlinson | CC BY-NC 2.0
Änderungen: Farbe, Belichtung, Einbau einer Postkarte

Das verlassene Haus

Für unser Eye-Tracking-Projekt basteln wir gerade an einem Storyboard und testen die technischen Möglichkeiten des Geräts. In zwei Wochen soll die Demo dann vorgestellt werden.

Für das Eye-Tracking-Projekt (Wieso Eye-Tracking anstatt der Bedienung mit einer Maus oder der Tastatur? ») haben wir uns bereits für das mir ferne Genre »Mystery« entschieden. Genauer möchten wir ein verlassenes Haus entwerfen, durch das man via Eye-Tracking navigieren kann. Grundlage des Projekts sollen dabei Fotografien aus dem Netz sein, die mit der CC0-Lizenz gekennzeichnet sind.

Die Wahl des Genres ist damit begründet, dass hier besondere Eigenheiten des Eye-Trackings verwendet werden können. Für die reine Navigation durch ein Haus ständen genügend Alternativen wie z. B. die Maus zur Verfügung und würden den Einsatz von Eye-Tracking – aus meiner Sicht – nicht rechtfertigen. Viel mehr können damit beispielsweise Szenarien entwickelt werden, in denen ein Objekt reagiert, wenn man darauf schaut oder gerade dann, wenn es außerhalb des Blickes ist und nur durch eine Bewegung im Augenwinkel vermutet werden kann.

Für das Haus entwickele ich momentan ein erstes Storyboard, während die zwei Studenten aus dem Bereich Medientechnik verschiedene technische Möglichkeiten des Eye-Trackers testen. Die besondere Schwierigkeit beim Storyboard ist die Suche nach Fotografien, die natürlich auch die Entwicklung des Verlaufs beeinflussen. Durch die CC0-Lizenzen fällt es schwer ein einheitliches Bild zu schaffen. Die Unterschiede sollen, wenn möglich, durch anschließende Bildbearbeitung abgeschwächt werden.

Für die restliche Bearbeitung haben wir nun noch genau zwei Wochen Zeit bis die Demo vorgestellt werden soll.

Wieso Eye-Tracking anstatt der Bedienung mit einer Maus oder der Tastatur?

Erste Ansätze für das Gemeinschaftsprojekt mit zwei Studenten im Bereich Medientechnik. Welche spezifischen Möglichkeiten bieten sich für eine Bedienung mit einem Eye-Tracker an?

Bei einem erneuten Treffen mit den Medientechnikern, wollen wir erste Ansätze für unser Projekt, nämlich die Möglichkeiten eines Eye-Trackers zu zeigen, finden. Um die wenige Zeit gut nutzen zu können, sind die ersten Überlegungen, primär mit vorhandenem Material zu arbeiten. Für aufwändige 3D-Modelle ist die Zeit zu kurz und ein erster festgelegter Pfeiler ist, dass wir im zwei-dimensionalen arbeiten wollen. Des Weiteren reduzieren wir die Anwendung auf einen zusammenhängenden Inhalt, der aber keinen konkreten Plot mit verschiedenen Erzähl-Strängen oder gut entwickelten Charakteren besitzen muss.
Um den Inhalt – welcher auch immer – gut verknüpfen zu können, ist eine erste Überlegung mit einem selbst geschriebenen Text zu arbeiten, der über gefundenes »Creative Commons«-Material gelegt werden kann. Ein gutes Beispiel hierzu finde ich die Arbeit »Grosse Fatigue« von Camille Henrot, die den Versuch wagt das Universum von Beginn an zu erzählen. Eine weitere Idee ist die Umsetzung einer Art Zeitmaschine, da man auch hier sehr lose und dennoch zusammenhängend, Inhalte miteinander verknüpfen könnte. Des Weiteren wäre die Auseinandersetzung mit einem bestimmten Thema, das mit einen Kosmos einzelner Informationen umspannt werden könnte, interessant. So wäre es möglich Stück für Stück die verschiedenen Aspekte zu betrachten, um sich so zu informieren. Bei letzteren Beispielen könnte man als Fokussierung für den Eye-Tracker Objekte wie Bilderrahmen, Notizbücher oder auch Personen nutzen, über die man jeweils tiefer ins Geschehen eintauchen würde.

Grundsätzlich steht jedoch die Frage im Raum, welchen Vorteil das Eye-Tracking gegenüber einer Bedienung mit der Maus oder Tastatur wirklich hat. Die vorangegangenen Beispiele wären auch sehr gut ohne Eye-Tracking möglich, da die spezifischen Eigenheiten dieser Technologie nicht wirklich genutzt wären. Was macht das Eye-Tracking also aus? Wichtig für uns ist, dass der Blick selbst eine große Rolle spielt. Dazu gehört z. B., dass »Aktionen« genau dann ausgelöst werden, wenn man nicht an die jeweilige Stelle schaut oder genau dann, wenn man etwas fokussiert. Ein »Gimmick«, das wir des Weiteren gerne einbauen würden, ist die Erkundung und Entdeckung durch ein eingeschränktes Sichtfeld. In einem Video von tobii (10 ways to use eye tracking in games ») wird diese Funktion ab Minute 2:35 als Taschenlampe vorgestellt.

Auch wenn mir persönlich das Genre sehr fern ist, entscheiden wir uns für eine Anwendung, die Richtung »Mystery« geht. In den nächsten Schritten, möchten wir schnellstmöglich ein grobes Konzept dafür entwickeln, um schnell in die Umsetzung gehen zu können. Denn neben der Zusammenstellung des Materials wird sehr viel Zeit für mögliche Animationen oder die Programmierung und Optimierung nötig sein.

Digitales Storytelling – Eine lose Sammlung

Wie können Erzählungen im und mit dem digitalen Bereich aufgebaut werden? Zwei Beispiele für digitale Erzählungen sowie einer »immersive documentary«.

Im Rahmen meiner Recherche bezüglich des Projekts mit Eye Tracking (Storytelling mit Hilfe von Eye-Tracking ») bin ich auf die folgenden Beispiele gestoßen, die ich nur als lose Sammlung auflisten möchte. Es lohnt sich diese Erzählungen selbst durchzuklicken, letzteres (»Door in the dark«) wird auch als »immersive documentary« bezeichnet.

»Firestorm« von The Guardian (Jon Henley & Laurence Topham): Schauen und Klicken
»Snow Fall« von der New York Times (John Branch): Schauen
»Door in the dark« von Robert Frost: Trailer

Storytelling mit Hilfe von Eye-Tracking

Eine erste praktische Anwendung, um einen konkreteren Ansatz für meine Master-Arbeit zu finden.

Um einen konkreteren Ansatz für mein Master-Projekt zu finden, hat mich Prof. Anja Vormann in Kontakt mit Christian Geiger gebracht, der an der Hochschule Düsseldorf Professor für Mixed Reality und Visualisierung ist. Nach einem ersten Vortreffen, konnte der Kontakt zu zwei Studenten aus dem Bereich Medientechnik hergestellt werden. Gemeinsam möchten wir nun bis Ende April ein Projekt realisieren, das in erster Linie dazu dient, Möglichkeiten eines Eye-Trackers zu zeigen. Mit der Nutzung eines Eye-Tracker von tobii wurde bereits eine kleine Anwendung realisiert, in der man bei der Fokussierung festgelegter Punkte in die nächste Bildebene gelangt. So ist zu Beginn beispielsweise ein Haus mit Fenstern, beim Blick auf eine Weltkugel im Fenster gelangt man in das Zimmer. So arbeitet man sich Ebene für Ebene vor bis sich das ganze als Endlosschleife wiederholt.
Unsere Aufgabe ist es nun, eine ähnliche Anwendung umzusetzen, die die Möglichkeiten mit zusammenhängendem Inhalt zeigt. Dabei soll zunächst keine »Story« im eigentlichen Sinn entstehen, die Inhalte sollten jedoch nicht einfach lose und unabhängig voneinander sein.

Das globale Dorf – Raum, Zeit und Dynamik

Marshall McLuhan beschreibt in seinem Buch »Global Village«, dass das elektrische Zeitalter ein neues Kommunikationsmodell benötigt. Durch dieses Zeitalter, dass die »Gutenberg-Galaxis« ablöst, lösen sich Raum und Zeit auf, da Informationen unabhängig von Raum und Zeit transportiert werden können.

Marshall McLuhan beschreibt in seinem Buch »Global Village«, dass das elektrische Zeitalter ein neues Kommunikationsmodell benötigt.1 Durch dieses Zeitalter, dass die »Gutenberg-Galaxis« ablöst, lösen sich Raum und Zeit auf, da Informationen unabhängig von Raum und Zeit transportiert werden können. Ein mehrfach erwähntes Beispiel ist dabei eine Anekdote eines Apollo-Astronauten. Als es die ersten TV-Übertragungen von Raumfahrten gab, war der Mensch gleichzeitig auf der Erde als auch im Weltall, Raum und Zeit lösten sich damit auf und das globale Dorf entsteht.2

Die unterschiedliche Nutzung der linken und rechten Gehirnhälfte

Während die Bevölkerung im orientalischen und asiatischen Raum sehr von der rechten Hemisphäre des Gehirns geprägt ist, erhält die linke Hemisphäre in der westlichen Welt den Vorzug.3 Die linke Hirnhälfte arbeitet sehr sequentiell und kausal. Alle Geschehnisse werden eingeordnet, Fähigkeiten wie das Lesen oder Schreiben sind hier beheimatet. Die rechte dagegen besitzt qualitative Fähigkeiten oder auch beispielsweise musikalische und akustische.4 Während die orientalischen Fähigkeiten darin liegen, dass das Leben »mit allen Sinnen gleich erfasst und im Gleichgewicht keine ordnenden Schwerpunkte kennt«, ist die abendländische Denkweise an eine unbewegliche Sicht mit dem Bedürfnis nach Hierarchien gekettet.5 Sie ordnet Informationen strukturell in den visuellen Raum ein, in dem die Dinge in zeitlicher Folge miteinander verbunden sind. Beispiele sind hierfür Gemälde oder die Fotografie.6 Auf der anderen Seite werden in der rechten Hemisphähre des Hirns Geschehnisse und Prozesse in gleichzeitige Beziehung gesetzt. Überall befinden sich – ohne Abgrenzung – Zentren und Fokusse, was unserer heutigen Informationswelt an Komplexität sehr nahe kommt. Ein Beispiel hierfür ist die auditive Welt, wie z. B. die Klangwelt einer Symphonie.7
In seiner Theorie vom Wechselspiel von Grund und Figur bringt er ein, dass orientalische Kulturen den Grund sehen, während die westliche Welt sehr stark an den Figuren orientiert ist.8 Da alle elektronischen Medien jedoch die rechte Hirnhälfte betonen9, wird zukünftig zunehmend ein neues Kommunikationsmodell und eine Orientierung an der rechten Hälfte wichtig werden.

Die Linearität des Buchdrucks, die unser westliches Denken stark beeinflusst, wird dadurch abgelöst, dass elektromagnetische Wellen einen Raum der Gleichzeitigkeit entstehen lassen, in dem die Informationen, die sich mit Lichtgeschwindigkeit bewegen, nicht linear-sequentiell, sondern gleichzeitig auf uns einprasseln.10 Entscheidend ist, dass nicht die Inhalte, sondern das Medium selbst unser Denken prägt und formt. So wird unsere Denkweise stark durch das Buch – mit seiner linearen und sequentiellen Form – beeinflusst. Eine emotional reduzierte Form und Vereinheitlichung der Sprache entsteht durch die Schrift.

Zurück zu dynamischen Erzählungen

Neben der Gleichzeitigkeit und Auflösung des Raums, spielt in der heutigen Gesellschaft vor allem die Dynamik eine große Rolle. Schon im November habe ich mich dem Wechselspiel von Statik und Dynamik auseinandergesetzt (Von der Kultur, die statisch wurde »). Diesen Ansatz wollte ich nun mit den Theorien von McLuhan weiterverfolgen. Meine damalige Überlegung war, dass erst durch die Schrift Erzählungen festgeschrieben wurden. Zuvor waren sie dynamisch und wurden – wie man es auch heute bei mündlichen Erzählungen kennt – verändert überliefert. Jede Besonderheit der Sprache sowie die Emotionalität des Erzählers wurden ausgemerzt, da für jeden ersichtlich Wort für Wort gleichermaßen niedergeschrieben war. Eine festgeschriebene Erzählung in einem Buch ist in Köln dieselbe wie in Stuttgart. Dort dieselbe wie in Berlin.
Zwar hat das natürlich – geschichtlich gesehen – den Vorteil, dass Überlieferungen richtig und nachvollziehbar sind. Dennoch verlieren sie aus meiner Sicht an auratischer Ausstrahlung, was wohl kein essentieller, aber auch nicht unwichtiger Faktor ist.

Des Weiteren wurde ich auf das Buch aufmerksam, da ich davon überzeugt bin, dass es eine Rückbesinnung auf eine natürliche Art der Erzählung gibt (Rückbesinnung auf eine natürliche Art der Erzählung »). Erzählungen werden wieder dynamisch und beeinflussbar durch user-generated content oder interaktive Abhandlungen. Interaktive Geschichten oder Spiele führen dazu, dass unterschiedliche Erzählstränge gewählt werden können, die den Inhalt für jeden Betrachter anders darstellen. Zwar sind die Stränge an sich nach wie vor linear, dennoch ist eine Auflösung der bisher eindeutig linearen Stränge ersichtlich. Momentan denke ich darüber nach, wie sich Geschichten vollständig verändern lassen, indem es z. B. eine ständige, automatische Veränderung und Erneuerung der Bildwelt geben könnte, die nach einer Grundauswahl zufällig ist oder sogar ohne Grundauswahl mit Daten aus dem Netz funktionieren könnte. Diese Überlegung halte ich nur mit einer Daten-Anknüpfung an das World Wide Web für umsetzbar, da ich ein System, das z. B. auf eine Vorauswahl auf dem Computer zurückgreift, nicht für dynamisch und umfassend genug halte.

Im Weiteren werde ich diese Gedanken vertiefen und mich über weiteres Recherchematerial informieren. Der Zusammenhang aus McLuhans Theorien, der Entwicklung der Gesellschaft in Bezug auf Medien sowie der Erzählungen an sich, ist für mich momentan ein schwer verständliches, aber gleichzeitig äußerst spannendes Themenfeld.

Quellen
  1. Vgl. McLuhan, Marshall; Powers, Bruce; Leonhardt, Claus-Peter: »The global village: der Weg der Mediengesellschaft in das 21. Jahrhundert«, Paderborn 1995, S. 25.
  2. Vgl. Ebd., S. 12.
  3. Vgl. Ebd., S. 17.
  4. Vgl. Ebd., S. 77.
  5. Ebd., S. 87.
  6. Vgl. Ebd., S. 31.
  7. Vgl. Ebd.
  8. Vgl. Ebd., S. 87.
  9. Vgl. Ebd., S. 95.
  10. Vgl. Ebd., S. 25.

Imitation von Interaktivität

Wie interaktiv kann das World Wide Web tatsächlich sein? Ist vollständige Interaktivität erst mit Künstlicher Intelligenz möglich?

Tilmann Baumgärtel vereint in »net.art 2.0 – Neue Materialien zur Netzkunst« Interviews mit Künstlern aus diversen Sparten, die mindestens am Rande mit Netzkunst in Berührung kommen. Wichtig zu wissen ist, dass das Buch aus dem Jahr 2001 stammt. Sprich: In der Entstehung war man wahrscheinlich mitten im Höhepunkt der Dotcom-Blase, dennoch war das World Wide Web lange nicht so einflussreich und weitreichend wie heute. Douglas Davis, amerikanischer Medienkünstler, äußert in seinem Interview, dass er nicht glaubt »daß das Web in punkto Interaktivität viel zu bieten hat. Es ist eher so eine Art ›Multiple choice‹, eine Kinderversion von Interaktivität.«1 Mit Interaktivität ist an dieser Stelle sehr wahrscheinlich nicht die Interaktion zweier Menschen via E-Mail, Chat oder Ähnlichem gemeint, sondern zwischen Mensch und Maschine. Oder Mensch und dem bestehenden »Kunstwerk«. Zwar sind wir nun im Jahr 2016 technologisch einen großen Schritt weiter und Interaktivität ist einer der großen Begriffe, doch diese Aussage warf viele Fragen bei mir auf, da dieser Satz in keiner Weise veraltet zu sein scheint. Ich frage mich z. B., ob ähnlich wie im Museum eine tatsächliche Wechselwirkung zwischen Kunstwerk und Rezipient entstehen kann. Wie tiefgreifend ist diese Wechselwirkung? Wie abhängig vom Ort, wenn er kein physischer Raum ist? Ist das Kunstwerk und die Beziehung zu ihm nicht noch wechselhafter? Welche Schritte könnten generell die nächsten sein, um eine größtmögliche Interaktivität in Kunstwerken oder Erzählungen zu erreichen? Wird Interaktivität jemals aus ihren Kinderschuhen heraus wachsen? Aber unabhängig davon, ob interaktive Erzählungen/Filme, ob Technologien wie VR-Brillen, Eye-Tracking oder Bewegungssensoren: Alles, was sich dort verändert, bewegt, tut, also interagiert, ist keine wirkliche Interaktivität, sondern ein Auslösen eines Events durch einen bestimmten Startmechanismus. Schon im Voraus bis ins Äußerste durchdacht und geplant. Unter Umständen spielt hier auch die KI eine große Rolle, ohne die all’ die Versuche Interaktives zu entwickeln, nur eine Imitation ist. Eine Imitation von Interaktivität.

Quellen
  1. Baumgärtel, Tilman: »net.art 2.0 – Neue Materialien zur Netzkunst«, Nürnberg 2001, S.87.

Erkenntnisse und Eindrücke: Luciano Floridis Buch »Die 4. Revolution«

In einem Vortrag mit Sabrina Calvagna und Vernice Collet stellten wir im Kurs »Digitale Welt und neuer Realismus« von Prof. Dr. Stefan Asmus im WS 2015/2016 unsere Erkenntnisse des Buchs »Die 4. Revolution« von Luciano Floridi vor. Im folgenden sammele ich meine persönlichen Eindrücke, welche auh für meine Master-Arbeit von Bedeutung sind.

Luciano Floridi wagt einen Versuch erste Ansätze für eine neue Informationsphilosophie zu entwickeln, um dem rasanten Wandel, dem unsere Zeit unterliegt, gerecht zu werden. Neben den Inhalten selbst, halte ich den Gedanken, den richtigen Umgang mit diesen Veränderungen zu finden, für besonders wichtig.1 Während der letzten Jahre häuft sich die Kritik an den Informations- und Kommunikationstechnologien und nicht selten sagen uns Dystopien unsere »schwarze Zukunft« voraus – Angst, Unwissenheit und Unsicherheit als wahrscheinlichster Auslöser. Doch während wir uns heutzutage noch vor sämtlichen »Ängsten« (z. B. Datenschutz, Überwachung, …) vermeintlich schützen können, indem wir offline gehen oder uns mit einem alten Nokia 3210 zufrieden geben, bleibt diese Möglichkeit zukünftig wohl aus. Zwar könnte man sich sämtlichem Neuen verschließen, was aus meiner Sicht zum einen nicht absolut möglich sein wird, da es immer – erzwungene – Berührungspunkte mit der neuen Technologie geben wird. Zum anderen bleibt man langfristig – traurigerweise – auf der Strecke, wenn man sich stets dem Neuen verweigert.

Dynamik der Strömung nutzen

Wichtiger wäre es, einen angemessenen Umgang mit diesem Wandel zu finden, anstatt sich vor ihm zu verschließen.
Als eine wichtige Verbindung und einen wichtigen Anstoß halte ich hier auch McLuhans Essay »Die mechanische Braut«, in dem er beschreibt, wie sich ihm fortwährend Edgar Allan Poes »Sturz in den Malstrom« ins Bewusstsein drängt. Die Hauptessenz ist dabei, nicht »gegen die beachtlichen Strömungs- und Druckkräfte anzukämpfen, die sich durch die mechanischen Einwirkungen von Presse, Radio, Kino und Werbung um uns herum aufgebaut haben«, sondern ihre Abläufe genau zu studieren und deren Dynamik zu nutzen2. Genau diese Aufgabe wird sich auch uns als Kommunikationsdesigner – als Vermittler von Informationen – zunehmend aufdrängen.

Die virtuelle Wirklichkeit

Für eine weitere interessante Ansicht Floridis, halte ich sein Verständnis von Wirklichkeit. Er beschreibt wie Virtuelles und Nicht-Virtuelles zunehmend verschwimmen und es kein »außerhalb« und »innerhalb« der Infosphäre mehr geben wird.3 Laut ihm wird es eine informationelle Auffassung von Wirklichkeit geben. Das heißt, alle Existenz- und Verhaltensformen sind authentisch und echt, unabhängig davon, ob es künstliche, hybride, synthetische, … Formen sind.4
Dafür spricht für ihn, dass auch das vermeintlich »Echte« von Menschenhand geschaffen ist und es schwierig bis unmöglich ist, etwas völlig unangetastetes, ursprüngliches auf der Erde zu finden. Zum anderen wird beispielsweise unser soziales Selbst durch Soziale Medien geformt und unsere Identität beeinflusst.5 Das scheinbar »Unechte« beeinflusst unsere Wirklichkeit, was die Frage nach einem Wirklichkeitsanspruch aus meiner Sicht absolut beantworten kann.

Bedeutung für meine Arbeit

Diese Auffassung halte ich vor allem mit Blick auf mein Master-Thema für sehr spannend. Innerhalb dessen, befasse ich mich mit interaktivem bzw. auch transmedialem Storytelling, sowie der Grenze zwischen Wirklichkeit und Fiktion. Da das Wirkliche und Virtuelle zunehmend verschwimmen, wird meinem Empfinden nach, auch die Grenze zwischen Wirklichkeit und Fiktion immer schwieriger zu erkennen sein. Zwar ist das nicht prinzipiell von Vorteil und es sollte zukünftig noch mehr Wert auf Medienkompetenz gelegt werden, um die Fähigkeit, diese Unterschiede zu erkennen, auszubilden. Dennoch sehe ich es als große Chance für Gestalter, Filmemacher, Konzepter oder ähnliche, mit dieser Grenze zu spielen und sie bewusst zu überschreiten oder unsichtbar zu machen. Dass Schnittstellen, wie es Floridi erwähnt, immer transparenter werden, kann an dieser Stelle zusätzlich an Bedeutung gewinnen.

Resümierend halte ich nicht jedes Thema, das Floridi innerhalb des Buchs behandelt, für mich und meine Themenwahl äußerst spannend. Das kann jedoch an seiner sehr allumfassenden Auswahl liegen. Umso wichtiger und treffender finde ich seine Ansätze, in den Bereichen, die für mich von Interesse sind. Dass er diese Ansätze auch für einen Laien gut und verständlich artikuliert und Bezüge zur Vergangenheit und unserer generellen Einordnung auf der Zeitachse herstellt, finde ich besonders wichtig, um seiner Argumentation folgen zu können. Er gibt einen großen Einblick in mögliche, relevante Themen der zukünftigen Informationsphilosophie, die sicher erst am Anfang der Entwicklung steht und noch große Aufgaben für uns bereit hält.

Quellen
  1. Vgl. Floridi, Luciano: »Die 4. Revolution – Wie die Infosphäre unser Leben verändert«, Berlin 2015, S. 9.
  2. Baltes, Martin; Böhler, Fritz; Höltschl, Rainer; Reuß, Jürgen (Alle Hg.): »Medien verstehen – Der McLuhan-Reader«, Mannheim 1997, S. 29.
  3. Vgl. Floridi, Luciano: »Die 4. Revolution – Wie die Infosphäre unser Leben verändert«, Berlin 2015, S. 329.
  4. Vgl. Ebd., S. 285 f.
  5. Vgl. Ebd., S. 92.

»Film und Games. Ein Wechselspiel« im Filmmuseum Frankfurt

Die Ausstellung »Film und Games. Ein Wechselspiel« war vom 1.7.2015–31.1.2016 im Filmmuseum Frankfurt zu sehen. Neben verschiedener Einblicke in das Wechselspiel von Filmen und Games seit den 80er Jahren, waren besonders die technischen Aspekte spannend, wie im 18., 19. und Anfang des 20. Jahrhunderts versucht wurde, Bewegtbilder und die Illusion einer anderen Wirklichkeit herzustellen. Diese wurden in der permanenten Ausstellung gezeigt.

In der digitalen Erzählung wird die Verschmelzung von Filmen und Games immer bedeutender und das Game teilweise schon als zukünftiges Leitmedium angesehen (Die Hybridform aus Game und Film »).

Aus diesem Grund habe ich die Ausstellung »Film und Games. Ein Wechselspiel« besucht, die vom 1.7.2015–31.1.2016 im Filmmuseum Frankfurt zu sehen war und von Andreas Rauscher und Kokurator Wolfger Stumpfe kuratiert wurde.

Grundsätzlich ging es dabei um die Annäherung und Beeinflussung von Film und Games seit den 80er Jahren. Bis in die 90er Jahre war diese Annäherung nur einseitig. Spiele griffen Filmszenen auf, seit Beginn der 90er ist das Verhältnis jedoch wechselseitig und Spiele beeinflussen auch Filme. So konnte in dem Spiel Indiana Jones mit 8-Bit-Ästhetik von 1989 schon die Filmhandlung nachvollzogen werden. Ein hervorragendes Beispiel für die entgegengesetzte Richtung ist beispielsweise Tomb Raider mit der Figur Lara Croft. Aus der Spielreihe, die 1996 ihren Anfang nahm, wurde 2001 eine Verfilmung und rund um den Charakter wurde eine transmediale Welt aufgebaut. So taucht Lara Croft nicht nur im Spiel oder Film auf, sondern auch u. a. in Romanen und Comics. Die Story ist dabei offen, wird stets weiterentwickelt und noch immer werden Tomb Raider-Spiele auf den Markt gebracht.

Bewegungsabläufe mit Motion Capture

Sehr spannend war die Ausstellung für mich jedoch besonders aus technischer Sicht. Das Spiel »Ryse: Son of Rome« kann zum einen u. a. mit der Kinect und Sprachsteuerung gesteuert werden. Zum anderen war das interessanteste die Entwicklung der Bewegungsabläufe der Charaktere. Mit Motion Capture und Schauspielern wurden die Bewegungsabläufe digital erfasst und auf die Spielcharaktere übertragen. Das macht die Bewegungen, allen voran die Mimik, besonders realistisch. Des Weiteren möchte ich weiter über Art Games recherchieren, die vor allem in Hinblick auf Ästhetik und Inhalt spannend sind.

Thaumtrop, Wundertrommel und Co.

Außerhalb der Ausstellung gab es im Filmmuseum noch feste Räume mit permanenten Ausstellungen. Hier fiel mir besonders die Art und Weise auf, wie im 18., 19. und Anfang des 20. Jahrhunderts versucht wurde Bewegtbilder und die Illusion einer anderen Wirklichkeit herzustellen. So z. B. mit Hilfe von Guckkästen, dem Thaumatrop, dem Stereoskop, der Wundertrommel, Mutoskopen oder Kinetoskopen. Teilweise erinnern die Techniken schon an aktuelle Techniken, so ist das Prinzip des Stereoskops ähnlich der Google Cardboard (Erste Gehversuche mit der Google Cardboard »).
Letztendlich war die stetige Ausstellung der interessanteste Part für mich, da es mich anspornt mit analogen Techniken zu experimentieren, die heute wieder in einen völlig anderen Kontext gesetzt werden können.

Abbildungen
  1. Titelbild: Eigener Screenshot der Webseite iamag.co, URL: https://www.iamag.co/features/making-of-ryse-son-of-rome/ryse-son-of-rome-2-2, abgerufen am 25.1.2016.

Die Hybridform aus Game und Film

In »Digitales Erzählen – Die Dramaturgie der Neuen Medien« gibt der Autor Dennis Eick einen Überblick über die Möglichkeiten Erzählungen im Zeitalter des Internets und der Digitalisierung zu entwickeln.

In »Digitales Erzählen – Die Dramaturgie der Neuen Medien« gibt der Autor Dennis Eick einen Überblick über die Möglichkeiten Erzählungen im Zeitalter des Internets und der Digitalisierung zu entwickeln. Dabei hinterfragt er kritisch die momentane Übergangsphase, in der häufig »neue Medien mit Inhalten alter Medien gefüllt«1werden, wie er Marcus Bösch zitiert.

Ein Fokus des Buchs liegt auf den Bewegtbildmedien Game und Film, welche sich zunehmend gegenseitig beeinflussen und zu hybriden Formen verschmelzen. Diesbezüglich äußert Gundolf Freyermuth, dass Hybridität »in der Geschichte der Medien ja fast immer eine Übergangsphase«2 ist. Er sieht das Game, wenn es das nicht schon ist, sogar als zukünftiges Leitmedium3 und zählt sogleich die Vorteile transmedialer Games auf: Sie »bieten nämlich alles, was Filme bieten: dieselbe Vielfalt – plus Interaktivität und Non-Linearität«.4

Unterschiede und Parallelen

Doch wo liegen die grundlegenden Parallelen und Unterschiede? Inga von Staden nennt als Parallelen beispielsweise die narrativen Strukturen oder Cutscenes, die das Spiel unterstützen.5 Cutscenes, Filmsequenzen, die zwischen einzelnen Sequenzen eingeblendet werden, sind nun erstmal keine neue Errungenschaft. Schon in den 90er Jahren sieht man das häufig u. a. bei Konsolenspielen wie Super Mario oder Zelda für den Nintendo 64. Die Szenen unterstützen die Erzählung und den Aufbau der Spielwelt, in der wir uns bewegen und Aufgaben erfüllen. Jedoch werden sie natürlich zunehmend zum einen grafisch anspruchsvoller, zum anderen nimmt der Anteil in vielen Games zu. So gibt es zwischenzeitlich sogar schon »Game Movies«, die mehr einem interaktiven Film als einem einfachen Game mit »etwas zusätzlicher Geschichte« entsprechen. Hier sind aktuell Heavy Rain oder Beyond: Two Souls zu nennen, welche für die PlayStation am 1.3.2016 erscheinen werden.

Veränderung narrativer Strukturen

Die Cutscenes bzw. die generelle Entwicklung von Game Movies verändert sich weiter in ihren narrativen Strukturen. Das Game besteht üblicherweise fast ausschließlich aus dem wichtigen Hauptteil, während Einleitung und Schluss nur kleine Parts des Ganzen sind.6 Das ist auch eine grundlegende Unterscheidung zum Film. Dem Spiel werden zwischenzeitlich durch Cutscenes nicht nur begleitend narrative Elemente hinzufügt, sondern der komplette Game Movie ist ein Wechselspiel zwischen Game und Film, so dass sich zum einen der Anteil der einzelnen Parts verändert und zum anderen je nach Entscheidung ein völlig anderer Plot entsteht. Frank Raki erklärt das schön mit dem »Patchwork einzelner Elemente«, die während dem Spiel aufgesammelt werden und keine feste Kette von Ereignissen sind.7 Durch die Tatsache, dass »wir« die Erzähl-Elemente aufsammeln und nicht der Schauspieler, dem wir lediglich zuschauen, entsteht natürlich auch eine höhere Immersion.
Durch Anpassung der Musik, Kamera, dynamischen Farbschemen oder das Lösen von Rätseln mittels Schwarmintelligenz wird diese Immersion deutlich erhöht.8

Insgesamt ist es ohnehin schon eine große Herausforderung, eine funktionierende Spielwelt aufzubauen, in der »Fehlverhalten«9 verhindert wird. Dass nun Unmengen an Erzählung hinzukommt, macht die Entwicklung aus meiner Sicht nicht einfacher. Die Frustrationsschwelle ist hier sicher etwas niedriger, da der Nutzer, dessen Fokus automatisch verstärkt auf die Erzählung gelenkt wird, schnell merkt, wenn die Geschichte keinen Sinn macht.

Ich halte es für eine gute Möglichkeit, Erzählungen in dieser Form zu entwickeln und den Immersionsgrad somit zu steigern. Die Geschichten können selbst entdeckt und erlebt werden, man wird Teil der Erzählung. Ich frage mich jedoch, welche Alternativen es für Spieler gibt, die nicht an großen Erzählsträngen interessiert sind, sondern »einfach nur zocken« wollen. Nicht für abwegig halte ich jedoch tatsächlich, dass Games das neue Leitmedium werden können. Alles wird spielerischer, der große Prozess der »Gamification« ist längst angebrochen. Selbst in Bereichen der Arbeitswelt wird dieser Belohnungsmechanismus angewandt und man kann unter anderem schon in Zeiterfassungsprogrammen für bestimmte Ziele Batches erhalten.

Quellen
  1. Eick, Dennis: »Digitales Erzählen – Die Dramaturgie der neuen Medien«, Konstanz und München: UVK Verlagsgesellschaft mbH, 2014, 1. Auflage, S.227
  2. Ebd., S.106
  3. Vgl. Ebd., S.93
  4. Ebd., S.123
  5. Vgl. Ebd., S.93
  6. Vgl. Ebd., S.113
  7. Vgl. Ebd., S.110
  8. Vgl. Ebd., S.124
  9. Ebd., S.115
Abbildungen
  1. Eigener Screenshot von YouTube, silenig: »Indiana Jones and the Last Crusade (PC Deutsch) Preview Video«, URL: https://www.youtube.com/watch?v=9ivNLD75rAU, TC: 00:04:16, abgerufen am 24.1.2016.
  2. Ebd.

Selbstbestimmungstheorie

Die Selbstbestimmungstheorie nach Edward K. Deci und Richard M. Ryan hebt unter anderem die drei grundlegenden psychologische Bedürfnisse des Menschen offen. Darunter fallen die Bedürfnisse nach Kompetenz oder Wirksamkeit, Selbstbestimmung und sozialer Zugehörigkeit.
Dennis Eick bringt in seinem Buch »Digitales Erzählen« diese Theorie, die sich unter anderem auch mit den Themen Motivation und dem davon abhängigen Verhalten auseinandersetzt, in Zusammenhang mit Erzählungen.

Die Selbstbestimmungstheorie nach Edward K. Deci und Richard M. Ryan hebt unter anderem die drei grundlegenden psychologische Bedürfnisse des Menschen offen. Darunter fallen die Bedürfnisse nach Kompetenz oder Wirksamkeit, Selbstbestimmung und sozialer Zugehörigkeit.1
Dennis Eick bringt in seinem Buch »Digitales Erzählen« diese Theorie, die sich unter anderem auch mit den Themen Motivation und dem davon abhängigen Verhalten auseinandersetzt, in Zusammenhang mit Erzählungen. Er führt aus, dass traditionelle Medien Unterhaltung ansprechen, während transmediale Erzählungen genau diese drei Bedürfnisse ansteuern können.2

Zwar führen Deci und Ryan ihre Theorie sehr detailliert aus, ich möchte dabei jedoch nicht in die Tiefe gehen. Im momentanen Status reicht es für meine Recherchearbeit aus, an der Oberfläche zu kratzen.
Grundsätzlich besitzt jeder Mensch das Bedürfnis nach sozialer Zugehörigkeit. Nach einem Umfeld, in das er fest eingebettet ist und in dem er selbst wirken kann. Diese Wirksamkeit möchte der Mensch aus eigenem Willen erreichen. Er möchte zu Nichts gezwungen werden, sondern aus seiner Autonomie heraus über sein Handeln entscheiden.3

Wie in einem vorherigen Beitrag über die natürliche Art der Erzählung erwähnt (Eigenschaften neuer Erzähl-Formate ») halte ich die soziale Komponente für eine sehr wichtige neuer Erzählungen. Menschen wollen sich in einem sozialen Umfeld einfinden und verbunden sein. Auch die zwei weiteren Bedürfnisse sind aus meiner Sicht Teil der neuen Erzähl-Formate. So halte ich zum einen Interaktivität für eine wichtige Komponente, die sich in beiden, der Wirksamkeit und der Selbstbestimmung, niederschlägt. Zum anderen können Social Media Konzepte wie bei About:Kate (About: Kate ›Wann haben Sie bemerkt, dass Sie nicht mehr wissen, wer Sie sind‹ ») zumindest auf kurze Dauer interessant sein. Meine persönliche Einschätzung ist, dass dieses Konzept nicht für mehrere Jahre trägt, da sich Menschen in ihrer Selbstbestimmung sicher angegriffen fühlen werden, wenn sie merken, dass ihnen etwas unbewusst aufgedrängt wird.

Ich persönlich halte die Selbstbestimmungstheorie für eine für Gestalter interessante Theorie, da es auch für uns interessant ist, diese drei Grundbedürfnisse des Menschen zu befriedigen. Daher möchte ich mich an anderer Stelle noch einmal detaillierter damit auseinandersetzen.

Quellen
  1. Vgl. Deci, Edward L.; Ryan, Richard M.: »Die Selbstbestimmungstheorie der Motivation und ihre Bedeutung für die Pädagogik«, 1993, URL: https://www.phil-fak.uni-duesseldorf.de/fileadmin/Redaktion/Institute/Allgemeine_Sprachwissenschaft/Dokumente/Bilder/1993_DeciRyan_DieSelbstbestimmungstheoriederMotivation-German.pdf, S. 2, abgerufen am 15.2.2016.
  2. Vgl. Eick, Dennis: »Digitales Erzählen – Die Dramaturgie der neuen Medien«, Konstanz und München 2014, S. 103.
  3. Vgl. Deci, Edward L.; Ryan, Richard M.: »Die Selbstbestimmungstheorie der Motivation und ihre Bedeutung für die Pädagogik«, 1993, URL: https://www.phil-fak.uni-duesseldorf.de/fileadmin/Redaktion/Institute/Allgemeine_Sprachwissenschaft/Dokumente/Bilder/1993_DeciRyan_DieSelbstbestimmungstheoriederMotivation-German.pdf, S. 3, abgerufen am 15.2.2016.

Eigenschaften neuer Erzähl-Formate

Welche Eigenschaften sollten neue Erzähl-Formate – vor allem in Bezug auf eine »natürliche Art« der Erzählung – besitzen?

Die letzten Wochen habe ich mich auf das transmediale Erzählen fokussiert. Dabei stieß ich auch auf das »trimediale Erzählen«, das sich auf drei Medien beschränkt. Insgesamt stellt sich mir jedoch in beiden Fällen die Frage, ob drei, vier, fünf oder mehr Medien wirklich besser erzählen können, als ein oder zwei Medien. Es ist durch den Einsatz vieler Medien zwar die Möglichkeit da, ganze Universen zu schaffen. Doch erscheint mir der Einsatz mehrerer Medien manchmal als Selbstzweck, um »mehr Medien« genutzt zu haben. Sinnvoll erscheint es mir, wenn sich die Erzählungen in den Medien gegenseitig unterstützen und gut verwoben werden. Werden sie jedoch in anderen Medien »weiter erzählt« – so dass der Zwang eines Medienwechsels vorherrscht, um die Erzählung nachvollziehen zu können – erschließt sich mir der Nutzen nicht.

Während mir das transmediale Erzählen zu Beginn als gute Möglichkeit erschien, Geschichten zu erzählen, die ganz andere Welten öffnen oder Interaktivität einschließen, möchte ich nun einen Schritt zurück gehen. Nicht um das transmediale Erzählen grundsätzlich auszuschließen, sondern um nochmal neu zu ordnen, welche Eigenschaften ich für mögliche neue Erzähl-Formate als wichtig empfinde. Dabei möchte ich – wie gehabt – zum einen den Blick auf technologische Möglichkeiten und die Eigenheiten einzelner Medien richten. Zum anderen soll die Mediennutzung weiterhin ein begleitender Faktor sein.

Wie in »Rückbesinnung auf eine natürliche Art der Erzählung« beschrieben, ist meine momentane Überlegung, dass ein Trend dahingehend stattfindet, dass Erzählungen wieder die »Natürlichkeit des menschlichen Erzählens« berücksichtigen. Im folgenden einige Eigenschaften, die neue Erzähl-Formate aus meiner Sicht erfüllen sollten. Außerdem einige Gedanken, die ich kurz fassen möchte, da jedes Thema für sich einen eigenen Kosmos darstellt.

Übersicht natürliche Art der Erzählung | Eigenschaften Erzählungen

Interaktion
Eine aus meiner Sicht immer wichtiger werdende – und ohnehin schon oft genutzte – Komponente ist die Interaktion. Die Nutzer können Einfluss auf den Erzähl-Verlauf nehmen und obwohl die verschiedenen Stränge vordefiniert sind, wird man Teil der Erzählung. Es entsteht das Gefühl, dass die Geschichte zur »eigenen« und man selbst Teil der Erzählung wird. Wie im Fall von »About:Kate« ist – neben dem Einbringen von user-generated content – auch eine Interaktion mit den Protagonisten über Soziale Netzwerke möglich.

Soziale Komponente
Durch den Buchdruck wird die Kommunikation einseitig, da der Dialog fehlt. Ähnlich steht es mit dem Radio oder dem TV, welche beide Medien sind, die nur von einer Richtung her zielen. Durch das World Wide Web ist bereits ein Schritt zurück (oder vorwärts) zum Dialog getan. Mit anderen neuer Technologie könnte ein noch größerer Dialog oder eine noch größere Interaktion – nicht nur zwischen Mensch und Maschine – stattfinden.
Des Weiteren werden Erzählungen heutzutage häufig lediglich konsumiert. Bei all den Filmforen oder Filmtipps über soziale Netzwerke oder persönlicher Natur, möchte ich nicht behaupten, dass generell kein Diskurs stattfindet. Jedoch fehlt zunehmend das gemeinschaftliche Erlebnis, unterstützt durch Angebote wie Netflix oder der generellen Möglichkeit zu Hause, alleine, sämtliche Serien und Filme konsumieren zu können. Dagegen ist grundsätzlich nichts einzuwenden, dennoch ist der gemeinschaftliche Gang ins Kino deutlich gemeinschaftlicher. Insgesamt stellt sich mich hier die Frage, ob es eine Möglichkeit gibt überhaupt eine starke soziale Komponente ohne einen gemeinsamen physischen Raum zu erschaffen.

Dynamik
Erst die Schrift machte Erzählungen zu etwas statisch festgeschriebenem. Heute können Erzählungen wieder dynamisch werden. Zum einen kann der Inhalt weiter entwickelt werden (z. B. durch user-generated content). Zum anderen finde ich eine Anpassung unter Berücksichtigung zuvor festgelegter Daten wie beispielsweise Ort, Zeit oder Wetter denkbar. Letzteres erinnert dabei jedoch stark an die generative Gestaltung, weshalb ich diesen Ansatz noch sehr fragwürdig finde. Daten bzw. Information bewohnen laut Han »die geglättete Zeit aus indifferenten Gegenwartspunkten«1. Erzählungen sind jedoch keine bloßen Abfolgen unzusammenhängender Punkte, sondern bestehen und leben von der geschickten Verflechtung einzelner Elemente, die eine zeitliche Struktur von Dauer hervorbringen. Einer Narration. Um diese Elemente auch in dynamischen, interaktiven Erzählungen sinnvoll zu vereinen, benötigt es ein gut durchdachtes Patchwork der einzelnen Bestandteile.

Einfacher Zugang, wenige/transparente Schnittstellen
Ein einfacher Zugang gilt generell für alle Erzählungen, unabhängig der Medien. Dennoch werden durch neue Technologien, wie z. B. Oculus Rifts, Zugänge erstmals erschwert. Insgesamt werden Schnittstellen jedoch transparenter und Technologien wie VR-Brillen sind deutlich flexibler als stationäre Rechner oder Fernseher. Zwar sind sie momentan noch kein weit verbreitetes Produkt, da sie zum einen nicht sehr erschwinglich sind und zum anderen wenige Angebote da sind, die die Allgemeinheit zum Kauf einer teuren Brille überzeugt. Klar ist aus meiner Sicht aber, dass sie sowie auch Eye-Tracking-Geräte und ähnliche Technologien in naher Zukunft Einzug ins deutsche Wohnzimmer finden werden. Spannend wird das auch für das interaktive Storytelling. Wenn Geräte, die auf beispielsweise Bewegung, Gestik oder Sprache reagieren, zum Standard werden, eröffnet sich eine völlig neue Welt des Erzählens, die die Interaktion erneut auf völlig neues Level stellen wird. Es wird für mich vor allem an dieser Stelle der Trend zur natürlichen Art der Erzählung deutlich. Eine Steuerung ohne Endgerät in der Hand, kann eine Erzählung zum Erlebnis werden, man kann Teil von ihr werden.

Hohe Immersion
Der Drang eine hohe Immersion zu erzielen ist nicht neu. Durch die vorangegangenen Punkte, wird sie jedoch deutlich erhöht und auch hier wird ein völlig neues Level erreicht werden. Schon heute ist die Immersion bei VR-Brillen immens hoch – man ist überrascht, wie schnell sich das Gehirn austricksen lässt und wie echt sich virtuelle Realität anfühlen kann.

Quellen
  1. Han, Byung-Chul: »Die Errettung des Schönen«, Frankfurt am Main 2015, 3. Auflage, S. 19.

Rückbesinnung auf eine natürliche Art der Erzählung

Passen sich Erzählungen wieder der Natürlichkeit des menschlichen Erzählens an?

Meine momentane Überlegung ist, ob ein Trend zu erkennen ist oder die Möglichkeit besteht, dass Erzählungen künftig vermehrt unter Berücksichtigung der Natürlichkeit des menschlichen Erzählens als soziales Erlebnis konzipiert werden.

Der Informationsphilosoph Floridi beschreibt beispielsweise, dass »Schnittstellen zunehmend weniger sichtbar werden«1. Aus meiner Sicht könnte das ein Ansatz dafür sein, dass man schon aus technischer Sicht »natürlicher« erzählen können wird. Wenn Schnittstellen unbemerkt bleiben und der Rezipient »Eins« mit der Erzählung ist, kann eine größere Immersion erzielt werden. Sprich, es kann dadurch eine größere Auflösung der Grenze zwischen Realität und Fiktion stattfinden.

Nach meinem Empfinden ist auch die Interaktion innerhalb einer Erzählung natürlicher, als die statische Festschreibung innerhalb von Büchern, Filmen oder Theaterstücken. So ist die Möglichkeit auf Rückfragen – also Interaktion – auch bei Alltagserzählungen gegeben. Diese Ansätze möchte ich gerne im Forschungsverlauf berücksichtigen und weiter verfolgen.

Quellen
  1. Floridi, Luciano: »Die 4. Revolution – Wie die Infosphäre unser Leben verändert«, Berlin 2015, S. 67.

Präsentation II

Präsentation vom 18.12.2015.

Am 16.12.2015 habe ich meine zweite Zwischenpräsentation gehalten.In der Präsentation stelle ich einen variablen Fragenkatalog für mein Interview mit dem Primatologen Dr. Christoph Schwitzer vor. Des Weiteren präsentiere ich einen verbesserten Vorschlag für meine grafische Analyse, die sich nun vom Videoformat gelöst hat.

Screenshot in grafische Elemente aufgelöt
Beispielhafte Abbildungen der grafische Analyse von zeit.de (2011–2104)

Mit dem Fokus auf transmedialer Erzählung, gebe ich einen kurzen Einblick in das »Transmedia Manifest«, sowie einen Überblick über ausgewählte Erzählungen wie »About:Kate« und »netwars / out of CTRL«.

Dabei beschäftigen mich zwei Hauptfragen:
· Wie werden neue Medien genutzt?
· Welche neuen Erzähl-Formate können entstehen?

Ein weiterer Fokus liegt auf dem Nutzungsverhalten der Zuschauer mit den Fragen, wo und wie Inhalte mit welchen Endgeräten konsumiert werden. Des Weiteren suche ich Gründe für diese Veränderung, wie z. B. weniger Zeit oder verkürzte Aufmerksamkeitsspannen. Spannend finde ich auch, ob dadurch zwischenzeitlich modulare Erzählweisen den Vorzug erhalten und ob dabei der reine Konsum oder Interaktion im Fokus steht. Bei diesen Fragen helfen mir u. a. die Onlinestudien von ARD und dem ZDF (Nutzung von Bewegtbild » und Die Nutzung des Internets unterwegs »).

Mögliche Ansätze

Als weitere Ansätze halte ich die Verwendung von Augmented oder Virtual Reality sowie 2nd Screen-Anwendungen für sehr spannend. Bereits in meiner Bachelor-Arbeit habe ich AR als Technologie genutzt, um Inhalte beispielsweise auf Postkarten oder Aufklebern in der Bahn darzustellen. Zusätzlich habe ich nun die Google Cardboard (Erste Gehversuche mit der Google Cardboard ») getestet, um Möglichkeiten von VR-Brillen auszuloten. Hier könnte sich auch das plattformunabhängige WebVR als interessante und nutzbare Technologie herausstellen.

Auf einer Postkarte abgespieltes Video durch die AR-App Aurasma
Auf einer Postkarte abgespieltes Video durch die AR-App Aurasma

Transmedia Manifest

Während der Buchmesse in Frankfurt 2011 schlossen sich neun ausgewählte Kreative aus verschiedenen Medienbereichen zusammen und entwickelten elf Thesen für die Zukunft des Storytelling: Das Transmedia Manifest.

Der technologische Wandel schreitet unaufhörlich voran und bietet ständig wachsende Möglichkeiten, neue Arten von Erzählungen zu entwickeln. Neben technischen Innovationen, spielt auch das veränderte Nutzungsverhalten eine Rolle. So werden Zuschauer an anderen Orten oder über eine andere Kombination von Medien und Inhalten angesprochen. 2nd Screen-Anwendungen sind dabei nur ein Beispiel: Sie machen sich die Angewohnheit vieler Zuschauer zu Nutze, ihre Smartphones parallel zum TV schauen zu nutzen.

Während der Buchmesse in Frankfurt 2011 schlossen sich neun ausgewählte Kreative aus verschiedenen Medienbereichen zusammen, die davon überzeugt sind, dass wir nicht mehr länger Zuschauer, Hörer, etc. sind, sondern »experiencers«1 . Wir erfahren und entdecken Erzählungen und gestalten sie zum Teil selbst mit.

Mit diesem Ansatz entwickelten sie elf Thesen für die Zukunft des Storytelling: Das Transmedia Manifest.

Es beinhaltet u. a. die Ansätze, dass eine Erzählung mehrere Einstiegs­punkte und wählbare Handlungsstränge besitzt. Des Weiteren ist eine Interaktion mit Protagonisten möglich, Realität und Fiktion verschwimmen.2

Das vollständige Manifest ist zu finden auf:
https://transmedia-manifest.com/

Ich halte das Manifest für einen guten Anhaltspunkt, vor allem mit Blick darauf, dass es bereits 2011 entwickelt wurde. Ohne mich damals genauer mit der Thematik auseinandergesetzt zu haben, schätze ich jedoch, dass sich zwischenzeitlich zum einen die Anfangseuphorie transmedialer Erzählungen gelegt hat und sie zum anderen nichts mehr unbekanntes sind. Sie werden meiner Einschätzung nach zunehmenden Einfluss haben, jedoch ohne speziell so benannt werden zu müssen.

Quellen
  1. Vgl. »The Manifest«, URL: https://transmedia-manifest.com/, abgerufen am 10.12.2015.
  2. Ebd.

Die Hypergeschichte

Im folgenden ein kleiner Überblick über die Hypergeschichte, der im Zuge eines Vortrags, auf Grundlage des Buchs »Die 4. Revolution« von Luciano Floridi, erarbeitet wurde.

Deutschland sowie vor allem die weiteren G7-Länder Frankreich, Italien, Großbritannien, Kanada, Japan und die USA befinden sich momentan im Übergang zur Hypergeschichte. Das macht sich vor allem durch die wirtschaftliche Abhängigkeit von Informationen bemerkbar. Immerhin basieren in den G7-Staaten etwa 70 % des BIP auf ihnen. Gleichermaßen sind Informationen ein entscheidender Faktor, den Wohlstand zu verbessern und die Entwicklung von Innovation voranzutreiben.1
Zudem macht sich der Übergang durch stetig wachsende Rechenleistungen und steigenden Datenmassen ersichtlich. Der Speicher wird, laut Floridi, knapper und Netzwerkverbindungen stoßen an ihre Grenzen.2 So wurde beispielsweise der Standard IPv4 bereits von IPv6 abgelöst, um mehr Verbindungen – nämlich 18-stellige statt 12-stellige IP-Adressen – zu ermöglichen.

Der Umgang mit Informationen

Während in der »Geschichte« bedacht ausgewählt wurde, welche Informationen auf Papyrus, Tontafeln, usw. festgehalten werden sollten, werden sie in der Hypergeschichte zunächst gehamstert. Alles wird gespeichert, um dann sorgfältig auszuwählen, was wieder gelöscht werden soll.3 Diese Eigenart der Hypergeschichte, sowie andere Eigenschaften der »digitalen Welt« führen zum »Digitalen Gedächtnisverlust« – dem Verlust von Informationen.

Zum einen ist dieser Verlust darin begründet, dass Technologien nicht nur weiterentwickelt, sondern gänzlich ersetzt werden. Nicht jede Information schafft es dabei in die neue Technologie übernommen zu werden, veraltete Technologien können häufig durch das Fehlen der nötigen Geräte oder Hardware nicht mehr verwendet werden. Beispielsweise ist nicht jeder Song einer Schallplatte auf einer Kassette zu finden; nicht jeder Song einer Kassette wurde in die Technologie der CD oder MP3-Datei übertragen. Ein weiteres Beispiel ist die Diskette, die als Datenträger längst ausgedient hat und das zugehörige Floppy-Laufwerk ist nur noch selten aufzufinden. Selbst der Untergang von CDs scheint im Gange zu sein: Apple setzt schon jetzt auf Macbooks ohne CD-Laufwerk.4

Ein weiterer Grund für den digitalen Gedächtnisverlust ist die Überspeicherung von Daten. Neue Webseiten ersetzen alte Webseiten. Die Änderungen eines Textes in Text-Programmen werden nicht als neue Datei abgespeichert, sondern bestehende Text-Dateien werden überspeichert. Zum einen gehen hierdurch natürlich Daten verloren und Varianten werden verschmolzen. Zum anderen werden die Dokumente durch das erneute, veränderte Abspeichern in einen Zustand der Geschichtslosigkeit geführt. Differenzen werden gelöscht, obwohl die Vergangenheit für gewöhnlich eine nachvollziehbare Abfolge von Veränderungen darstellt.5

Zukünftige Generationen können dadurch die geschichtliche Abfolge nicht nachvollziehen. Viel problematischer ist jedoch eine für uns immer währende Gegenwart, das »Einschließen in der ewigen Gegenwart«6, wenn die Vergangenheit stets neu geschrieben wird. Der richtige Umgang mit Informationen ist daher essentiell. Die Schaffung, Gestaltung und Handhabung von Informationen sieht Floridi deshalb als wichtige Basis für die zukünftige Entwicklung der Infosphäre.7

Dieser Überblick steht im direkten Zusammenhang mit Erkenntnisse und Eindrücke zu Luciano Floridis Buch »Die 4. Revolution«, wo ich eigene Erkenntnisse, Eindrücke und Gedanken formuliere.

Quellen
  1. Vgl. Floridi, Luciano: »Die 4. Revolution – Wie die Infosphäre unser Leben verändert«, Berlin 2015, S. 20.
  2. Vgl. Ebd., S. 44
  3. Vgl. Ebd., S. 40
  4. Vgl. Ebd., S. 36 f.
  5. Vgl. Ebd., S. 37
  6. Ebd.
  7. Vgl. Ebd.

Verschiebung meines Fokus: Transmediale Erzählungen

Mein Fokus verschiebt sich zunehmend auf transmediale Erzählungen, da ich hier viel Potential für kommende Erzählungen sehe.

Bei meinen ersten zwei Ansätzen ging es zum einen darum, wie sich das Web in seinen Text-/Bild-Verhältnissen und in seiner Interaktivität über die Jahre hin verändert hat. Dazu habe ich Screenshots der letzten 10-20 Jahre grafisch dargestellt und die Webseiten mittels eines Farbsystems in die einzelnen Elemente aufgeteilt. Ein nächster Schritt sollte das Animieren der interaktiven Flächen sein, um im Vergleich zu sehen, welche quantitativen Änderungen es über die Jahre gab.
Zum anderen ging es in meinem zweiten Ansatz darum, mich genauer mit Netzkunst auseinandersetzen, sowie generell das Web als ein Abbild der Gesellschaft zu betrachten. Hier ist besonders die Arbeit mit dem Archiv »One Terabyte of Kilobyte Age« interessant. Olia Lialina und Dragan Espenschied analysieren Webseiten, die auf den geocities-Servern, der 2009 geschlossen wurde, waren. Gerade hier ist besonders der gesellschaftliche Aspekt spannend, da der Umgang mit dem Web zu Beginn natürlich ein anderer war. Das Web war ein offenes und freies Medium, in das man – aus kultureller Sicht – große Hoffnungen steckte.

Bisherige Erkenntnisse als Basis

In diesem Bereich blieb es bisher nur bei der Recherche zu einzelnen Projekten. Insgesamt hat sich nun mein Fokus auf digitale Erzählungen verschoben. Die Netzkunst und die gesellschaftlichen Aspekte des Webs werden dabei nicht verworfen. Hier sehe ich noch immer einen wichtigen Ansatz für meine Arbeit. Meinen ersten Ansatz, nämlich der der Web-Analyse, lege ich jedoch erstmal auf Eis. Dieser rein analytische Ansatz in Bezug auf die Architektur einer Webseite, stand nie im Fokus meiner Arbeit und war als eine Art »Vorarbeit« gedacht, um grundsätzliche Mechanismen des Webs zu verstehen und aufzuzeigen.

Wie erwähnt, hat sich mein Fokus auf digitale Erzählungen verschoben, genauer auf transmediale Erzählungen. Hier sehe ich besonders viel Potential für kommende Erzählungen, da das Erzählen über mehrere Medien hinweg, sowie die Einbeziehung des Publikums als »Autoren« anstelle von reinen »Konsumenten«, aus meiner Sicht einen immer größeren Stellenwert genießen wird. Ich glaube daran, dass Rezipienten Erzählungen nicht nur von außen betrachten, sondern Teil davon sein wollen. Dass sie Geschichten selbst entdecken und erleben wollen.

Präsentation I

Am 18.11.2015 habe ich meine erste Zwischenpräsentation gehalten. In der Präsentation zeige ich erste Ansätze einer grafischen Analyse sowie Auszüge meiner Recherche.

Am 18.11.2015 habe ich meine erste Zwischenpräsentation gehalten. In der Präsentation zeige ich erste Ansätze einer grafischen Analyse sowie Auszüge meiner Recherche.

Grafische Analyse

Die grafische Analyse von Webseiten gehört zu einem ersten Ansatz meiner Masterarbeit. Dabei möchte ich Webseiten mittels Screenshots der letzten zwei Jahrzehnte auf ihre Text-Bild-Verhältnisse und Interaktivität untersuchen. Meine Erwartung ist, dass zum einen die Bilderwelt einen wachsenden Anteil erhält und dass das Ausmaß der Interaktivität steigt.

Die ersten Ergebnisse beziehen sich dabei auf folgende Beiträge:
Web-Analyse: spiegel.de seit 1996
Web-Analyse: google.de seit 2001

Generell war auffällig, dass sich bei Internet-Giganten wie z. B. google oder Apple, dessen Seite ich auch untersucht habe, kaum etwas an der grundlegenden Seitenarchitektur geändert hat. Zwar stecken im Hintergrund sicherlich neue Technologien, jedoch sieht es bei reiner Betrachtung des Wireframes so aus, als hätte man nur die einzelnen Grafiken wie z. B. Apple Link-Buttons an aktuelle Design-Standards angepasst.
Bei spiegel.de ist dagegen bezeichnend, dass kaum Konstanz zu sehen ist und ständig neu experimentiert und gerelauncht wurde. Bis heute hat spiegel.de aus meiner Sicht keine Webseite, die aktuellen Ansprüchen genügt.

Das Medium Web

Ein zweiter Ansatz ist die Auseinandersetzung mit Netzkunst sowie mit Formen und Projekten, die mir im Umgang mit dem Medium Web an sich oder durch die Reflexion gesellschaftlicher Aspekte als besonders interessant erscheinen.

Innerhalb des Rechercheteils stelle ich folgende Inhalte vor:
Olia Lialina: »My boyfriend came back from the war!«
Dragan Espenschied & Olia Lialina: »One Terabyte of Kilobyte Age« und »Once upon«
David Dufrense: Das Doku-Game »Fort McMoney«

Ein weiteres, präsentiertes Projekt ist »The wilderness downtown« von Chris Milk. Bei diesem interaktiven Musikvideo/Kurzfilm von Arcade Fire wird zu Beginn die eigene Stadt abgefragt. Mit dieser Information werden mit Hilfe von Google Maps Bilder bzw Kamera-Fahrten in das Video gespeist. Dazu öffnen sich weitere Browserfenster
und der sichtbare Bereich wird erweitert. Neben der Verbindung neuer Technologien finde ich das Projekt unter anderem wegen dieser unüblichen Nutzung des Formats Web sehr interessant.

Abbildungen
  1. Titelbild: Eigener Screenshot; Milk, Chris: »The wilderness downtown« – Musikvideo von Arcade Fire, URL: http://www.thewildernessdowntown.com, USA 2010, abgerufen am 17.11.2015.

Web-Analyse: google.de seit 2001

Eine Analyse der Webseite www.google.de und ihre Veränderung seit 2001 bezüglich der Bild-Text-Verhältnisse und Interaktivität.

Ich möchte an Hand veralteter Screenshots analysieren wie sich das Web in den letzten 10-20 Jahren sowohl in den Text-Bild-Verhältnissen als auch in seiner Interaktivität verändert hat. Die Vermutung liegt nahe, dass sich der Bild- gegenüber dem Textanteil stark vergrößert und die Interaktivität zugenommen hat. Die Vermutung ist begründet in verbesserter Technologie sowie dem breiten Zugang zum Web. Im Folgenden sind grafisch dargestellte Screenshots der Seite google.de seit 2001.

Mittels eines Farbsystems teile ich die Screenshots in die einzelnen Elemente auf. In einem nächsten Schritt soll das Animieren der interaktiven Flächen erfolgen. Im Gesamtbild soll ein Vergleich zu sehen sein, der diese Änderungen über die Jahre hinweg darstellt.
Die Screenshots stammen von der »Waybackmachine« (Internet Archive: Waybackmachine »). Soweit möglich habe ich versucht die Screenshots im jährlichen Rhythmus auszuwählen. Da die Anzahl der Screenshots aus den frühen Jahren des Webs aus ersichtlichen Gründen sehr dürftig ist, konnte ich diesen Rhythmus nicht durchgehend einhalten. Die folgende Darstellung ist im Bildschirmformat 1920 x 1080 px, da zu Beginn die Idee bestand, die Veränderung in einem Video darzustellen. Richtigerweise müssten die Seiten komplett in ihrer Länge dargestellt werden.

Das Farbsystem:
Das Farbsystem wurde in einem zweiten Schritt verbessert. Das folgende System berücksichtigt beispielsweise Interaktivität als einzelne Farbe. Im neuen System werden Art und Funktion deutlich unterschieden.
Text
Bild
Icons
Links
Interaktive Felder
Werbefläche

 

Übersicht der Screenshots von google.de
Übersicht der Screenshots von google.de seit 2001. Auffallend ist, dass sich google.de im Vergleich zu spiegel.de (spiegel.de seit 1996 ») strukturell kaum geändert hat. Die Grundstruktur wurde lediglich durch minimale Anpassungen aktualisiert und erweitert. Damit ist Google seinem anfänglichen Grundsatz noch immer treu. Nämlich auf vollgepumpte Werbungsseiten, wie man sie von der Suchmaschine yahoo.de kannte, zu verzichten.

 

Auf Basis eines Screenshots vom 18.4.2001
Auf Basis eines Screenshots vom 18.4.2001

 

Auf Basis eines Screenshots vom 29.5.2002
Auf Basis eines Screenshots vom 29.5.2002

 

Auf Basis eines Screenshots vom 27.3.2003
Auf Basis eines Screenshots vom 27.3.2003

 

Auf Basis eines Screenshots vom 7.4.2004
Auf Basis eines Screenshots vom 7.4.2004

 

Auf Basis eines Screenshots vom 7.4.2005
Auf Basis eines Screenshots vom 7.4.2005

 

Auf Basis eines Screenshots vom 6.4.2006
Auf Basis eines Screenshots vom 6.4.2006

 

Auf Basis eines Screenshots vom 5.4.2007
Auf Basis eines Screenshots vom 5.4.2007

 

Auf Basis eines Screenshots vom 10.4.2008
Auf Basis eines Screenshots vom 10.4.2008

 

Auf Basis eines Screenshots vom 3.4.2009
Auf Basis eines Screenshots vom 3.4.2009

 

Auf Basis eines Screenshots vom 2.4.2010
Auf Basis eines Screenshots vom 2.4.2010

 

Auf Basis eines Screenshots vom 2.4.2011
Auf Basis eines Screenshots vom 2.4.2011

 

Auf Basis eines Screenshots vom 5.4.2012
Auf Basis eines Screenshots vom 5.4.2012

 

Auf Basis eines Screenshots vom 4.4.2013
Auf Basis eines Screenshots vom 4.4.2013

 

Auf Basis eines Screenshots vom 3.4.2014
Auf Basis eines Screenshots vom 3.4.2014

 

Auf Basis eines Screenshots vom 3.4.2015
Auf Basis eines Screenshots vom 3.4.2015
Quellen
  1. Die Waybackmachine ist ein Internetarchiv von archive.org, das Screenshots sämtlicher Webseiten der letzten Jahrzehnte enthält. URL: https://archive.org/web/, abgerufen am 24.10.2015.
Abbildungen

Eigene grafische Abbildung auf Basis der Screenshots des Internetarchivs, URL: https://web.archive.org/web/*/www.google.de, abgerufen am 24.10.2015.

netwars / out of CTRL

Lena Thiele stellt im Workshop »Transmediales Storytelling« das Projekt »netwars / out of CTRL« vor. Ihr gelingt damit ein umfangreiches, transmediales Projekt dessen inhaltlicher Fokus darauf liegt, die Menschen für die Gefahren des Netzes zu sensibilisieren.

Bei der Fachtagung des Journalistinnenbunds 2014 stellte Lena Thiele im Workshop »Transmediales Storytelling« das Projekt »netwars / out of CTRL« vor. Lena Thiele gelingt damit ein umfangreiches, transmediales Projekt dessen inhaltlicher Fokus darauf liegt, die Menschen für die Gefahren des Netzes zu sensibilisieren – denn wir sind schon längst mitten im Cyberwar. Neben den interaktiven dokumentarischen Web-Serien, streut sich das Projekt über weitere Medien: Es gibt eine 52-minütige TV-Dokumentation, eine TV-Serie, eine Graphic Novel App, sowie eine Audio- und E-Book-Serie.

Für mich steht v.a. die Web-Serie im Vordergrund. Sie setzt sich aus fünf Episoden zusammen, die jeweils durch Expertenmeinungen oder weiterführende Informationen wie z. B. die »ICS Sicherheitslücken« angereichert sind. Der Nutzer kann selbst entscheiden, welche zusätzlichen Informationen er anschauen oder lesen möchte. Er klickt sich damit spielerisch durch das teils humoristisch verpackte Wissen rund um die Thematik. »Gimmicks« wie ein ungefährlicher, aber nicht selbst gestarteter Download, zeigen mit Nachdruck, wie offen unsere Computer und Systeme sind. Der Titel der Episode 3 »Speichere dein Leben« gibt dagegen einen Hinweis darauf, wie viel heutzutage von gerade diesen Systemen abhängt.

»netwars / out of CTRL« ist aus meiner Sicht jedoch nicht nur deshalb interessant, weil es sich eines hochaktuellen Themas bedient. Sondern die Art der Erzählung macht für mich den ausschlaggebenden Unterschied. Mir macht es als Nutzer Spaß, mich in diesem Kosmos aus Wissen selbst fortzubewegen. Zu Klicken, was mir instinktiv auffällt und andere Dinge getrost vernachlässigen zu können, ohne das Gefühl zu haben, einen entscheidenden Punkt des Plots verpasst zu haben. Ich kann mich mit dieser Art der Erzählung perfekt sättigen, ohne übersättigt zu werden und meine Nutzung auf den Punkt darauf abstimmen, wie viel ich schon weiß und wie viel ich noch wissen möchte.

Momentan stellt das Projekt für mich nur eine kleine, kurze Recherchestation dar, die erwähnt werden will. Bei Bedarf wird die Recherche noch analytisch vertieft.

Website: netwars-project.com

Abbildungen
  1. Titelbild: Eigener Screenshot; Thiele, Lena: »netwars / out of CTRL«, URL: netwars-project.com/de/webdoc/episode2, Deutschland 2013, abgerufen am 18.1.2015.

Web-Analyse: spiegel.de seit 1996

Eine Analyse der Webseite www.spiegel.de und ihre Veränderung seit 1996 bezüglich der Bild-Text-Verhältnisse und Interaktivität.

Ich möchte an Hand veralteter Screenshots analysieren wie sich das Web in den letzten 10-20 Jahren sowohl in den Text-Bild-Verhältnissen als auch in seiner Interaktivität verändert hat. Die Vermutung liegt nahe, dass sich der Bild- gegenüber dem Textanteil stark vergrößert und die Interaktivität zugenommen hat. Die Vermutung ist begründet in verbesserter Technologie sowie dem breiten Zugang zum Web. Im Folgenden sind grafisch dargestellte Screenshots der Seite spiegel.de seit 1996.

Mittels eines Farbsystems teile ich die Screenshots in die einzelnen Elemente auf. In einem nächsten Schritt soll das Animieren der interaktiven Flächen erfolgen. Im Gesamtbild soll ein Vergleich zu sehen sein, der diese Änderungen über die Jahre hinweg darstellt.
Die Screenshots stammen von der »Waybackmachine«1 (Internet Archive: Waybackmachine »). Soweit möglich habe ich versucht die Screenshots im jährlichen Rhythmus auszuwählen. Da die Anzahl der Screenshots aus den frühen Jahren des Webs aus ersichtlichen Gründen sehr dürftig ist, konnte ich diesen Rhythmus nicht durchgehend einhalten. Die folgende Darstellung ist im Bildschirmformat 1920 x 1080 px, da zu Beginn die Idee bestand, die Veränderung in einem Video darzustellen. Richtigerweise müssten die Seiten als Wireframes dargestellt werden.

Das Farbsystem:
Das Farbsystem wurde in einem zweiten Schritt verbessert. Das folgende System berücksichtigt beispielsweise Interaktivität als einzelne Farbe. Im neuen System werden Art und Funktion deutlich unterschieden.
Text
Bild
Icons
Links
Interaktive Felder
Werbefläche

Screenshots der spiegel.de seit 1996 grafisch dargstellt
Eine Übersicht aller grafisch dargesteller Screenshots. Bezeichnend ist, dass kaum Konstanz in den Seiten ist und ständig neu experimentiert und gerelauncht wurde. Bis heute hat spiegel.de aus meiner Sicht keine Webseite, die aktuellen Ansprüchen genügt. Die Webseite ist nicht responsive, dafür bietet spiegel.de immerhin eine eigene App an. Als Nachrichten-Seite arbeitet spiegel.de natürlich mit viel Text, jedoch sieht man in den letzten Darstellung schon deutlich, dass Headerbilder eine immer größere Fläche einnehmen und die Seiten zumindest teilweise geordneter aussehen.

 

Auf Basis eines Screenshots vom 23.12.1996
Auf Basis eines Screenshots vom 23.12.1996

 

Auf Basis eines Screenshots vom 11.12.1997
Auf Basis eines Screenshots vom 11.12.1997

 

Auf Basis eines Screenshots vom 11.2.1998
Auf Basis eines Screenshots vom 11.2.1998

 

Auf Basis eines Screenshots vom 29.4.1999
Auf Basis eines Screenshots vom 29.4.1999

 

Auf Basis eines Screenshots vom 16.8.2000
Auf Basis eines Screenshots vom 16.8.2000

 

Auf Basis eines Screenshots vom 13.7.2001
Auf Basis eines Screenshots vom 13.7.2001

 

Auf Basis eines Screenshots vom 3.6.2002
Auf Basis eines Screenshots vom 3.6.2002

 

Auf Basis eines Screenshots vom 9.6.2003
Auf Basis eines Screenshots vom 9.6.2003

 

Auf Basis eines Screenshots vom 15.4.2004
Auf Basis eines Screenshots vom 15.4.2004

 

Auf Basis eines Screenshots vom 22.7.2005
Auf Basis eines Screenshots vom 22.7.2005

 

Auf Basis eines Screenshots vom 12.7.2006
Auf Basis eines Screenshots vom 12.7.2006

 

Auf Basis eines Screenshots vom 11.7.2007
Auf Basis eines Screenshots vom 11.7.2007

 

Auf Basis eines Screenshots vom 10.7.2008
Auf Basis eines Screenshots vom 10.7.2008

 

Auf Basis eines Screenshots vom 15.7.2009
Auf Basis eines Screenshots vom 15.7.2009

 

Auf Basis eines Screenshots vom 21.7.2010
Auf Basis eines Screenshots vom 21.7.2010

 

Auf Basis eines Screenshots vom 13.7.2011
Auf Basis eines Screenshots vom 13.7.2011

 

Auf Basis eines Screenshots vom 19.7.2012
Auf Basis eines Screenshots vom 19.7.2012

 

Auf Basis eines Screenshots vom 17.7.2013
Auf Basis eines Screenshots vom 17.7.2013

 

Auf Basis eines Screenshots vom 16.7.2014
Auf Basis eines Screenshots vom 16.7.2014

 

Auf Basis eines Screenshots vom 15.7.2015
Auf Basis eines Screenshots vom 15.7.2015
Quellen
  1. Die Waybackmachine ist ein Internetarchiv von archive.org, das Screenshots sämtlicher Webseiten der letzten Jahrzehnte enthält. URL: https://archive.org/web/, abgerufen am 24.10.2015.
Abbildungen

Eigene grafische Abbildung auf Basis der Screenshots des Internetarchivs, URL: https://web.archive.org/web/*/www.spiegel.de, abgerufen am 24.10.2015.

Das Doku-Game »Fort McMoney« von David Dufrense

Wissensvermittlung als Erlebnis verpackt

»Fort McMoney« ist ein interaktives Doku-Game von David Dufrense, bei dem jeder Spieler mitbestimmen kann, wie es in Fort McMurray (Kanada) weitergeht. Die Ölindustrie ist dort riesig und die Spieler entscheiden über das Schicksal der Stadt. Man kann in Interviews und Gespräche der Einheimischen eintauchen und beispielsweise an Abstimmungen teilnehmen. Am besten man probiert es selbst unter http://fortmcmoney.com » aus.

Dieses Projekt habe ich für meine Recherchearbeit ausgewählt, da ich eine Kombination aus Dokumentation und Spiel für eine gute und spannende Lösung für interaktive Erzählungen halte. Durch Interaktion können zum einen die Geschehnisse beeinflusst werden, zum anderen der Verlauf des »Films« selbst. Dieses »Teil einer Geschichte werden« finde ich im Bezug auf meine Master-Arbeit sehr interessant, da die Verschmelzung von Film und Spiel sicher weiter zunehmen wird. Auch das realitätsnahe Thema gefällt mir gut. Des Weiteren finde ich diese Art der Wissensvermittlung, die nun – wenn auch nicht immer in Kombination mit einem Spiel – häufiger als interaktive Erzählung stattfindet, sehr passend. Zwar bedeutet eine Arbeit in dieser Form einen immensen inhaltlichen Aufwand, doch spricht bei gut gelungenen Projekten das Ergebnis (und das Erlebnis) für sich. Die generelle Frage wird weiter bleiben, welche neuen Formate nach solch‘ anfänglichen Hybridformen entstehen können.

Folge 1 »Boomtown« des Doku-Spiels Fort McMoney<sup>I</sup>
Folge 1 »Boomtown« des Doku-Spiels Fort McMoneyI
Übersicht möglicher Missionen, Umfragen und anderer interaktiver Elemente
Übersicht möglicher Missionen, Umfragen und anderer interaktiver ElementeII
Abbildungen
  1. Eigener Screenshot; Dufrense, David: »Fort McMoney«, URL: http://fortmcmoney.com/de/#/fortmcmoney, Kanada 2013, abgerufen am 17.12.2014.
  2. Ebd.

Olia Lialinas »My boyfriend came back from the war!«

»My boyfriend came back from the war!« von der Netzkünstlerin Olia Lialina gilt als Klassiker in der Netzkunst. Was macht das Projekt aus und welche Ansätze können in ihrer Erzählweise für aktuelle Erzählungen hilfreich sein?

»My boyfriend came back from the war!« ist ein Internetprojekt der Netzkünstlerin Olia Lialina, das 2016 bereits 20 Jahre alt wird. Die interaktive Hypertext-Erzählung besteht aus einem Gespräch zwischen einem Paar dessen Gesprächsfragmente Klick für Klick »aufgedeckt« werden und deren Beziehung gleichzeitig Stück für Stück zerbröckelt.
Die Fragmente können dabei visuell keinem der beiden konkret zugeordnet werden. Begleitet wird die Textebene von schwarz-weißen gifs, die dem Rezipienten als Anhaltspunkt dienen. So bringt beispielsweise eine Abfolge von Uhren mit verschiedenen Uhrzeiten eine zeitliche Ebene in die Narration.

Nach einem schwarzen Einstiegs-Bildschirm mit dem weißen Satz »My bofriend came back from the war. After dinner they left us alone.«, gelangt man auf eine Seite, die zwei Bilder zeigt: Ein sitzendes, voneinander abgewandtes Paar, sowie ein Fenster. Über Hyperlinks innerhalb der Texte und Bilder taucht man tiefer in die Geschichte ein, die verschiedene emotionale Ebenen durchläuft, so z. B.: »CAN anybody kill you?«, »I keep your photo here«, »you don’t trust me, I see« oder »FORGIVE ME«. Jeder Klick auf einen Hyperlink zerteilt den Bildschirm in immer kleinere Frames. Frames wurden vorwiegend in den 90er-Jahren für die Unterteilung einzelner Bereiche im Browser verwendet. Ist der Erzählstrang innerhalb eines Frames vorbei, ist keine Teilung mehr möglich. Übrig bleiben – neben den zwei Einstiegsbildern – schwarze Frames, die den gesamten Browser in einzelne Bruchstücke aufteilen. Eine schwarze, zerbröckelte Leere, die auf einen bestehenden Konflikt ohne weitere Lösung hinweist. 

Das Projekt wird an verschiedenen Stellen im Web inhaltlich genauer betrachtet. Ich möchte mich im Weiteren auf die für meine Arbeit relevanten Essenzen konzentrieren. Die Art der Erzählung kann als web fiction kategorisiert werden, wird aber häufig auch als »netfilm«1 bezeichnet. In einem Artists Statement beschreibt Olia Lialina, dass Filme im Internet eher als Information (Biografien, Stills, …), maximal als .avi existieren. Dabei sei Hypertext der beste Weg, Geschichten zu erzählen, vor allem da das Web – durch die Frames – dem Film näher ist als das Video.2

Diese Art ihrer Erzählung finde ich besonders spannend, da sie zum einen verschiedene Eigenschaften besitzt, die auch für heutige Erzählungen von Bedeutung sind. So z. B. non-lineare Erzählstrukturen und allem voran die Interaktivität mit dem Rezipienten. Zum anderen, weil Olia Lialina das Web nicht nur als abbildendes Medium nutzt, sondern mit ihm selbst sowie mit der dafür charakteristischen Technologie arbeitet. Das Medium nicht nur als charakterloses Trägermaterial, sondern seine technischen Vor- und (manchmal charmanten) Nachteile zu nutzen, ist aus meinem Empfinden auch für aktuelle Erzählweisen essentiell und übertragbar.

In einem Interview mit Tilmann Baumgärtel, beschreibt Olia Lialina ihre Bestrebung danach wie man »Film und filmisches Denken im Netz anders darstellen kann«3 und eine – ähnlich wie im Experimentalfilm – neue Sprache zu finden. Des Weiteren habe sie verstanden, dass das Projekt »von der Interaktion im Internet handelt: daß man miteinander kommuniziert, ohne sich zu sehen und ohne zu wissen, wer da spricht. Und daß sowieso niemand antwortet«4.
Zwar geht es der Netzkünstlerin nicht um die Technologie an sich, sondern um Liebe und Einsamkeit.5 Dennoch ist der Aspekt der Interaktion im Internet besonders spannend für mich. Auch wenn im Internet zwischenzeitlich Menschen antworten können oder auch wenn oft nur suggeriert wird, dass jemand direkt antwortet, gibt es bestimmte Eigenheiten des Mediums, die man sich bewusst zu Nutze machen kann. Mit ihnen experimentieren, sie erforschen kann. Vor allem aber zeigt, das »Verständnis« dafür, dass es sich um ein Web-Projekt mit Interaktion handelt, wie wichtig die Stellung der Rezipienten ist. Eine gewisse Interaktion zwischen Medium und Rezipient findet zwar nicht nur im Internet statt, dennoch ist diese Interaktion oder Reaktion für ein Projekt dieser Art bedeutend. Zum einen können natürlich verschiedene Werke auf Menschen unterschiedlich wirken und dadurch gewissermaßen auf einer Bedeutungsebene interpretiert und verändert werden. Zum anderen stellt sich gerade in interaktiven Projekten besonders die Frage nach möglichen – eventuell ungeplanten – Handlungen des Rezipienten. Wie reagiert er tatsächlich? Wie interagiert er? Welche Mechanismen sind wichtig, um eine Interaktion hervorzurufen? Die Frageliste wäre endlos.

Abschließend bleibt zu sagen, dass »My boyfriend came back from the war!« aus meiner Sicht absolut berechtigt ein Klassiker der Netzkunst ist. In Olia Lialinas Arbeiten finde ich generell die häufige Bezugnahme auf die aktuelle (Netz-)Kultur sehr interessant. Daher möchte ich in einem kommenden Schritt weitere Projekte von ihr mit einbeziehen sowie zusätzliche Recherchen zu früheren und aktuellen Erzählweisen anstellen.

Quellen
  1. Lialina, Olia: »Artists Statement«, URL: http://www.heise.de/tp/magazin/nk/3040/1.html, abgerufen am 10.10.2015.
  2. Vgl. Ebd.
  3. Baumgärtel, Tilmann: »Auf russisch habe ich solche Gefühle nicht – Interview mit Olia Lialina«, Stand: 25.11.1997 ,URL: http://www.heise.de/tp/artikel/6/6146/1.html, abgerufen am 10.10.2015.
  4. Ebd.
  5. Vgl. Ebd.