Der Dokumentarfilm (oder die Fantasy-Dokumentation) »Hyperland« aus dem Jahr 1990 wurde von Douglas Adams geschrieben und von Max Whitby produziert. In dem 50-minütigen Film geht es unter anderem um interaktives Multimedia sowie andere Technologien wie z.B. einen VR-Helm. Er zeigt dabei vorstellbare Ansätze für ein Hypermedium.
Der Dokumentarfilm (oder die Fantasy-Dokumentation1) »Hyperland« aus dem Jahr 1990 wurde von Douglas Adams geschrieben und von Max Whitby produziert. In dem 50-minütigen Film geht es unter anderem um interaktives Multimedia sowie andere Technologien wie z.B. einen VR-Helm. Er zeigt dabei vorstellbare Ansätze für ein Hypermedium.
Der Software-Agent stellt sich vor
Der Hauptdarsteller Douglas Adams schläft vor dem Fernseher ein und trifft in seinem Traum auf Tom Baker – die Personifizierung eines Software-Agenten. Mit der Frage, ob Adams gelangweilt vom linearen, nicht-interaktiven Fernsehen ist, tritt er mit Adams in Kontakt. Da jener aber überfordert mit dieser neuen Form der Kommunikation ist, fordert ihn der Agent auf, mit ihm zu interagieren. Baker beschreibt sich als eine Simulation, eine künstliche und komplett anpassbare Persönlichkeit, die nur als Anwendung in seinem Computer existiert.
Optisch an einen Butler angelehnt, präsentiert er sich dabei als selbstloser Assistent, der jederzeit für jede Art von Arbeit bereit ist. Er könne ihm sofortigen Zugang zu jedem Stück Information, das digital irgendwo auf der Welt gespeichert ist, ermöglichen: Jedes Bild, jeder Film, jeder Sound, jedes Buch, jede Statistik, jeder Fakt. Jede Verbindung zwischen allem, was er sich nur vorstellen kann.2
Als nächstes stellt der Agent die Konfigurationsoberfläche vor, von wo aus Adams alle Einstellungen vornehmen kann. Über eine grafische Benutzeroberfläche hat man die Wahl, wie der Assistent sprechen soll – ob forsch oder freundlich oder mit welchem Akzent –, was er an hat oder welche Spezies er sein soll.3 Es wird suggeriert, dass der Nutzer die komplette Kontrolle besitzt und alles erdenkliche auch möglich ist.
Bei der Frage, welchen Namen diese Software hat, nennt Tom Baker eine ganze Liste: Dynabook, Hyperspace, Cyberia, Infinite Virtual Address Space, Intelligent TV, Interactive Television, Interactive Multimedia oder Hypertext.4
Anlehnung an ein Hypermedium
Hyperland ist in seinem Aufbau selbst an ein Hypermedium angelehnt. So klickt sich Adams mithilfe seines Agenten über sogenannte Micons – ein Kunstwort aus Moving und Icons – durch den Informationsraum. Die geloopten Micons stehen dabei für eine Idee, ein Konzept oder ein Stück Information in irgendeiner Form.5
Neben diversen Beispielen interaktiver Systeme stellt Tom Baker Auszüge der historischen Entwicklung vor. So erwähnt er Vannevar Bushs Memex, Ted Nelsons Hypertext-Idee, die Gründung des MIT Media Labs und des Multimedia Labs, sowie Robert Abel,6 welcher als Pionier der Computeranimation und visueller Effekte7 oder sogar als Vater interaktiver Erfahrungen gilt.
Adams gelangt dabei zusammen mit Baker immer tiefer in die Informationssphäre, was am Beispiel des Atlantic Monthly, in dem Vannevar Bush seinen berühmten Essay »As We May Think« veröffentlichte, demonstriert wird. Douglas Adams wählt naheliegenderweise den Atlantik als nächstes Ziel. Hierüber gelangen sie zur Ökologie, Ozeanografie, Schifffahrt, Literatur und zu einem Live Feed. Der Live Feed zeigt als Quellen die Labrador-Basis und den Azoren-Gibraltar-Rücken. Auf Nachfrage, ob das wirklich live wäre, gesteht Baker ein, dass die Bilder 10 Sekunden Verzögerung hätten, was also live wäre.
Als weiteren »Tiefgang« wird die Sparte Literatur vorgestellt, welche passend zum Atlantik, assoziative Verknüpfungen zu Melville, Conrad, Hemingway, Coloridge, CS Forrester oder »Mehr« zeigt. Texte werden dabei parallel vorgelesen, da die Autoren scheinbar über Wasser schreiben.8
Im weiteren Verlauf werden verschiedene Systeme vorgestellt, so z. B. die interaktive Anwendung »Life Story – Demonstration Prototype« des MIT Labs. Auf den Film »Life Story« zugeschnitten, können beispielsweise spezielle Inhalte ausgewählt oder Transkriptionen abgerufen werden. Das Team bestand aus Steve Gano, Kristee Kreitman, Kristina Hooper, Mike Naimark und Fabrice Florin. Letzterer spricht im Interview davon, dass das interessante an Multimedia die Tatsache ist, dass man viele Stories zusammenführen kann. Es gibt nicht nur eine, sondern eine Verflechtung vieler. Diese Vielzahl macht aus seiner Sicht den Unterschied, so dass man von einer zur anderen wandert und den Themenkomplex aus unterschiedlichsten Blickwinkeln betrachten und miteinander vergleichen kann.9
Resümee
Für meine Nachforschungen hat der Film inhaltlich leider keinen großen Mehrwert. Zum einen liebe ich jedoch die Art und Weise, wie er umgesetzt ist. Zum anderen faszinieren mich die damaligen Ansichten, welche einerseits sehr zukunftsweisend wirken, andererseits aber sicher genau am Geist der Zeit liegen. Mitten im Aufbruch und längst auf dem Weg in ein neues Zeitalter.
Vor kurzem bin ich auf die interaktive Webdokumentation »Bear 71« von Leanne Allison und Jeremy Mendes aufmerksam geworden, welche vom »National Film Board of Canada« (NFB) mitgestaltet und -produziert wurde. Trotz dem ein oder anderen negativen Aspekt, halte ich sie für sehr gelungen.
Vor kurzem bin ich auf die interaktive Webdokumentation »Bear 71« von Leanne Allison und Jeremy Mendes aufmerksam geworden, welche vom »National Film Board of Canada« (NFB) mitgestaltet und -produziert wurde. Auch »Fort McMoney« wurde vom NFB koproduziert, welches grundsätzlich solche Formate unterstützt. Die Dokumentation ist aus dem Jahr 2012, im März 2017 wurde die VR-Version veröffentlicht.
Die Erzählung
Die Basis von Bear 71 bildet eine 360°-Karte, die ein Stück Wildnis im Banff Nationalpark in der kanadischen Provinz Alberta abbildet. Auf ihr sieht man beispielsweise die Orte, wo Kameras installiert sind oder wie sich einzelne, markierte und getrackte Tiere durch die Landschaft bewegen. Die Markierungen sind klickbar und man erhält dadurch weitere Informationen über einzelne Tiere oder Videoeinspieler der installierten Kameras.
Direkt zu Beginn – noch bevor man auf die Karte gelangt – wird ein Video eingespielt, das zeigt wie ein Grizzlybär betäubt und markiert wird und eine Nummer erhält: Nummer 71. Dargestellt durch eine weibliche Stimme, erzählt Bär Nummer 71 von hier an aus der Ich-Perspektive. In elf Erzählabschnitten berichtet der Bär aus dem Leben in der Wildnis, dem Zusammenleben mit dem Menschen und welche Gefahren die Zivilisation für die Wildnis mit sich bringt. Als beliebter Ferienort bleibt der Banff Nationalpark nicht frei von Müll, so dass Grizzlies beispielsweise Marshmallows zum Essen finden. Auch Straßen, die von Trucks befahren werden, sind eine große Gefahr für die Bären sowie alle anderen Tiere, die im Park leben. Ein etwas paradoxer Videoeinspieler einer installierten Kamera bringt dieses Zusammenspiel auf den Punkt: Ein Grizzlybär nähert sich der Kamera, während eine andere Szene – an der exakt gleichen Stelle – Touristen zeigt, die sich mit aufblasbaren Gummitieren und Badekleidung auf den Weg in den Park machen.
Bär Nummer 71 klagt darüber, dass sie den Menschen nichts tun würden und berichtet von einem wunderschönen Tag, an dem dieser mit einem anderen Bären nur Beeren aß. Fälschlicherweise wird oder wurde die Unterart des Braunbärs tatsächlich als tödliche Gefahr angesehen. Obwohl es zu tödlichen Unfällen mit z. B. verletzten Tieren oder welchen mit Jungtieren kommt, entfernen sie sich grundsätzlich vom Menschen.
Der Sound
Der Sound, der durchgängig unterlegt ist, erinnert mich offen gesagt an die Hintergrundmusik aus Konsolenspielen der 90er Jahre. Er klingt nur sehr viel dumpfer, langsamer und dramatischer. Mir ist jedoch unklar, ob er zufällig so ausgewählt wurde oder bewusst an ein Spiel erinnern soll. Ein Spiel, in dem der Mensch die Oberhand behält und mit den Tieren spielt – sie markiert, exakt trackt, verfolgt, kontrolliert und grundsätzlich jederzeit seine Macht ausnutzen kann.
Resümee
Insgesamt halte ich die Dokumentation für sehr gelungen. Ich finde es großartig, dass die Situation aus der Ich-Perspektive erzählt wird und der Bär somit eine menschliche Persönlichkeit erhält. Zudem gefällt mir die interaktive Komponente, die es mir erlaubt die Information auf der Karte zu erkunden sowie die Erzählabschnitte, welche aus meiner Sicht nicht in der aufgelisteten Reihenfolge gehört werden müssen. Die Abschnitte sind in sich geschlossen, so dass man jederzeit »querhören« kann. In Bezug darauf ist mir jedoch die Navigation nicht ganz klar. Manchmal starten Abschnitte während ich auf Tiere in der Karte klicke, so dass ich zunächst den Eindruck hatte, dass hier zusätzliche, kleine Geschichten erzählt werden. Anschließend war ich mir nicht sicher, ob es nicht doch Teil der großen Erzählung war und erst recht nicht, was ich nun gehört hatte oder nicht. Neben diesem Punkt hat mich die VR-Komponente nicht ganz überzeugt. Mit der Google Cardboard kann ich mich zwar ringsum auf der Karte umschauen, hätte mir aber gewünscht, dass beispielsweise auch 360°-Videos gezeigt werden. Aktuell ist eher eine Art Leinwand innerhalb der virtuellen Realität zu sehen, auf der das Video gezeigt wird. Mir ist jedoch bewusst, dass die Dokumentation eine Neuauflage einer bereits 2012 veröffentlichten Version ist und die Technik damals noch nicht so zugänglich war wie heute. Die zwei negativen Aspekte ändern für mich aber nicht den insgesamt sehr guten Eindruck, sondern wären lediglich Verbesserungsvorschläge, um die Erzählung noch attraktiver zu machen.
Abbildungen
Titelbild: Eigener Screenshot; Allison Leanne; Jeremy Mendes, National Film Board of Canada, »Bear 71«, URL: https://bear71vr.nfb.ca, abgerufen am 27.5.2017.
Eigener Screenshot; Allison Leanne; Jeremy Mendes; National Film Board of Canada, »Bear 71«, URL: https://bear71vr.nfb.ca, abgerufen am 27.5.2017.
Das World Wide Web ist noch jung und viele Technologien sind noch immer nicht ausgereift. Neue stehen dagegen schon in den Startlöchern und ich bin gespannt, wie sich einige Fragen zukünftig nochmal völlig neu stellen werden.
Innerhalb des Video-Tutorials »Learning HTML5 Video« auf lynda.com erläutert Tom Green in »A short history of web video« die Entwicklung von Videos im Web seit Mitte der 90er Jahre. Während schon nach 1995 die ersten Medienschnipsel in Form von Soundtracks oder Audio-Broadcasts ins Netz gelangten, kam das Video-Format erst zwischen 1996 und 2000 an.1 Sämtliche Unternehmen versuchten anschließend einen geeigneten Video-Player anzubieten und die für mich persönlich bekannteste Lösung war letztendlich ein Plug-In für den Adobe Flash Player.
Laut einer Statistik innerhalb des Artikels »Bye Bye Flash« von Mathias Brandt, nutzten 2011 immerhin noch 50 % aller Webseiten Flash.2
Fakten dieser Art finde ich insofern wichtig, dass ich es immer wieder erstaunlich finde, wie kurz die Geschichte des Webs ist und was tatsächlich erst in den letzten Jahren möglich wurde. Sich das immer wieder ins Gedächtnis zu rufen und seine eigene Denkweise dahingehend zu schärfen, finde ich essenziell, um ein Bewusstsein dafür zu entwickeln, wie sich das Web grafisch, inhaltlich und kulturell verändert hat und verändern könnte. Sämtliche Inhalte nehmen wir als selbstverständlich wahr, obwohl es die Technologie nach wie vor nicht zulässt, alle Inhalte völlig plattformunabhängig zu entwickeln. Je größer die technischen Möglichkeiten sind, umso befreiter kann man auch gestalten, selbst wenn dadurch kreative Umwege in den Hintergrund geraten könnten. Auf der anderen Seite werden die technischen Möglichkeiten auch auf das Bedürfnis der Schaffenden angepasst und evolviert. Daher gehe ich davon aus, dass sich das World Wide Web in den nächsten Jahren noch einmal massiv verändern wird. Zum einen kann man mit immer weniger Einschränkungen das Medium an sich noch besser nutzen, zum anderen stehen schon neue Technologien in den Startlöchern. Vor allem die Verbreitung von Voice Interfaces oder WebVR sehe ich als sehr spannend an, da sich hier die Frage nach grafischen Benutzeroberflächen nochmal völlig neu stellen könnte.
In meiner Präsentation stelle ich nicht nur das 2. Semester vor, sondern gebe auch einen oberflächlichen Überblick des 1. Semesters. In diesem Beitrag verweise ich auf die einzelnen Themen und Projekte.
In meiner Präsentation stelle ich nicht nur das 2. Semester vor, sondern gebe auch einen oberflächlichen Überblick des 1. Semesters. In diesem Beitrag verweise ich auf die einzelnen Themen und Projekte. Bei Bezugnahme auf Autoren mache ich hier keine Quellenangaben. Die Quellen sind im jeweiligen Beitrag angegeben.
Analyse grafischer Veränderungen
Im 1. Semester hatte ich im Großen und Ganzen zwei Schwerpunkte. Zum einen die Analyse der grafischen Veränderungen von Webseiten seit den 90er Jahren. Basierend auf Screenshots habe ich dabei die verändernden Text-Bild-Verhältnisse, sowie Interaktionen untersucht.
Das ist dahingehend sehr spannend, dass sich das Web und die Gestaltung durch neue technologische Möglichkeiten verändert haben, aber auch durch die Gesellschaft bzw. durch deren Nutzung und Ansprüchen stark beeinflusst wurden. Web-Analyse: google.de seit 2001 »
Die Studien sind wiederum wichtig für meinen 2. Schwerpunkt, in dem es um Erzählformen geht bzw. um die Fragestellungen, welche neuen Erzählformen durch neue Medien entstehen können.
Netzkunst
Eine Erzählform, die oft nicht als solche wahrgenommen wird, ich aber sehr spannend finde, ist die Netzkunst. Aus meiner Sicht besitzt sie eine spezielle Ästhetik und arbeitet sehr mit dem Medium selbst. Es wird nicht einfach als zu füllender Platz missbraucht, sondern das Medium und die Technik selbst werden zum Teil der Erzählung gemacht. So z. B. die Frames bei Olia Lialinas »My boyfriend came back from war!« Olia Lialinas »My boyfriend came back from the war!« »
Zusätzlich finde ich Künstler spannend, die im Netz mit dem Netz arbeiten wie z. B. Addie Wagenknecht. Sie hat generell kritische Arbeiten und eine Arbeit ist beispielsweise ein Diskurs zwischen webbasierten Erfahrungen (lolcatz, memes, gifs) und historisch geschlossenen Systemen, welche die physische Welt regieren. Das Internet ist nach ihr demokratischer Natur, aber kein demokratisches Medium. Sie stellt zudem fest, dass wir mehr auf die Bildschirme als aus unseren Fenstern schauen. Von Dildodrohnen und lolzcat »
Mit »Fort McMoney« habe ich mich im Bereich Dokumentarspiel auseinandergesetzt. Es enthält viele Cut scenes, spielerisch erlangt man hier neues Wissen. Generell ist Gamification ein wichtiges Thema, denn das Spiel wird als neues Leitmedium angesehen.
Als Erzählform finde ich es an sich spannend, jedoch hat nicht jeder Interesse sich mühevoll durch einen Film oder das Spiel zu spielen. Das Doku-Game »Fort MyMoney« von David Dufrense »
In Bezug auf die Kombination Film-Game habe ich eine Ausstellung im Filmmuseum Frankfurt besucht: »Film und Games. Ein Wechselspiel«, die genau diesen Aspekt beleuchtet. Schon Ende der 80er beeinflussen sich Game und Film gegenseitig, heutzutage verschmelzen die Medien noch mehr. »Film und Games. Ein Wechselspiel.« im Filmmuseum Frankfurt
Neben dieser temporären Ausstellung im Filmmuseum, halte ich die allgemeine für sehr interessant. Vor allem mit Blick auf Geräte zur Wiedergabe von Bildern oder für die Erzeugung von Bewegtbildern. Teilweise erinnern sie an heutige Geräte. Generell hatte ich mich bereits mit Augmented und Virtual Reality beschäftigt. Hier hatte ich die Überlegung, ob nicht sogar eine Transformation aus dem Digitalen ins Analoge zu schaffen ist. Mechanische GIF: Das Giphoscope »
Natürliche Art der Erzählung
Am Ende des 1. Semesters war meine Erkenntnis, dass sich alles Richtung »natürliche Art der Erzählung« entwickelt. Ähnlich wie vor der Schrift als alles noch dynamischer war. Dazu habe ich Parameter aufgestellt, welche solche Erzählungen erfüllen müssten: Rückbesinnung auf eine natürliche Art der Erzählung »
Projekte: Eye-Tracking-Demo und Giphy-Experiment
In Bezug auf transparente Schnittstellen, entwickelte ich mit zwei Medientechnikern in einer sehr kurzen Zeit eine Eye-Tracking-Demo. Der einzige Anspruch war zu zeigen, was möglich ist. Das Thema »Mystery« war dabei nicht unbedingt meins, jedoch fand ich es spannend, an so einem Projekt mitzuarbeiten. Die großen Fragen waren, was geht und was nicht, was ist grafisch umsetzbar und wo sind die Grenzen. Das verlassene Haus »
Eine weitere Projektidee ist eine Erzählung zu entwickeln, die automatisch bebildert wird. Das widerspricht Byung Chul Hans These, dass Wissen narrativ und Informationen additiv sind. Von daher ist es aus meiner Sicht grundsätzlich nicht möglich, Narrationen automatisiert aus Daten zu generieren. Jedoch ist meine Überlegung die, eine Narration mit genauem Rahmen und exakten Parametern für Daten zu schaffen, um sich einer automatisch bebilderten Erzählung anzunähern.
Eine weitere Idee, die aus dem Giphy-Experiment entstanden ist, ist eine personalisierte Bildsprache zu entwickeln. Dabei müsste der große Datenpool auf dem eigenen Rechner genau getaggt und beschrieben oder zukünftig per Bilderkennung analysiert werden. Die eigene Sprache wird bei dieser Idee in Bilder übersetzt.
Loop-Erzählungen
Eine Loop-Erzählung mithilfe von giphy z. B. als Rauminstallation zu erarbeiten wäre ein weiterer Ansatz.
Dieser Ansatz ist meiner These aus dem 1. Semester, nämlich dass wir durch die Schrift sequentiell denken, sehr nahe. Wir sind als Europäer im Gegensatz zu orientalischen Ländern sehr linkshemisphärisch geprägt. Insgesamt denken wir sehr in Kausalitäten und alles hat einen zeitlichen Aufbau. McLuhan spricht davon, dass wir zunehmend in einer Welt der Gleichzeitigkeit leben und die Zeit aufgehört hat und der Raum verschwunden ist. Durch Loop-Erzählung wäre die Positionierung aufgelöst – es gäbe keinen klaren Zeitpunkt. Die Geschichte würde sich nach und nach – non-linear – erschließen. Das globale Dorf – Raum, Zeit und Dynamik Von Loops und der Hyper-Realität »
Interface und Interaction Design
Momentan sind all diese Ansätze auf Eis gelegt, um mich neu zu orientieren. Insgesamt finde ich nämlich sowohl das Web an sich als auch Medieninstallationen sehr spannend. Es wäre auch eine Kombination beider Medien denkbar.
Des Weiteren habe ich mich mit Interaction Design beschäftigt. So z. B. mit Conversational User Interfaces, welche teilweise die graphischen Benutzeroberflächen ersetzen sollen. Zudem find ich den Ansatz der emphatischen Interaktion interessant, welcher sich darauf konzentriert, inwiefern Rückmeldungen für den Menschen wichtig und sinnvoll sind. Ein schönes Beispiel fand ich hier das eines Baggerfahrers, der jahrelang Bagger fährt und plötzlich eine Fernbedienung bekommt. Hier muss durch Rückmeldung wieder eine Verbindung zum Material aufgebaut werden. CUI – Conversational User Interface » Natural User Interface – Die unsichtbaren Schnittstellen » Empathische Interaktion »
Medieninstallation
Abschließend stelle ich zwei Installationen von Markus Kison vor. Eine davon ist »Pulse« dessen Zentrum ein Gummiobjekt ist, das auf dessen acht Seiten die Grundemotionen des Menschen darstellt. Die Daten kommen dabei via APIs n Echtzeit aus WordPress-Blogs. »Pulse« von Markus Kison » »Touched Echo« von Markus Kison »
Der momentane Stand ist der, dass ich große Motivation habe eine Medieninstallation zu bauen, die in irgendeiner Form auf Echtzeitdaten zurückgreift. Dafür werde ich weiter recherchieren, um genaueres über Technologie und Medienechnik zu erfahren.
Auf der diesjährigen dmexco in Köln stellt VICE die Amazin’ GIF machine vor. Zwar verstehe ich bis heute nicht, was es damit auf sich hat, stoße bei der Recherche jedoch auf das Giphoscope. Das wiederum erinnert mich an meinen Besuch im Filmmuseum Frankfurt.
Auf der diesjährigen dmexco in Köln stellt VICE die Amazin’ GIF machine vor. Leider ist die Maschine, in der Zeit in der ich dort bin, außer Betrieb und im Internet werde ich leider auch nicht wirklich fündig. Somit weiß ich bis heute nicht, was es damit auf sich hat, stoße bei meiner Suche jedoch auf das giphoscope (the creators project ») von Alessandro Scali und Marco Calabrese. Das giphoscope ermöglicht es überall – sogar ohne Computer – GIFs zu sehen, wenn man an der Kurbel des giphoscopes dreht. Laut Zach Sokol, dem Autor des Artikels, ist es von Herman Casler’s Mutoskope inspiriert1.
Bereits in einem früheren Artikel, habe ich nach einem Besuch im Filmmuseum über frühere Technologien zur Erzeugung von Bewegtbildern berichtet (»Film und Games. Ein Wechselspiel« im Filmmuseum Frankfurt »). Hierunter fiel auch das Mutoskop sowie andere Apparaturen wie beispielsweise das Stereoskop, die der Google Cardboard sehr ähneln. Ich war angespornt mit diesen analogen Techniken zu experimentieren, was ich jedoch bis heute nicht gemacht habe. Mein Gedanke war dabei die Übertragung einer alten Technik in die heutige Zeit. Scali und Calabrese gingen mit dem giphoscope den entgegengesetzten Weg, indem sie eine heutige, digitale Technik, in eine analoge, abgewandelte Technik von früher überführen. Alles in allem finde ich das Experiment sehr spannend und inspirierend und nehme es deshalb in meine Recherchesammlung auf.
Im Rahmen des Kurses »Realität und Gestaltung im Film« bei Dr. phil. habil. Hyun Kang Kim und Christine Reeh im Sommersemester 2016, ist das Thema unseres Vortrags »2001: Odyssee im Weltraum.« Der Vortrag wurde von sechs Studierenden gehalten. Ich übernahm dabei
zusammen mit einer anderen Studentin den Bordcomputer HAL 9000.
Im Rahmen des Kurses »Realität und Gestaltung im Film« bei Dr. phil. habil. Hyun Kang Kim und Christine Reeh im Sommersemester 2016, ist das Thema unseres Vortrags »2001: Odyssee im Weltraum.« Der Vortrag wurde von sechs Studierenden gehalten. Ich übernahm dabei
zusammen mit einer anderen Studentin den Bordcomputer HAL 9000.
Den Vortrag, über den es bereits einen Beitrag innerhalb der Dokumentation gibt (2001: Odyssee im Weltraum – HAL 9000), habe ich in einer Hausarbeit weiter ausgearbeitet.
Im Rahmen des Kurses »Realität und Gestaltung im Film« bei Dr. phil. habil. Hyun Kang Kim und Christine Reeh, ist das Thema unseres Vortrags »2001: Odyssee im Weltraum.« Der Vortrag wird von sechs Studierenden gehalten. Ich übernehme zusammen mit einer anderen Studentin den Bordcomputer HAL 9000.
Im Rahmen des Kurses »Realität und Gestaltung im Film« bei Dr. phil. habil. Hyun Kang Kim und Christine Reeh, ist das Thema unseres Vortrags »2001: Odyssee im Weltraum.« Der Vortrag wird von sechs Studierenden gehalten. Ich übernehme zusammen mit einer anderen Studentin den Bordcomputer HAL 9000. HAL 9000 ist ein fiktiver Bordcomputer, der eine – hochentwickelte – Künstliche Intelligenz darstellt und die ganze Mission steuert. Er ist der einzige, der die komplette Mission kennt.
Zukunftsvisionen 1986
In 2001 wird schnell klar, dass Kubrick und Clarke eine sehr klare Vorstellung der medialen Zukunft besitzen, die – wohlbemerkt im Jahr 1968 – fast schon visionär ist. Am Geburtstag seiner Tochter spricht Dr. Heywood Floyd beispielsweise via Videochat mit ihr1, was sehr stark an z. B. Skype erinnert. Während dem Essen schauen sie Nachrichten auf einer »Scheibe«2, was dem Tablet sehr nahe kommt. Zusätzlich trifft HAL als funktionierende und lernfähige, KI nicht nur den technologischen Stand im Jahr 2016, sondern übersteigt unseren Stand bei weitem.
HAL als 6. Mitglied der Besatzung
HAL wird durch ein rotes Kameraauge dargestellt, was eine mythologische Anspielung auf den einäugigen Zyklopen sein könnte, den Odysseus überlisten muss, um seine Fahrt fortzusetzen. Er ist weiter in jedem Raum der Raumstation allgegenwärtig und wird direkt zu Beginn als fehlerfreier Computer vorgestellt. Für die Vorstellung von HAL nutzt Kubrick die Form von Nachrichten bzw. die eines Interviews, das Live auf der Raumstation ausgestrahlt wird und mit HAL gehalten wird.3 Das ist ein wiederkehrendes und gutes Stilmittel, um viele Informationen kurz und knapp zu erläutern. Durch Stilmittel wie diese kann er auf eine Erzählerstimme verzichten.
In dieser Vorstellungsrunde wird HAL auch als 6. Mitglied der Besatzung bezeichnet, was seine wichtige Stellung und seine ausgeprägte Intelligenz unterstreichen.4 Des Weiteren spricht er mit einer sehr warmen Stimmte und wirkt oft sogar emotionaler als die Wissenschaftler selbst.
Demonstration der Überlegenheit
Seine Intelligenz wird kurze Zeit später in einem sprachgesteuerten Schachspiel unterstrichen. Er spielt gegen Frank und gewinnt, was ich als ersten Hinweis dafür sehe, dass er dem Menschen in seiner Intelligenz mindestens gleichkommt, wenn nicht sogar übersteigt. Sprachlich wird das mit HALs Aussage unterstützt: »Tut mir leid, Frank, du hast verloren«5. Dies hat insofern doppeltes Gewicht, dass insgesamt sehr wenig im Film gesprochen wird.
Fehlfunktion der AE 35 und KI mit menschlicher Gabe
In einem Gespräch mit Dave6 findet HAL einen Fehler in der Einheit AE 35. Da er fehlerfrei ist, steht dies außer Frage. Als später bekannt wird, dass es keinen feststellbaren Fehler gab, schiebt er das auf menschliches Versagen.
In dieser Szene wird klar, dass der Bordcomputer nicht nur Gefühle hat, sondern sehr viel mehr Eigenschaften, die gegen unsere Vorstellung einer KI sprechen. Beispielsweise lässt er sich zu Beginn der Szene eine Zeichnung zeigen, die Dave angefertigt hat und bewertet sie mit: »Das ist eine sehr schöne Zeichnung, Dave. Ich finde, Du hast viel dazu gelernt.« Des Weiteren erkennt er die Zeichnung sogar: »Das ist Mr. Hunter, nicht wahr?« Im Verlauf des Gesprächs fragt er Dave, ob er ihm eine persönliche Frage stellen darf und dass er ihn entschuldigen soll, wenn er ihm zu Nahe tritt. Dinge wie die Urteilskraft, Empathie oder später im Film das Treffen von Entscheidungen werden für gewöhnlich dem Menschen zugerechnet.
Zum anderen kann ein Algorithmus seinen Zustand nicht selbst ändern, sondern für eine bestimmte Eingabe erhält man eine bestimmte Ausgabe. Er denkt jedoch selbst mit: »Ich weiß auch nicht, ob meine Sorgen in kausalem Zusammenhang mit meinen Beobachtungen stehen.«
Das heißt HAL ist auf den ersten Blick weit mehr als nur eine algorithmisch, programmierte Künstliche Intelligenz.
Die 4. Kränkung der Menschheit
Der Film ist sehr frei interpretierbar und Clarke und Kubrick wollten auch, dass er interpretierbar bleibt. Es gibt keine klaren Antworten, aber für mich ist der Film eine Verdeutlichung der 4. Revolution, die auch der Informationsphilosoph Luciano Floridi (Die 4. Revolution ») beschreibt.
1. Kopernikus
Kopernikus beweist, dass wir in einem heliozentrischen System leben. Hier wird der Mensch, der bis dahin dachte, dass die Erde der Mittelpunkt des Universums ist, zum ersten Mal aus seiner zentralen Rolle gedrängt.
2. Darwin
Darwin begründet die Evolutionstheorie, die besagt, dass der Mensch vom Affen abstammt. Auch hier findet eine Verdrängung des Menschen statt, der nun kein göttliches und einzigartiges Geschöpf mehr zu sein scheint und deshalb bis heute noch nicht allumfassend anerkannt wurde.
3. Freud
Die 3. Kränkung wird Freud zugeschrieben, fällt jedoch auch in den Bereich der Gehirnforschung. Er entdeckt das Unterbewusstsein und der Mensch ist sich nun nicht einmal mehr sich selbst völlig transparent. Wir wissen heute, dass wir unterbewusst handeln und das stellt auch kein Problem mehr für uns dar.
4. Alan Turing
Durch Alan Turing entsteht die Informationsrevolution, welche laut Floridi die 4. Kränkung der Menschheit darstellt, in der der Mensch noch weiter aus seiner zentralen Rolle gedrängt wird. Der Computer ist dem Menschen z. B. in der Informationsverarbeitung weitaus überlegen und diese Überlegenheit wird sich zukünftig noch mehr ausbauen. Von Beginn an wurde auch in 2001 klar, dass der Mensch eher der Maschine dient als umgekehrt. Die Überlegenheit wird auch visuell deutlich gemacht, indem der Blick – aus dem Auge HALs heraus gefilmt – leicht erhöht ist.
Die vier Kränkungen im Film
Besonders spannend finde ich dabei, dass Kubrick die ersten drei Kränkungen scheinbar nicht nur aufnimmt, sondern die Menschen es zum einen annehmen und gut mit Ihnen leben können. Andererseits könnte sie jedoch auch den Kampf gegen diese bedeuten.
So wurde die Kränkung Kopernikus hingenommen und man fliegt raus ins Universum. Man hat verstanden, dass die Erde nicht die zentrale Rolle übernimmt, sondern einen kleinen Teil eines endlosen Universums. Andererseits könnte es bedeuten, dass wir Menschen das Bedürfnis haben, das Weltall zu besiedeln und zu besitzen, um uns damit zurück ins Zentrum des Ganzen zu rücken.
Dass wir vom Affen abstammen sieht man direkt zu Beginn des Films. Der erste Teil des Films zeigt zwei verfeindete Affenstämme. Aus den Knochen eines Tieres entdeckt ein Affe nun das Werkzeug, das gleichermaßen zur Waffe gegen den anderen Affenstamm wird, um eine Wasserquelle zurückzuerobern. Hier wird Kubricks Ansatz klar, dass Gefühle und Aggressionen der Menschen auf Werkzeuge übertragen und zu Waffen werden. In einem Schnitt wird der hoch geworfene Knochen, das Werkzeug, zu einem Raumschiff, das im Weltall schwebt.7 Hier ist die Evolution deutlich zu erkennen, später im Film wird doch genau diese Evolution durch die Abschaltung HALs symbolisch widerrufen.
Freud sehe ich z. B. im Dauerschlaf, den einige Wissenschaftler eingenommen haben. Ihre Dienste werden noch nicht gebraucht und damit können Ressourcen gespart werden. Hier ist nicht nur das Unterbewusstsein außer Kontrolle, sondern körperliche Funktionen wie die Nahrungsaufnahme sind völlig ausgesetzt. Hier sehe ich keine Anzeichen für den Kampf gegen diese Entwicklung, jedoch macht sich HAL diesen Zustand zu Nutze. Er stellt die Maschinen ab und tötet die Wissenschaftler, was die nächste Kränkung einläutet und ihre Unberechenbarkeit zeigt.8
Turing entdecke ich im ganzen Film wieder, in dem der Bordcomputer seine Überlegenheit demonstriert. Des Weiteren wird hier der Kampf gegen die Maschine mit der Abschaltung HALs, auf die ich später eingehen werde, sehr deutlich.
Insgesamt könnte es ein Hinweis auf die Gefahren sein, die menschliche Entwicklungen generell mit sich bringen können.
Misstrauen – Gespräch über die Abschaltung
Als Dave und Frank nach der falschen Fehlermeldung beginnen an HAL zu zweifeln, verschanzen sie sich in einer Kapsel9 deren Ton sie abschalten. Nach mehrmaliger Prüfung, ob sie HAL hören kann, diskutieren sie, ob sie HAL im Notfall abschalten können. Hier wird erneut seine herausragende Intelligenz deutlich: Bisher hatte der Bordcomputer alle Befehle der Besatzung ausgeführt und wie ein Algorithmus gearbeitet. Auf eine Eingabe erhielt man eine Ausgabe. In dieser Szene wartet er jedoch ab, da er merkt, dass etwas nicht stimmt. An späterer Stelle im Film wird klar, dass er Lippen lesen kann und das ganze Gespräch »belauscht« hat.10
Seine Aufgabe ist es, die Mission erfolgreich zu Ende zu bringen. In seiner Programmierung scheint jedoch festgelegt worden sein, dass er nicht lügen darf. Er hat dagegen nie gelernt, dass Morden schlimmer als Lügen ist und so versucht er nun mit aller Gewalt die loszuwerden, die die Mission gefährden könnten. Er tötet Frank und die restliche Besatzung.11 Dave ist der einzige, der es schafft zu überleben. Er beschließt HAL abzuschalten.
Die Abschaltung
In einer mehrminütigen, eindrücklichen und intimen Sequenz vollzieht Dave die Abschaltung.12 Er bewegt sich wortlos in das Zentrum des Computers, während HAL unaufhörlich auf ihn einredet. Zunächst versucht er auf Daves Vernunft einzuwirken. Er solle sich das nochmal überlegen, sich hinlegen und Beruhigungspillen schlucken. Im nächsten Status wird er emotionaler, er habe Angst und fürchte sich. Er ist fast schon panisch, weil er feststellt, dass es kein Zurück mehr gibt. Dave löst die Festplatten nach und nach in einem langen Prozess und gleichermaßen entwickelt sich HAL in den Zustand der Unschuld – der Kindheit – zurück. Er redet nach und nach langsamer, seine geistigen Fähigkeiten nehmen ab und er gleicht sich mehr und mehr einem Kind an. Er beginnt bis zu seinem Tod das Lied »Hänschen klein« zu singen, nachdem er zuvor noch seine grundlegenden Daten verlauten lies: »Ich bin der Computer HAL 9000, Seriennummer 3. Ich wurde am 12. Januar 1992 in der HAL-Fabrik in Urbana, Illinois, in Betrieb genommen.«
Aufklärung über die Mission
Nach der Abschaltung erscheint Dr. Floyd auf einem Bildschirm und verkündet das wahre Ziel der Mission13. Auf dem Jupiter, wohin die Reise geht, wurde bewusstes Leben gefunden. Das wusste nur HAL, was eine Erklärung für seine falsche Fehlerentdeckung sein könnte: Er durfte die Mission weder verraten, noch lügen.
Ein weiterer spannender Punkt, könnte der Hinweis auf eine 5. Revolution bzw. Kränkung der Menschheit sein: Es gibt außer uns noch weiteres Leben im Universum.
KI in der Zukunft
In »2001: Odyssee im Weltraum« wird der Wandel vom guten, netten Unterstützer zur bösen, künstlichen Intelligenz gezeigt, die sehr zielgerichtet und ohne Rücksicht auf Verluste handelt. Das könnte eine erste Kritik an der technologischen Entwicklung sein, die den Menschen als handelnde Instanz ausgrenzt und die Maschine als verlässliches Gegenüber darstellt. Nur die Maschine wusste gänzlich über die Mission Bescheid, was unterstreicht, welches Vertrauen in HAL gesteckt wurde. Des Weiteren zeigt er wie mächtig künstliche Intelligenzen tatsächlich werden können, wenn sie so zielgerichtet und vor allem selbstbestimmt handeln.
Hier sind vollständig selbstfahrende Autos ein gutes Beispiel. Die Maschinen bzw. künstlichen Intelligenzen werden in der Zukunft eventuell nicht nur für die Geschwindigkeit, Richtung oder ähnliches verantwortlich sein. Sie müssen moralische Entscheidungen treffen, sollte es zu unkontrollierten Einbrüchen ins System kommen. Sollte ein Kind beispielsweise unvorhergesehen auf die Straße rennen, muss die KI binnen Millisekunden entscheiden, ob das heranwachsende Kind oder ein 50-jähriger Fahrer wichtiger ist. Das sind alles Fragen, die auch für uns heutzutage noch sehr wichtig sind, weil wir noch lange nicht soweit sind.
Kubrick hat HALs eigentliches Geburtsjahr 1997 nicht aus dem Buch übernommen, sondern auf 1992 zurückdatiert hat, weil er dachte, dass die technologische Entwicklung im Jahr 1997 schon weiter sein wird. Obwohl wir heute, im Jahr 2016. noch immer nicht so weit sind, bleibt die große Frage, ob jemals Künstliche Intelligenz entwickelt werden kann, die den Menschen nicht nur auf logischer, sondern auch emotionaler Basis übertreffen kann.
IBM – Ableitung des Namen HAL
Abschließend eine Überlegung zum Namen »HAL«. Hierzu gibt es verschiedene Gerüchte oder Ansichten. Kubrick selbst sagte, dass der Name eine Abkürzung für »Heuristic Algorithmic« steht, während andere behaupten, es seien die Buchstaben, die im Alphabet vor I-B-M vorkommen. Diese Logik ist nicht abwegig, da IBM damals die meisten Computer stellte und das Originallied bei der Abschaltung HALs ein Lied des damaligen IBM-Computers war. Sollte es so sein, könnte eine Interpretation dafür, dass die Buchstaben vor und nicht nach IBM gewählt wurden, sein, dass die Entwicklung solch’ mächtiger Werkzeuge wie dieser Bordcomputer einen Rückschritt und eine Gefahr für die Menschheit bedeuten. Das bleibt jedoch reine Interpretationssache und wird auch nie gänzlich beantwortet werden können.
Verwertung des Vortrags
In einem nächsten Schritt soll der Vortrag innerhalb einer Hausarbeit verwertet werden. Sobald die schriftliche Ausarbeitung fertig ist, werde ich sie auf dieser Dokumentationsseite veröffentlichen.
Quellen
Vgl. Kubrick, Stanley: »2001: Odyssee im Weltraum«, DVD, 133 Minuten, Vereinigtes Königreich und Vereinigte Staaten 1968 [Deutschland 2001], TC: 00:26:16–00:28:16, Mondstation Clavius.
Für einen erstes Experiment habe ich einen vorhandenen Text verwendet, der innerhalb meiner Bachelor-Arbeit entstanden ist. Mein Bachelor-Projekt »Ohne Ich« ist eine audiovisuelle Auseinandersetzung im Kontext der aktuellen Lebenswelt und besteht aus 16 poetischen Texten. Die Tonspur ist 1:1 aus meiner Arbeit übernommen. Für mein Experiment habe ich nun via Slack einzelne Wörter und Phrasen in animierte GIFs übersetzt.
Für ein erstes Experiment habe ich einen vorhandenen Text verwendet, der innerhalb meiner Bachelor-Arbeit entstanden ist. Mein Bachelor-Projekt »Ohne Ich« ist eine audiovisuelle Auseinandersetzung im Kontext der aktuellen Lebenswelt und besteht aus 16 poetischen Texten. Die Tonspur ist 1:1 aus meiner Arbeit übernommen. Für mein Experiment habe ich nun via Slack einzelne Wörter und Phrasen in animierte GIFs übersetzt. Zuerst wollte ich konsequent den Unterschied von einzelnen Wörtern oder Phrasen beibehalten. Sprich eine Version, die nur aus einzelnen Wörten entstanden ist, eine Version aus Zeilen oder zusammengehörenden Wörtern. Da das leider nicht möglich war und teilweise zu keinem Ergebnis geführt hat, ist nun eine Mischung aus beiden Herangehensweisen entstanden.
Passwort: freude
Das Ergebnis
Das Ergebnis kann man leider nicht als vollständig funktionierend bezeichnen. Der Text ist grundsätzlich viel zu schnell für die animierten GIFs, so dass es – vor allem wenn man den Text nicht kennt – schwierig ist sowohl der auditiven als auch visuellen Welt zu folgen. Wenn man das Ganze humoristisch sieht, sind die Bilder jedoch grundsätzlich passend.
Das nächste Experiment
Für einen weiteren Versuch wäre es sinnvoll, einen Text zu wählen der langsamer ist oder einen neuen Text – spezifisch für das Experiment – zu schreiben. Des Weiteren ist es nach erster Einschätzung wichtig, dass die Texte eine starke Bildsprache haben müssten, so dass die giphy-Bibliothek passende Ergebnisse liefern kann.
Abbildungen
Titelbild: American Idol, giphy, abgerufen am 6.5.2016.
Abbildungen im Video
Die Bilder sind der Reihenfolge nach im Video zu finden, alle abgerufen am 6.5.2016.
Bereits in meinem Beitrag über Cinemagramme hatte ich die Überlegung aus diesen animierten GIFs eine Erzählung zu entwickeln. Eine weitere Idee ist, die GIF-Datenbank giphy mit einzubeziehen, welche durch die Möglichkeit Texte in Bilder zu übersetzen besonders spannend ist.
Ähnlich wie in meinem Beitrag Erzählungen durch Cinemagramme, gibt es momentan die Überlegungen, Erzählungen via giphy-Dateien zu entwickeln. Wie bereits erwähnt gibt es seit längerer Zeit ein Revival des animierten GIFs. Dementsprechend ist die Auswahl der wohl bekanntesten GIF-Bibliothek giphy groß.
In Chat-Anwendungen wie z. B. Slack, wird dabei die giphy-eigene Möglichkeit genutzt, Wörter in Bilder zu übersetzen. Gibt man »/giphy [x-beliebiges Wort oder Phrase]« ein, wird zufällig eine animierte GIF-Datei eingesetzt, die dementsprechend getaggt ist.
Daher gibt es momentan die Idee, das Experiment zu starten, ganze Texte in animierte GIFs zu übersetzen. Des Weiteren denke ich darüber nach, die API so zu nutzen, dass auf einer Website ein bestimmter Text hinterlegt ist und die »Bebilderung« jedes Mal in veränderter Form dargestellt wird. Auf lange Sicht gesehen, könnte eventuell sogar eine eigene Bildsprache entwickelt werden, die zum einen eigene, ausgewählte Bilder auf dem Computer nutzt, die in naher Zukunft ohnehin alle getaggt sein werden. Zum anderen eine Sprache, die sehr persönlich werden kann, so dass z. B. bei einer Person unter dem Wort »Lieblingstier« ein anderes Tier als bei einer anderen Person dargestellt wird.
Im ersten Schritt möchte ich jedoch definitiv das Experiment in Angriff nehmen, bereits geschriebene Texte zu bebildern. Das Ergebnis werde ich dann in meinem Dokumentations-Blog veröffentlichen.
Als Beispiel für eine kommerzielle Web-Erzählung habe ich ausgewählt. Der Däne Georg Arthur Jensen war Silberschmied, Designer und Künstler und so findet man auf www.georgjensen.com erstmal eine übliche Produktseite. Auf der Subdomain findet man dagegen ausgewählte Produkte in einer Erzählung präsentiert.
Als Beispiel für eine kommerzielle Web-Erzählung habe ich »gift of giving« ausgewählt. Der Däne Georg Arthur Jensen war Silberschmied, Designer und Künstler und so findet man auf www.georgjensen.com erstmal eine übliche Produktseite.
Auf der Subdomain findet man dagegen ausgewählte Produkte in einer Erzählung präsentiert. Man folgt in einzelnen Filmsequenzen verschiedenen Protagonisten auf einer Feier und kann bei Vier-Augen-Gesprächen auswählen, was dem Gegenüber geschenkt werden soll. Hat man ein Geschenk ausgewählt, folgt die nächste Sequenz, in der die Geschenkübergabe abgespielt wird. Anschließend wird das Produkt am Rande weiter angezeigt, so dass man bei Bedarf durch einen Klick weitere Details einsehen kann.
Auch wenn mich persönlich Web-Erzählungen, die rein für das Bewerben von Produkten gedacht sind, grundsätzlich nicht sonderlich interessieren, halte ich die Seite giving.georgjensen.com für gelungen. Die Möglichkeit einzelne Filmsequenzen mit interaktiven Momenten zu mischen, die den Verlauf ändern, finde ich spannend. Vor allem als Produktpräsentation, die nach wie vor sehr häufig langweilig inszeniert sind, halte ich das für einen wichtigen Schritt in die richtige Richtung.
Abbildungen
Titelbild: Eigener Screenshot, Georg Jensen A/S, »gift of giving«, URL: www.giving.georgjensen.com/, abgerufen am 4.5.2016.
Das gemeinsame Projekt mit zwei Studenten des Bereichs Medientechnik ist nun abgeschlossen. Wie bereits in vorherigen Beiträgen berichtet ging es darum eine Demo zu bauen, die zeigt, welche möglichen Funktionen ein Eye-Tracker bietet.
Das gemeinsame Projekt mit zwei Studenten des Bereichs Medientechnik ist nun abgeschlossen. Wie bereits in vorherigen Beiträgen berichtet ging es darum eine Demo zu bauen, die zeigt, welche möglichen Funktionen ein Eye-Tracker bietet.
Die Reise führt den Nutzer durch ein verlassenes Haus, durch das er via Augen navigieren kann. Unterwegs werden Eye-Tracker-spezifische Möglichkeiten berücksichtigt. So kann z. B. in der Eingangshalle eine Taschenlampe mit den Augen gesteuert werden. An späterer Stelle wie z. B. dem Schlafzimmer mit Spiegel entwischt ein Gespenst, wenn man in den Spiegel schaut oder das Piano im nächsten Raum gibt Töne von sich, wenn man darauf schaut.
Die Reise durch das Haus ist letztendlich keine richtige Story, sondern eine passende Aneinanderreihung von Fotos, die eine einigermaßen einheitliche Welt aufbauen sollen.
Der Prozess
Die Arbeit mit den Medientechnikern war sehr angenehm und gut aufeinander abgestimmt. Man merkt jedoch schnell, an welchen Stellen Probleme zwischen den zwei Disziplinen Medientechnik und Design auftauchen und wo man sich gut abstimmen muss. So ist nicht jedes Design technisch umsetzbar und es müssen natürlich Kompromisse geschlossen werden. Ein Beispiel hierfür ist ein »Zurück-Pfeil«, den ich im Entwurf sowohl kleiner gestaltet als auch an anderer Stelle, näher am Rand, positioniert hatte. Das war jedoch nicht möglich, da der Eye-Tracker auf einen so kleinen Bereich am Rand nicht reagiert hat.
Passwort: eyetracking
Der Abschluss
Abschließend bin ich aus grafischer und konzeptioneller Sicht zwar nicht zufrieden mit dem Genre und Projekt an sich, dennoch war es eine gute Erfahrung in der Zusammenarbeit beider Disziplinen und eine gute Möglichkeit die Technik des Eye-Tracking für meine Arbeit in Betracht zu ziehen. Insgesamt halte ich es für keine Technologie, die eine große Zukunft im Bereich Storytelling haben wird, jedoch könnte es eine Funktion sein, die ähnlich der Webcam standardmäßig im Computer integriert ist.
Zusätzlich muss man natürlich kritisch hinterfragen, wie gut eine Technologie ist, die so sehr auf den reinen Instinkt abzielt. Damit ist es nicht nur möglich gezielt Inhalte auszuwählen. Wenn die Reaktionszeit des Eye-Trackers sehr schnell eingestellt ist, entscheidet der erste instinktive Blick und man ist ihm voll und ganz ausgesetzt.
Abbildungen
Die Bilder sind der Reihenfolge nach im Video zu finden.
8. LEERES ZIMMER
Bilderrahmen: Lizenzfrei Bild im Bilderrahmen | Sarah Ackerman | CC BY 2.0
Änderungen: Farbe, Belichtung, Einbau des Bilderrahmens in den Raum, Einbau des Bildes in den Rahmen, Bild im Rahmen: Einbau eines Portraits
Vor allem in sozialen Netzwerken feiert die animierte GIF-Datei seit längerer Zeit ihr Revival. Mit bewegten Katzen, Stars oder Comichelden, geschmückt mit lustigen Sprüchen, kann man nun weitaus entspannter und belangloser kommunizieren. Cinemagramme enthalten im Gegensatz zu den aus sozialen Netzwerken bekannten GIFS meist nur wenige bewegte Bildinhalte. Das könnte bei Erzählungen einen besonderen Reiz ausmachen.
Vor allem in sozialen Netzwerken feiert die animierte GIF-Datei seit längerer Zeit ihr Revival. Mit bewegten Katzen, Stars oder Comichelden, geschmückt mit lustigen Sprüchen, kann man nun weitaus entspannter und belangloser kommunizieren.
Cinemagramme (oder Cinemagraphs), die meist als animierte GIf-Datei gespeichert werden, werden dagegen seltener verwendet. Im Gegensatz zu den aus sozialen Netzwerken bekannten GIFs, enthalten Cinemagramme nur wenig bewegte Bildanteile. Einzelne Elemente werden animiert, während das restliche Bild ein Standbild ist. In Fotografien deren Hauptaugenmerk auf Objekte liegt, wirkt das aus meiner Sicht sehr andächtig und ruhig. Sobald Menschen eine Rolle spielen, kann die Bildstimmung kippen und befremdlich wirken.
Das Video von »Line of fire« von Junip besteht zwar nicht aus Cinemagrammen, zeigt jedoch sehr eindrücklich wie fremd es wirken kann, wenn Menschen geloopt werden. Die bedrückende Stimmung ist aber natürlich auch dem Lied an sich, sowie der gesamten Atmosphäre im Video geschuldet und wird durch die Video-Loops nur stark unterstrichen.
Momentan denke ich darüber nach, ob ich mit Cinemagrammen arbeiten werde und mit ihrer Hilfe eine Erzählung entwickeln kann. Durch die ruhige Stimmung kann ich es mir besonders gut vorstellen, die GIFs in Kombination mit einem poetischen Text zu setzen, da sie sich gegenseitig sicher gut in ihrer Wirkung unterstützen können.
Im Essay »Keine Eile, keine Zeit. Zur Frage der richtigen Dauer eines Films« beschreibt Vinzenz Hediger unter anderem, dass Filme früher »in Loops als Dauerschleife« im Kino liefen. Daher gab es in Hollywood-Filmen häufig Redundanzen, um auch den Zuschauern, die mitten im Film ins Kino kamen, die Gelegenheit zu geben, die Erzählung zu verstehen.
Das Buch »Expanded Narration. Das Neue Erzählen« von Bernd Kracke und Marc Ries (Hg.) vereint Essays zur B3 Biennale des Bewegten Bildes, die sich ganz dem Geschichten erzählen im digitalen Zeitalter widmet.
Im Essay »Keine Eile, keine Zeit. Zur Frage der richtigen Dauer eines Films« beschreibt Vinzenz Hediger unter anderem, dass Filme früher »in Loops als Dauerschleife« im Kino liefen. Daher gab es in Hollywood-Filmen häufig Redundanzen, um auch den Zuschauern, die mitten im Film ins Kino kamen, die Gelegenheit zu geben, die Erzählung zu verstehen. Lediglich Hitchcock begann mit der Forderung, dass man Psycho »am besten von Anfang an schaut«.1
Andy Warhol schaffte dagegen mit »Empire« einen 8-stündigen Film, weil er zum einen gegen das Sitzenbleiben rebellieren wollte und zum anderen sollte man die Möglichkeit haben, während des Films raus zu gehen, um z. B. einzukaufen.2
»Inception« oder »The Sixth Sense« werden als aktuelle Beispiele genannt, in denen es den Versuch gibt, Geschichten in Fragmenten zu erzählen.3
Wie man sieht, ist unsere heutige Film- und Kinokultur, bei der man Filme bestenfalls von der ersten Sekunde an schaut, gar nicht so alt. Der naheliegende Gedanke ist, dass so auch weitaus kompliziertere Geschichten erzählt werden können, wenn nicht ständig Redundanzen auftauchen und das Level nicht auf einem »Ich kann immer einsteigen und verstehe es dennoch«-Level bleibt. Zwar möchte ich nicht behaupten, dass man zeitgenössische Beispiele wie »Inception« und »The Sixth Sense« unabhängig vom Einstieg versteht, dennoch zeigen die Filme einen hohen Grad an Komplexität.
Hedigers Essay bringt mich in meinem Masterthema in meinen Überlegungen zu gleichzeitigen Erzählungen weiter. Ich habe mich mit Marshall McLuhan beschäftigt (Das globale Dorf – Raum, Zeit und Dynamik »), der davon spricht, dass wir zunehmend in einer gleichzeitigen Welt leben. Als westlicher Mensch – und damit als sequentiell denkender und visuell geprägter Mensch – fällt mir die Vorstellung von Gleichzeitigkeit schwer. Obwohl ich seinen Ansatz sehr spannend finde, befürchte ich ihn nicht im Detail zu verstehen. Dennoch motiviert er mich, eine Erzählung zu entwickeln, die sich in ihrer Gleichzeitigkeit auflöst. Ich finde es interessant, dass nur vor wenigen Jahrzehnten Filme im Loop gezeigt wurden. Momentan überlege ich, eine Erzählung mit animierten GIFs oder Cinemagraphs zu schaffen, welche für mich die Grundeigenschaft der Wiederholung in sich tragen. Zwar bedeutet animierte GIFs nicht gleichermaßen, dass sie eine Wiederholung in sich tragen. So wie sie jedoch heute in sozialen Netzwerken verwendet werden, wird ihnen diese Eigenschaft aufgesetzt. Ich kann mir vorstellen, dass in einer Rauminstallation mit mehreren Bildschirmen Loops gezeigt werden und sich der Betrachter selbst die Erzählung erschließt. Doch bis dahin ist es noch ein langes Vorhaben.
Quellen
Kracke, Bernd; Ries, Marc (Hg.): »Expanded Narration. Das neue Erzählen«, Bielefeld 2013, S. 202.
Meine dritte Präsentation im Masterstudio. Die Schwerpunkte sind dabei u.a. meine Essenzen aus dem Interview mit dem Primatologen Dr. Christoph Schwitzer, eine Kurzanalyse zweier trans-/trimedialer Erzählungen, ein Exkurs zu Games und Filmen und ein Einblick in das veränderte Nutzungsverhalten.
Im Bezug auf das Spannungsfeld zwischen Realität und Fiktion stellen sich mir folgende Fragen: · Was sind ausschlaggebende Faktoren für »Authentizität«? · Wie kann so viel Authentizität erreicht werden, so dass sich die Grenze zwischen Realität und Fiktion scheinbar auflöst? · Wie kann das Gehirn ausgetrickst werden, um fiktive Gegebenheiten als reales Erlebnis zu empfinden? · Welche neuen Möglichkeiten ergeben sich durch das Vermischen realer und virtueller Welten?
Exkurs: Games
Im Bezug auf die Hybridform aus Game und Film gehe ich auf die Unterschiede und Parallelen ein und erschließe mir Essenzen für die transmediale Erzählung. So müssen Regeln für die Erzählwelt erstellt und eine ganze Welt erschaffen werden. Die Erzählung funktioniert als »Patchwork« einzelner Erzählstränge anstatt eines linearen Strangs. Durch Partizipation können Geschichten selbst entdeckt und erlebt werden. Man wird damit Teil der Erzählung.
Verändertes Nutzungsverhalten
Diese aktive Teilhabe ist auch im Nutzungsverhalten zu erkennen, welches sich in den vergangenen Jahren massiv verändert hat. So wird beispielsweise aus einem passiven Lean-Back-Verhalten ein
aktives Lean-Forward-Verhalten. Der Zuschauer lässt sich nicht mehr mit dem vorgestellten Programm berieseln, sondern wählt sein eigenes Programm aktiv aus. Das kann beispielsweise über Mediatheken oder Streaminganbieter wie Netflix geschehen. Allein schon die Eingabe macht das Internet zu einem aktiven Medium. Des Weiteren ist ein klarer Trend vom »on demand« zu »on the move« zu erkennen, von abrufbar zu mitnehmbar, da die Inhalte auch unterwegs weiter verfolgt werden.1 Weitere Veränderungen sind im jeweiligen Beitrag zu finden.
Abschließende Gedanken
Abschließend stellt sich mir die Frage, was für den passiven Nutzer bleibt. So ist es aus meiner Sicht wichtig, Interaktionen anzubieten, sie aber nicht zum zwingenden, partizipativen Bestandteil werden zu lassen. Des Weiteren frage ich mich zwischenzeitlich, ob fünf Medien wirklich besser als ein Medium erzählen? Sicher ist das abhängig von der Erzählung an sich, jedoch begleitet mich zwischenzeitlich der Eindruck, dass die Begründung für die Wahl mehrerer Medien – ähnlich wie zum Beginn vieler technologischer Änderungen – mehr im Selbstzweck als in der tatsächlichen Notwendigkeit liegt.
Generell glaube ich, dass es einen Trend zu Erzählungen gibt, die der »Natürlichkeit des Menschen« entsprechen. Weg von statischen, abgeschlossenen Erzählungen mit nur wenigen Schnittstellen, um ein vollständiges Eintauchen, das »echte« Erleben möglich zu machen.
Quellen
Da die Präsentation nur eine Zusammenfassung aus Beiträgen im gleichen Medium ist, gebe ich ausschließlich neue Quellen an. Alle weiteren Quellen sind detailliert im jeweiligen Beitrag zu finden.
Vgl. Eick, Dennis: »Digitales Erzählen – Die Dramaturgie der neuen Medien«, Konstanz und München 2014, S. 44.
In »Digitales Erzählen – Die Dramaturgie der Neuen Medien« gibt der Autor Dennis Eick einen Überblick über die Möglichkeiten Erzählungen im Zeitalter des Internets und der Digitalisierung zu entwickeln.
In »Digitales Erzählen – Die Dramaturgie der Neuen Medien« gibt der Autor Dennis Eick einen Überblick über die Möglichkeiten Erzählungen im Zeitalter des Internets und der Digitalisierung zu entwickeln. Dabei hinterfragt er kritisch die momentane Übergangsphase, in der häufig »neue Medien mit Inhalten alter Medien gefüllt«1werden, wie er Marcus Bösch zitiert.
Ein Fokus des Buchs liegt auf den Bewegtbildmedien Game und Film, welche sich zunehmend gegenseitig beeinflussen und zu hybriden Formen verschmelzen. Diesbezüglich äußert Gundolf Freyermuth, dass Hybridität »in der Geschichte der Medien ja fast immer eine Übergangsphase«2 ist. Er sieht das Game, wenn es das nicht schon ist, sogar als zukünftiges Leitmedium3 und zählt sogleich die Vorteile transmedialer Games auf: Sie »bieten nämlich alles, was Filme bieten: dieselbe Vielfalt – plus Interaktivität und Non-Linearität«.4
Unterschiede und Parallelen
Doch wo liegen die grundlegenden Parallelen und Unterschiede? Inga von Staden nennt als Parallelen beispielsweise die narrativen Strukturen oder Cutscenes, die das Spiel unterstützen.5 Cutscenes, Filmsequenzen, die zwischen einzelnen Sequenzen eingeblendet werden, sind nun erstmal keine neue Errungenschaft. Schon in den 90er Jahren sieht man das häufig u. a. bei Konsolenspielen wie Super Mario oder Zelda für den Nintendo 64. Die Szenen unterstützen die Erzählung und den Aufbau der Spielwelt, in der wir uns bewegen und Aufgaben erfüllen. Jedoch werden sie natürlich zunehmend zum einen grafisch anspruchsvoller, zum anderen nimmt der Anteil in vielen Games zu. So gibt es zwischenzeitlich sogar schon »Game Movies«, die mehr einem interaktiven Film als einem einfachen Game mit »etwas zusätzlicher Geschichte« entsprechen. Hier sind aktuell Heavy Rain oder Beyond: Two Souls zu nennen, welche für die PlayStation am 1.3.2016 erscheinen werden.
Veränderung narrativer Strukturen
Die Cutscenes bzw. die generelle Entwicklung von Game Movies verändert sich weiter in ihren narrativen Strukturen. Das Game besteht üblicherweise fast ausschließlich aus dem wichtigen Hauptteil, während Einleitung und Schluss nur kleine Parts des Ganzen sind.6 Das ist auch eine grundlegende Unterscheidung zum Film. Dem Spiel werden zwischenzeitlich durch Cutscenes nicht nur begleitend narrative Elemente hinzufügt, sondern der komplette Game Movie ist ein Wechselspiel zwischen Game und Film, so dass sich zum einen der Anteil der einzelnen Parts verändert und zum anderen je nach Entscheidung ein völlig anderer Plot entsteht. Frank Raki erklärt das schön mit dem »Patchwork einzelner Elemente«, die während dem Spiel aufgesammelt werden und keine feste Kette von Ereignissen sind.7 Durch die Tatsache, dass »wir« die Erzähl-Elemente aufsammeln und nicht der Schauspieler, dem wir lediglich zuschauen, entsteht natürlich auch eine höhere Immersion.
Durch Anpassung der Musik, Kamera, dynamischen Farbschemen oder das Lösen von Rätseln mittels Schwarmintelligenz wird diese Immersion deutlich erhöht.8
Insgesamt ist es ohnehin schon eine große Herausforderung, eine funktionierende Spielwelt aufzubauen, in der »Fehlverhalten«9 verhindert wird. Dass nun Unmengen an Erzählung hinzukommt, macht die Entwicklung aus meiner Sicht nicht einfacher. Die Frustrationsschwelle ist hier sicher etwas niedriger, da der Nutzer, dessen Fokus automatisch verstärkt auf die Erzählung gelenkt wird, schnell merkt, wenn die Geschichte keinen Sinn macht.
Ich halte es für eine gute Möglichkeit, Erzählungen in dieser Form zu entwickeln und den Immersionsgrad somit zu steigern. Die Geschichten können selbst entdeckt und erlebt werden, man wird Teil der Erzählung. Ich frage mich jedoch, welche Alternativen es für Spieler gibt, die nicht an großen Erzählsträngen interessiert sind, sondern »einfach nur zocken« wollen. Nicht für abwegig halte ich jedoch tatsächlich, dass Games das neue Leitmedium werden können. Alles wird spielerischer, der große Prozess der »Gamification« ist längst angebrochen. Selbst in Bereichen der Arbeitswelt wird dieser Belohnungsmechanismus angewandt und man kann unter anderem schon in Zeiterfassungsprogrammen für bestimmte Ziele Batches erhalten.
Quellen
Eick, Dennis: »Digitales Erzählen – Die Dramaturgie der neuen Medien«, Konstanz und München: UVK Verlagsgesellschaft mbH, 2014, 1. Auflage, S.227
Ebd., S.106
Vgl. Ebd., S.93
Ebd., S.123
Vgl. Ebd., S.93
Vgl. Ebd., S.113
Vgl. Ebd., S.110
Vgl. Ebd., S.124
Ebd., S.115
Abbildungen
Eigener Screenshot von YouTube, silenig: »Indiana Jones and the Last Crusade (PC Deutsch) Preview Video«, URL: https://www.youtube.com/watch?v=9ivNLD75rAU, TC: 00:04:16, abgerufen am 24.1.2016.
»alpha 0.7 – Der Feind in dir« ist eine transmediale Serie, die auf SWR ausgestrahlt wird.
»alpha 0.7 – Der Feind in dir« ist eine transmediale Serie, die im SWR ausgestrahlt wird. Da mein Master-Thema noch sehr unkonkret ist, möchte ich die Serie – wie auch bei der Kurzanalyse zu About:Kate – nur kurz analysieren und auf die groben Eckdaten reduzieren. Sollte sich mein Thema Richtung trans- oder crossmediales Erzählen weiterentwickeln, möchte ich sie detaillierter analysieren.
In meiner Kurzanalyse beziehe ich mich auf die Inhalte, die noch nachvollziehbar sind. Es ist davon auszugehen, dass bereits Inhalte vom Netz genommen worden sind. So konnte ich Inhalte wie Unternehmenswebsites oder Hörfunkbeiträge nicht mehr finden und weiß von ihnen nur aus dritter Quelle.
Fakten
Erstausstrahlung: 14.11.2010
Erstausstrahlung Hörspiel: 11.11.2010
Erstausstrahlung Comedybeiträge: 9.11.2010
Sender: SWR
Staffeln: 1 (Stand: Januar 2016)
Episoden: 6 á 25 Minuten
Regie: Marc Rensing
Drehbuch: Sebastian Büttner und Oliver Hohengarten
Produktion: Zeitsprung Entertainment GmbH
Ort: Deutschland
Originalsprache: Deutsch
Plot (Kurzfassung)
Das Pre-Crime-Center des BKA und Protecta Society entwickeln zusammen einen Gehirnscanner mit dem man Verbrechen vorhersagen kann. Die Serie spielt 2017 und der Scanner wird der Öffentlichkeit vorgestellt.Die Aktivisten-Gruppe Apollon kämpft gegen die Einführung, da das Gehirn das letzte Stück Privatssphäre in sich trägt.
Johanna Berger, eine Familienmutter, die für ihren Job bei Protecta Society nach Stuttgart zieht, ist unwissend das 7. Versuchskanninchen für einen Chip, der mit Daten bespielt und zur Manipulation des Menschen eingesetzt werden kann.
Eingesetzte Medien
Die Analyse der Medien habe ich in zwei Teile gegliedert. Dabei geht es im ersten Teil darum, welche Medien verwendet werden, im zweiten Teil darum, mit welchen Inhalten sie bespielt sind.
Teil 1: Medien/Endgeräte
Ein Überblick der eingesetzten Medien.
TV
Fernsehserie
7 Episoden á 25 Minuten
Internet
Facebook
Kein speziell angelegter Account. Lediglich eine Band aus der Serie besitzt einen realen Account und ist scheinbar eine echte Band (siehe »Musik«).
YouTube
Kanal von Meike, Tochter der Hauptprotagonistin
Blog
Blog einer Gruppe Aktivisten sowie der Hauptprotagonistin Johanna Berger
Website
Webauftritte von Johannas Firma Protecta Society, sowie des NPC und der Band Crash Conspiracy
Rundfunk
Hörspiel
7 Teile á 55 Minuten
Comedybeiträge
15 Teile á 1–1 1/2 Minuten
Musik
Band Crash:Conspiracy
Echte Band, die durch Facebook-Beiträge den Serien-Kosmos erweitern.
(Die Musik werde ich in weiteren Analysen nicht als medialen Einzelpunkt ausführen. An dieser Stelle ist die Band jedoch ein Teil der Serie.)
Teil 2: Inhalte
Ein Überblick der Inhalte innerhalb der Medien.
TV
Fernsehserie
Siehe Plot
Internet
Facebook
Bis auf die Band Conspiracy, die scheinbar einen echten Account pflegt, gibt es nach jetzigem Stand keine extra angelegten Accounts oder Erzählstränge innerhalb von Facebook. Die Band geht jedoch während der Ausstrahlung auf die Episoden ein und nimmt auf der Pinnwand eigene Aktivitäten innerhalb der Serie auf, um keinen Zweifeln an der »Echtheit« der Serie aufkommen zu lassen.
YouTube
Die Protagonistin Meike Berger betreibt einen persönlichen YouTube-Channel, in dem es um ihr Leben geht. Er beinhaltet grafisch aufwändige Videos.
Blog
Die Blogs sind leider nicht mehr online. Aus Facebook-Posts der alpha 0.7-Seite ergeben sich jedoch unter anderem folgende Inhalte.
Apollon-Aktivisten: »RoboCare: Erstes vollautomatisches Altenheim eröffnet«, »Was macht Protecta mit seinen Mitarbeitern?«, »Mehrheit gegen Brainscanner«, »Sicherheitsgipfel: Noch immer kein Demo-Verbot«
Johanna Berger: »Ich vermisse meine Familie«, »Ich bin weg«, »Liebe Mama«, »Liebe Meike«, »Weg …«, »Besuch«
Website
Auch die Seiten von Protecta Society, dem NPC und der Band sind leider nicht mehr online. Aus Screenshot geht hervor, dass sich dort das Unternehmen vorstellt. Sie enthält Informationen zum Unternehmen selbst, den Produkten, etc. Es gibt sogar eine »Job und Karriere«-Seite sowie aktuelle News im Jahr 2017.
Rundfunk
Hörspiel:
folgt
Comedybeiträge
Die SWR3-Comedy findet in Krankenhausatmosphäre statt, die jeweils beginnt mit: »alpha 0.7, das Null-Hirn-Labor. Wir schreiben das Jahr 2017, ein Gruppe Wissenschaftler um Professor Pfrinzk versucht die Gehirne von Menschen zu scannen. Damit alles irgendwie besser wird.« Danach Witz über bestimmte Personen, Gruppen, Unternehmen (Ryan Air, Obama, …). Abschluss immer mit der Anweisung, was mit dem Patient gemacht werden soll.
Musik
Beispieleinträge in Bezug auf alpha 0.7 auf der Seite der Band Crash:Conspiracy:
»Ich erinnere mich, als wäre es gestern gewesen, wie wir heute vor genau sieben Jahren unser erstes Konzert auf irgendeinem Dach in Ostberlin gegeben haben. Alles noch unsicher, aber mit dem richtigen Gefühl. Damals war alles noch in Ordnung. 2017 ist seltsam. Ino«1
»Kann nur noch daran denken, dass Menschen aufgrund meiner Gehirnstruktur beurteilen wollen, ob ich ein guter Mensch bin oder nicht. Das kann nicht der richtige Weg sein.«2
»About:Kate« ist eine wöchentlich auf ARTE erscheinende TV-Serie. Da mein Master-Thema noch sehr unkonkret ist, möchte ich die Serie zunächst nur kurz analysieren und auf die groben Eckdaten reduzieren. Sollte sich mein Thema Richtung trans- oder crossmediales Erzählungen weiterentwickeln, möchte ich sie detaillierter analysieren.
»About:Kate« ist eine wöchentlich auf ARTE erscheinende TV-Serie. Da mein Master-Thema noch sehr unkonkret ist, möchte ich die Serie zunächst nur kurz analysieren und auf die groben Eckdaten reduzieren. Sollte sich mein Thema Richtung trans- oder crossmediales Erzählen weiterentwickeln, möchte ich sie detaillierter analysieren.
In meiner Kurzanalyse beziehe ich mich auf die Inhalte, die noch nachvollziehbar sind. Es ist davon auszugehen, dass bereits Inhalte vom Netz genommen worden sind. So ist z. B. die begleitende App scheinbar nicht mehr gänzlich funktionstüchtig.
Fakten
Erstausstrahlung: 27.4.2013
Sender: ARTE
Staffeln: 1 (Stand: Dezember 2015)
Episoden: 14 á 26 Minuten
Regie und Drehbuch: Janna Nandzik
Produktion: Christian Ulmen, Ulmen Television GmbH
Ort: Deutschland
Originalsprache: Deutsch
Plot (Kurzfassung)
Kate lässt sich in eine Berliner Nervenklinik einweisen, um sich selbst zu suchen. Die sozialen Netzwerke überfordern sie, sie kann gleichzeitig nicht davon ablassen. Ihre Suche beginnt im Netzwerk selbst. Sie schließt dabei mit vergangenen Stationen ab und reflektiert, welche Dinge in ihrem Leben tatsächlich noch vorhanden sind. About:Kate spiegelt die psychische Verfassung unserer Generation im digitalen Zeitalter wider, in dem es durch soziale Netzwerke zu stark veränderten Selbstbildern kommt. Als generelle Folge wird bspw. der Verlust emotionaler Bindungen gezeigt. In »About: Kate ›Wann haben Sie bemerkt, dass Sie nicht mehr wissen, wer Sie sind‹« habe ich den Plot bereits etwas ausführlicher beschrieben.
Eingesetzte Medien
Die Analyse der Medien habe ich in zwei Teile gegliedert. Dabei geht es im ersten Teil darum, welche Medien verwendet werden, im zweiten Teil darum, mit welchen Inhalten sie bespielt sind.
Teil 1: Medien/Endgeräte
Ein Überblick der eingesetzten Medien.
TV
Fernsehserie
14 Episoden á 26 Minuten
User-generated Content
Internet
Facebook
Die Protagonisten haben einen gut gepflegten Account mit Fotos, Freunden, gelikten Filmen oder Bands.
Twitter
Mindestens Kate Harff besitzt einen Account
Sonstige
Website innerhalb arte.de
Smartphone/Tablets
App
Die App funktioniert mit einer Synchronisation durch ACR (Automatic Content Recognition). Sprich die Inhalte werden synchron zu den akustischen Signalen aus der Serie angezeigt (audio fingerprint).
Teil 2: Inhalte
Ein Überblick der Inhalte innerhalb der Medien.
TV
Fernsehserie
Siehe Plot
User-generated Content: Ab der 3. Folge konnte der Zuschauer selbst entwickelte Inhalte einreichen, die sich an der Machart der Serie orientieren. Die besten Einreichungen schafften es dabei in die Serie.
Internet
Facebook
Das Team rundum Regisseurin Janna Nandzik schreibt mittels fiktiver Accounts der Protagonisten mit den Zuschauern. Die Accounts sind tatsächlich online und verhalten sich dementsprechend wie »reale« Freundschaften. Man hat eventuell gemeinsame Freunde, kann etwas posten, gemeinsam diskutieren und die Profile nach dem Musik- oder Filmgeschmack durchstöbern. Hier werden bewusst die Grenzen zwischen Realität und Fiktion verschoben, worauf ich auch im folgenden Beitrag eingehe: Zwischen Realität und Fiktion. Da ich mich mit der Serie während der tatsächlichen Ausstrahlung nicht beschäftigt habe, ist unklar, ob die Inhalte bei Facebook einen inhaltlichen Mehrwert liefern oder ob es rein um den Aufbau dieser fiktiven Welt ging.
Twitter
Hier kann leider keine inhaltliche Angabe gemacht werden.
Sonstige
ARTE liefert für die Serie Suchmaschineneinträge, Downloads, Playlists, etc. der Protagonistin Kate. Auch das unterstützt die Erweiterung der fiktiven Welt ins Reale.
Smartphone/Tablets
App
Durch die App wird der Zuschauer zum Mitpatient. Er erhält zum einen parallel zur Serie Informationen wie z. B. Hyperlinks, es gibt Psychotests oder Kate ruft scheinbar an. Der Nutzer sieht Inhalte, die auch die Protagonistin in der Serie sieht und eigene Inhalte können hochgeladen werden. Des Weiteren erhält man eine Auswertung der eigenen psychischen Entwicklung, wenn man mindestens fünf Episoden geschaut hat.
Abbildungen
Titelbild: Eigener Screenshot; Nandzik, Janna: »About:Kate«, Staffel 1, Folge 1, »Frohes Neues!«: , TC: 00:01:13, Deutschland 2013.
Während der Buchmesse in Frankfurt 2011 schlossen sich neun ausgewählte Kreative aus verschiedenen Medienbereichen zusammen und entwickelten elf Thesen für die Zukunft des Storytelling: Das Transmedia Manifest.
Der technologische Wandel schreitet unaufhörlich voran und bietet ständig wachsende Möglichkeiten, neue Arten von Erzählungen zu entwickeln. Neben technischen Innovationen, spielt auch das veränderte Nutzungsverhalten eine Rolle. So werden Zuschauer an anderen Orten oder über eine andere Kombination von Medien und Inhalten angesprochen. 2nd Screen-Anwendungen sind dabei nur ein Beispiel: Sie machen sich die Angewohnheit vieler Zuschauer zu Nutze, ihre Smartphones parallel zum TV schauen zu nutzen.
Während der Buchmesse in Frankfurt 2011 schlossen sich neun ausgewählte Kreative aus verschiedenen Medienbereichen zusammen, die davon überzeugt sind, dass wir nicht mehr länger Zuschauer, Hörer, etc. sind, sondern »experiencers«1 . Wir erfahren und entdecken Erzählungen und gestalten sie zum Teil selbst mit.
Mit diesem Ansatz entwickelten sie elf Thesen für die Zukunft des Storytelling: Das Transmedia Manifest.
Es beinhaltet u. a. die Ansätze, dass eine Erzählung mehrere Einstiegspunkte und wählbare Handlungsstränge besitzt. Des Weiteren ist eine Interaktion mit Protagonisten möglich, Realität und Fiktion verschwimmen.2
Ich halte das Manifest für einen guten Anhaltspunkt, vor allem mit Blick darauf, dass es bereits 2011 entwickelt wurde. Ohne mich damals genauer mit der Thematik auseinandergesetzt zu haben, schätze ich jedoch, dass sich zwischenzeitlich zum einen die Anfangseuphorie transmedialer Erzählungen gelegt hat und sie zum anderen nichts mehr unbekanntes sind. Sie werden meiner Einschätzung nach zunehmenden Einfluss haben, jedoch ohne speziell so benannt werden zu müssen.
Eine weiteren Beitrag zu den Onlinestudien liefert Thomas Kupferschmitt mit »Bewegtbildnutzung nimmt weiter zu – Habitualisierung bei 14–29-Jährigen«. Er will dabei u. a. »mit Daten aus der ARD/ZDF-Onlinestudie 2015« untersuchen, »ob die Videonutzung im Internet insgesamt zunimmt«1 . Des Weiteren nimmt er die »Parallelnutzung von Fernsehen und dem Internet« in den Fokus.2
Wie in meinem anderen Beitrag möchte ich einen groben Einblick bekommen und ziehe nur wenige Zahlen aus den Studien. Die deutlich detailliertere Ausarbeitung mit demographischen Unterschieden oder z. B. Einzelheiten zu der Art des Angebots können der Studie entnommen werden. Der Begriff »Onliner« bezieht sich auf 79.5 % der Gesamtbevölkerung, die das Internet zumindest gelegentlich nutzen, grundsätzlich werden Nutzer ab 14 Jahren unter die Lupe genommen.3 Teilweise gibt es eine Einschränkung auf 14–29-Jährige.
Ergebnisse der Umfrage zeigen, dass 82 % (65 % der Gesamtbevölkerung) Videos im Internet zumindest selten nutzen, 26 % sogar täglich. Diese Entwicklung nahm in den letzten Jahren zu4 und wird wohl auch in den kommenden Jahren weiter zunehmen. Spannend finde ich zudem, welche Angebote die täglichen Nutzer abrufen. 14 % nutzen Videos auf Videoportalen wie z. B. YouTube, MyVideo und so weiter. 9 % schauen Videos auf Facebook. Angebote wie z. B. Netflix, Fernsehsendungen oder Mediatheken werden jeweils nur zu 2 % genutzt.5
Daraus ließe sich aus meiner Sicht Folgendes schließen: Das Interesse am Angebot an sich ist nicht da. Das kann aus meiner Sicht jedoch eher auf Fernsehsendungen zutreffen, da ich Netflix für durchaus beliebt halte.
Ein weiterer Schluss könnte – bei möglicher Unterwegsnutzung – sein, dass das Datenvolumen ungern für lange Formate genutzt wird. Eine letzte Vermutung ist, dass kurze Inhalte attraktiver sind, da man zum einen kurze Wartezeiten überbrücken kann und sie zum anderen jederzeit »zwischendurch« geschaut werden können. Hierzu fehlen mir jedoch Zahlen, welche Angebote unterwegs und welche zu Hause genutzt werden.
Einen möglichen Zusammenhang sehe ich bei der häufigen Nutzung von Facebook und Videoportalen. So kann man z. B. über seinen Facebook-Newsfeed auf die jeweiligen Portale gelangen. Eine mögliche Erklärung für die deutlich höheren Nutzerzahlen, könnte die sein, dass Nutzer nicht bewusst »Bewegtbild konsumieren« möchten, sondern durch die Aktivität in sozialen Netzwerken zufällig darauf stoßen. Das sind jedoch nur lose Vermutungen, die ich weder bestätigen noch belegen kann.
Ein zusätzlich wichtiger Punkt in Kupferschmitts Beitrag ist die Parallelnutzung von Fernsehen und Internet. So nutzen Onliner ab 14 Jahren im Jahr 2015 schon 55 % zumindest selten das Fernsehen und Internet parallel. Täglich dagegen nur 19 %. Bemerkenswert ist die zusätzliche Umfrage, die darauf ausgelegt ist, ob bei der Parallelnutzung der Fokus auf dem Fernsehen oder auf dem Internet liegt. Hier sprechen die Zahlen durchweg dafür, dass man während dem Fernsehen zusätzlich im Internet unterwegs ist, der Fernseher also der »First Screen« ist.6 Eine weitere Umfrage, die den Personenkreis auf 14–29-Jährige eingrenzt, zeig ein ähnliches Bild.7
Resümierend hinterfragt Kupferschmitt eine entscheidende Sache für die Zukunft: »Wer hat genügend attraktive und exklusive Inhalte, um im Wettbewerb zu stehen«8?
Genau dieser Punkt wird auch aus meiner Sicht zukünftig entscheidend sein, da sich die Nutzer selbst aussuchen können, was sie wann, wie schauen. Daher muss er aus meiner Sicht mit einem guten Angebot überzeugt werden, um aus dem riesigen Angebot genau »das Eine« zu wählen.
Insgesamt fehlt mir persönlich, eine Untersuchung der Nutzung von Bewegtbild unterwegs. Da meine Vermutung darin besteht, dass zukünftig auch unterwegs vermehrt Bewegtbild-Formate gefragt sind, wäre eine Umfrage diesbezüglich interessant. Da das in der Onlinestudie nicht berücksichtigt wird, möchte ich dazu selbst eine Umfrage in kleinerem Umfang machen.
Die Fernsehserie »About:Kate« ist ein crossmediales Projekt der ARTE Creative von Regisseurin und Autorin Janna Nandzik und dem Produzenten Christian Ulmen aus dem Jahr 2013.
Die Fernsehserie »About:Kate« ist ein crossmediales Projekt von der Regisseurin und Autorin Janna Nandzik und dem Produzenten Christian Ulmen aus dem Jahr 2013. Sie wurde auf ARTE Creative ausgestrahlt. Die Serie auf dem Fernsehbildschirm streckt dabei ihre Fühler Richtung Second Screen und Facebook aus.
Die Protagonistin Kate Harff liefert sich an Silvester selbst in eine Berliner Nervenklinik ein, weil sie mit ihrem Leben und dem Digitalen überfordert ist. Der Zuschauer verfolgt dabei zum einen ihre Aktivitäten innerhalb der Klinik wie diverse Besuche bei ihrer Therapeutin oder begleitet sie in therapeutische Kurse wie Korbflechten. Zum anderen erhält man Einblick in ihr geistiges Leben sowie ihr digitales Ich. Immer wieder nimmt der Zuschauer voyeuristischen Einblick auf ihr Facebook-Profil durch das sie scrollend und klickend versucht ihr wahres Ich zu finden. Sie hinterfragt Freundschaften, die auf der Facebook-Freundesliste angezeigt werden und löscht sie kurzer Hand alle, nachdem sie für sich feststellt, dass sie eigentlich keine Freunde hat. Sie zappt durch die Bilder, eine Mischung aus Zeichnungen und Fotos aus ihrem Leben, oder durch ihre Serien und Lieblingsbands. Sie hinterfragt dabei alles und jeden, vor allem aber sich selbst.
Fiktive Figuren als echte Personen
Ihr Profil sowie viele andere Profile der Protagonisten wurden bereits vor Serienstart eingerichtet und gefüllt. Veröffentlichte Musik-Playlists von Kate erwecken zusätzlich den Eindruck, als wäre Kate keine Schauspielerin, sondern eine echte Person. Janna Nandzik erzählt bei der Diskussionsrunde »Zukunft des Drehbuchschreibens« bei der Cologne Conference 2014, wie das Team als fiktive Figuren mit den Zuschauern bei Facebook chattet. Vielen fällt es dabei schwer Realität und Fiktion auseinanderzuhalten.
Zusätzlich erhält das Publikum durch eine App einen Second Screen, auf dem weitere Inhalte präsentiert werden. So gibt es beispielsweise Live-Inhalte während der Serie oder Psychotests. Des Weiteren haben sie weiteres Mitspracherecht durch »user-generated Content«, der eingereicht werden kann und geschickt in die Serie verflochten wird.
Wer bin ich?
Diese Frage ist keine seltene Frage in unserer heutigen Gesellschaft, welche von Überforderung auf allen Eben geprägt ist. In unserer digitalen Welt, in der wir Unterschiede zwischen unserem analogen und digitalen Ich feststellen, jedoch nicht einordnen oder akzeptieren können, weil wir für uns das eine wahre Ich suchen. Die Person, die wir »wirklich« sind, obwohl wir auch schon in der analogen Welt verschiedene Identitäten in verschiedenen Rollen hatten.
»About:Kate« illustriert dieses Thema wunderbar und zeigt Einblicke in die Gedankenwelt einer Mittzwanzigerin, die sicher stellvertretend für einen großen Teil der Generation ist. Der user-generated Content, der teilweise aus YouTube-Videos besteht, sowie Aktivitäten wie das 2013 noch alltäglichere Scrollen durch Facebook mit der Frage nach der Außenwirkung, unterstreichen das.
Als baldiges Ziel sehe ich eine Analyse dieser Serie.
Abbildungen
Eigener Screenshot; Nandzik, Janna: »About:Kate«, Staffel 1, Folge 1, »Frohes Neues!«, TC: 00:20:56, Deutschland 2013.
Für erste Tests im Breich VR-Brillen habe ich mir die Google Cardboard bestellt und getestet.
Die Google Cardboard ist eine Vorrichtung aus Karton mit der man ein Smartphone in eine Virtual Reality (VR)-Brille verwandeln kann. Die Bildqualität ist dabei zwar nicht optimal, sie kostet dafür aber auch nur einen Bruchteil richtiger VR-Brillen.
Die Intension die Google Cardboard zu testen ist zum einen erste Gehversuche mit einer VR-Brille zu machen, zum anderen sehe ich im VR-Bereich mögliches Potenzial für meine Masterarbeit. Für Android sind die Angebote momentan leider noch sehr spärlich gesät, so dass ich auf youTube-360°-Video zurückgreife, die man auf die Ansicht von VR-Brillen umschalten kann. Weiter teste ich eine Rollercoaster-App, sowie die App »Vrse« der New York Times, die verschiedene VR-Erfahrungen bereit stellt. Damit geht es z. B. im Helikopter in den Himmel von New York oder in ein Atelier.
Der Verlust des Raumgefühls
Sehr schnell wird mir bewusst, welch’ immersive Erfahrung man mit VR-Brillen machen kann, da das Raumgefühl überraschend schnell verloren geht. Man möchte sich bewegen, drehen, gehen, beobachten und ist sich nie ganz sicher, wo doch noch eine Zimmerwand im Weg steht. Ich finde es beeindruckend mit wie wenig Mitteln das Gehirn ausgetrickst werden kann und frage mich wie viel Reize es benötigt, um eine tatsächlich real wirkende VR-Erfahrung zu erschaffen. Die Apps, die auf der visuellen und auditiven Ebene arbeiten, könnten durch haptische oder taktile Elemente erweitert werden und so sicher für eine noch intensivere Realitätsverschiebung sorgen.
Des Weiteren frage ich, mich vor allem bei der Nutzung der vrse-App, welche neuen Möglichkeiten und Herausforderungen der VR-Bereich mit sich bringt. Der Nutzer kann vollständig eintauchen, sich umschauen und den Blick frei umherschweifen lassen, was einer realen Situation wohl sehr nahe kommt. Gleichermaßen bedeutet das, dass es für Filmemacher/Contententwickeler eine große Herausforderung sein wird, die visuelle Ebene nicht nur in einem kleinen Bildausschnitt, sondern im 360°-Bereich gestalten und wählen zu müssen. Neue Möglichkeiten, nämlich z. B. die, einen Schnitt genau dort anzubringen, wenn der Nutzer beispielsweise blinzelt, werden hier sicher hilfreich sein.
Freie Entscheidungen und Voyeurismus
Einen Anwendungsbereich könnte ich mir z. B. bei Konzertmitschnitten vorstellen, bei denen die Ausschnitte üblicherweise ein Wechselspiel aus Bildern der Bühne, des Publikums und Close-Ups der Menschen im Publikum ist. Hier könnte man mitten im Konzert sein und sich frei entscheiden, ob man nun lieber kurz den Nebenmann, die Bühne oder die Lichter an der Decke anschaut. Man kann voyeuristische Haltungen einnehmen und unbeobachtet beobachten oder einfach Teil von etwas sein, vor dem man sich in der Realität scheut. Hier fallen mir Musicals ein, bei denen Menschen im Nachhinein häufig von den Aktionen mit Publikumsbeteiligung erzählen. Dennoch wollen viele Menschen nicht im Mittelpunkt dieser stehen.
Insgesamt stellt sich natürlich die Frage, ob man letztendlich nicht lieber in der Realität ein Konzert besucht und das ganze Gefühl vor Ort mit dröhnendem Bass und für den Moment charmanten Biergeruch real erleben möchte. Für kurze Ausschnitte zwischendurch, wenn man sich kurz fallen lassen möchte, jedoch sicher eine gute Variante.
Aussicht
Um den Bogen zu meinem Master zu spannen, habe ich zusätzlich im Web recherchiert, welche Möglichkeiten es gibt, eigene VR-Erfahrungen zu gestalten ohne ein Programmier-Crack zu sein. Von Google gibt es wie üblich viel Unterstützung für Entwickler (Cardboard Developer »), sowie ein Design Lab, was für uns Designer wohl der interessantere Part ist. Hier stellt Google Richtlinien zur Verfügung, welche für die Gestaltung im VR-Bereich wichtig sind. Des Weiteren bin ich auf das plattformunabhängige WebVR gestoßen bzw. die Mozilla Web VR (WebVR ») gestoßen bzw. die Mozilla VR (Moz VR »), die wiederum abhängiger zu sein scheint. Damit wäre es jedoch zumindest schon einmal gegeben, dass man nicht nur eine App für iOS oder Android gestaltet.
Der erste Gehversuch mit der Cardboard war definitiv spannend, doch ist im Moment nicht klar, was das für mich und meine Masterarbeit bedeuten könnte und wie relevant die ersten Versuche sein werden.
Abbildungen
Eigener Screenshot; vrse und New York Times, App vrse, JR; Milk, Chris; Richter, Zach: »Walking New York«, NYT Mag VR, USA 2015.
Am 18.11.2015 habe ich meine erste Zwischenpräsentation gehalten. In der Präsentation zeige ich erste Ansätze einer grafischen Analyse sowie Auszüge meiner Recherche.
Am 18.11.2015 habe ich meine erste Zwischenpräsentation gehalten. In der Präsentation zeige ich erste Ansätze einer grafischen Analyse sowie Auszüge meiner Recherche.
Grafische Analyse
Die grafische Analyse von Webseiten gehört zu einem ersten Ansatz meiner Masterarbeit. Dabei möchte ich Webseiten mittels Screenshots der letzten zwei Jahrzehnte auf ihre Text-Bild-Verhältnisse und Interaktivität untersuchen. Meine Erwartung ist, dass zum einen die Bilderwelt einen wachsenden Anteil erhält und dass das Ausmaß der Interaktivität steigt.
Generell war auffällig, dass sich bei Internet-Giganten wie z. B. google oder Apple, dessen Seite ich auch untersucht habe, kaum etwas an der grundlegenden Seitenarchitektur geändert hat. Zwar stecken im Hintergrund sicherlich neue Technologien, jedoch sieht es bei reiner Betrachtung des Wireframes so aus, als hätte man nur die einzelnen Grafiken wie z. B. Apple Link-Buttons an aktuelle Design-Standards angepasst.
Bei spiegel.de ist dagegen bezeichnend, dass kaum Konstanz zu sehen ist und ständig neu experimentiert und gerelauncht wurde. Bis heute hat spiegel.de aus meiner Sicht keine Webseite, die aktuellen Ansprüchen genügt.
Das Medium Web
Ein zweiter Ansatz ist die Auseinandersetzung mit Netzkunst sowie mit Formen und Projekten, die mir im Umgang mit dem Medium Web an sich oder durch die Reflexion gesellschaftlicher Aspekte als besonders interessant erscheinen.
Ein weiteres, präsentiertes Projekt ist »The wilderness downtown« von Chris Milk. Bei diesem interaktiven Musikvideo/Kurzfilm von Arcade Fire wird zu Beginn die eigene Stadt abgefragt. Mit dieser Information werden mit Hilfe von Google Maps Bilder bzw Kamera-Fahrten in das Video gespeist. Dazu öffnen sich weitere Browserfenster
und der sichtbare Bereich wird erweitert. Neben der Verbindung neuer Technologien finde ich das Projekt unter anderem wegen dieser unüblichen Nutzung des Formats Web sehr interessant.
Abbildungen
Titelbild: Eigener Screenshot; Milk, Chris: »The wilderness downtown« – Musikvideo von Arcade Fire, URL: http://www.thewildernessdowntown.com, USA 2010, abgerufen am 17.11.2015.