Randlose Gestaltung

Frank Chimero teilt mit seinem Beitrag »The Web’s Grain« Überlegungen, wie man aus einer anderen Perspektive für das Web gestalten kann. Für besonders interessant und zugleich naheliegend halte ich seine Idee, randlos zu gestalten.

Frank Chimero teilt mit seinem Beitrag »The Web’s Grain« Überlegungen, wie man aus einer anderen Perspektive für das Web gestalten kann. Für besonders interessant und zugleich naheliegend halte ich seine Idee, randlos zu gestalten. Er vertritt dabei die Idee, zunächst Elemente ohne bekannte Größe der »Leinwand« zu arrangieren und sie erst dann in eine Box zu packen.1 Das steht dem häufigen Ansatz gegenüber, in festen Bildschirmgrößen zu denken – sei es nur klein, mittel, groß –, um diesen Raum auszufüllen.
Er ist zudem der Meinung, dass wir unsere Designs mit dem Hintergedanken entwickeln, wie sie am besten in der responsiven Ansicht zusammenbrechen. Vielmehr sollten wir uns darauf konzentrieren, wie sich die Elemente aufbauen.2

Seine Ansichten machen meiner Meinung nach durchaus Sinn, da das Web kein begrenzter Raum ist, wie wir es beispielsweise auf dem Printbereich kennen. Meinem Verständnis nach, geht es ihm jedoch nicht darum, den angezeigten Bereich ins unendliche auszuweiten, so dass man in alle Richtungen scrollen kann, sondern eher darum, dass man vorgefertigte Größen nicht als Grundlage der Gestaltung nehmen soll. Hier denke ich auch an Raster, welche viel zu häufig viel zu schnell zum Einsatz kommen. So hat sich eine Aufteilung in 12 oder 16 Spalten zwar bewährt, was jedoch nicht bedeuten muss, ein solches Raster sofort zu wählen. Vielmehr sollte sich die Aufspaltung aus dem Design heraus ergeben. Weiter finde ich seine Kritik berechtigt, dass zu viel darüber nachgedacht wird, wie Elemente im responsiven aussehen. Auch hier weiß man zwar aus der Erfahrung, welche Muster sich bewährt haben, was aber auch hier nicht automatisch zu einer Aufteilung ohne vorherige Gestaltung führen sollte. Die Verbreitung hat meiner Ansicht nach auch damit zu tun, dass weit verbreitete Frameworks wie beispielsweise Bootstrap die Anzahl der Spalten fest definieren. So können Webseiten schnell und funktional umgesetzt werden, was aus wirtschaftlicher Sicht natürlich sinnvoll ist.

Vor allen Dingen in Hinblick darauf, dass sich das Web aus seiner statischen Begrenztheit befreit und den Weg zurück zur fluiden Gestaltung findet, halte ich den Ansatz für spannend und für einen gelungenen Anreiz, um weiter über das Thema nachzudenken.

Quellen
  1. Vgl. Chimero, Frank: »The Web‘s Grain«, Stand: 2015, URL: https://frankchimero.com/writing/the-webs-grain/, Absatz 75, abgerufen am 6.4.2018.
  2. Vgl. Ebd., Absatz 78.

Räumliche Bedienumgebungen

John Underkoffler, welcher unter anderem ein Interface für den Minority Report entwickelt hat, hält einen TED-Talk über die Zukunft der Interfaces.

John Underkoffler, welcher unter anderem ein Interface für den Minority Report entwickelt hat, hält einen TED-Talk über die Zukunft der Interfaces.

Ein wichtiger Standpunkt, den er vertritt, ist der, dass wir uns grundlegende Gedanken über neue Benutzeroberflächen machen müssen.1 Seit der Entwicklung des Macintoshs und dessen Benutzeroberfläche Anfang der 80er Jahre, hat sich auf technologischer Ebene unglaublich viel verändert. Nichtsdestotrotz arbeiten wir nach wie vor mit ähnlichen Systemen.2

Er führt den Raum als wichtige Komponente an, der Computer und deren Programmiersprachen verstehen die Geometrie der realen Welt jedoch nicht.3 In einem ersten Beispiel zeigt er, wie projizierte Objekte in realen Objekten verschwinden können.4 Er zeigt damit, wie virtuelle und nicht-virtuellen verschmelzen und erklärt, dass Eingabe und Ausgabe im selben Raum stattfinden. Er führt ein weiteres Beispiel an, welches ich besonders beeindruckend finde. Das System Urp für »urban planners« ist ein Werkzeug für Architekten, welche nun mit ihren eigenen Händen im realen Raum mit digitaler Unterstützung arbeiten können. Underkoffler spricht davon, dass den Architekten und Stadtplanern damit Modelle zurückgegeben werden, welche einst durch CAD-Systeme konfisziert wurden. Auf einer projizierten Oberfläche können beispielsweise Häusermodelle verschoben werden, welche Schatten werfen. Die Tageszeit wird dabei auf einer Uhr dargestellt, welche auch als reales Modell vorhanden ist, und die manuelle Veränderung der Zeit verändert gleichermaßen den Schattenwurf. Informationen, ob es beispielsweise Probleme mit der Baubehörde geben könnte, werden umgehend mit einbezogen.5
Diesen Anwendungsfall halte ich für ein gelungenes Beispiel, wie die Verbindung zwischen virtueller und nicht-virtueller Welt sinnvoll eingesetzt werden kann. Erstaunlich ist, dass diese »räumlichen Bedienumgebungen« bereits vor 15 Jahren im MIT und Media Lab entstanden sind.6

Räumliche Bedienumgebung Urp
Urp – Urban plannersI

Ein weiteres Beispiel von Underkoffler halte ich dagegen für nicht allzu anwendbar. Ihm werden auf der Leinwand (in der realen Arbeitsumgebung vermutlich kleiner) Bilder angezeigt, welche er mithilfe eines Bedienhandschuhs frei anordnen kann. Er navigiert durch die Galerie, zoomt rein und raus und zeigt Beispiele, wie die Bilder auf verschiedene Arten, z.B. nach Farbe, sortiert werden können.7 Er zeigt, wie Bilder einfach per Handbewegung auf andere Bildschirme geschoben werden können, was vor allem bei der Kollaboration verschiedener Teammitglieder spannend ist.8

Das System an sich halte ich grundsätzlich zwar nicht für schlecht, bei der Bedienung frage ich mich jedoch, ob sie alltagstauglich ist. Mit Blick auf die Zukunft und möglicher Interfaces, sehe ich mich nicht den ganzen Tag wild gestikulierend vor einer projizierten Fläche. Ich bin überzeugt davon, dass Interfaces zunehmend den Körper mit einbinden und halte die direkte Arbeit mit Händen auch grundsätzlich für sinnvoll. Aber diese Art von Bedienung sehe ich eher in zeitlich begrenzenden Umgebungen, wie beispielsweise innerhalb einer Präsentation.

Quellen
  1. Vgl. Underkoffler, John: »Pointing to the future of UI«, URL: https://www.ted.com/talks/john_underkoffler_drive_3d_data_with_a_gesture, TC: 00:01:07–00:02:03, abgerufen am 26.2.2017.
  2. Vgl. Ebd., TC: 00:00:12–00:01:07.
  3. Vgl. Ebd., TC: 00:01:07–00:02:03.
  4. Vgl. Ebd., TC: 00:02:03–00:02:26.
  5. Vgl. Ebd., TC: 00:04:15–00:05:20.
  6. Vgl. Ebd., TC: 00:05:20–00:06:29.
  7. Vgl. Ebd., TC: 00:07:18–00:08:31.
  8. Vgl. Ebd., TC: 00:09:50–00:10:56.
Abbildungen
  1. Eigener Screenshot; Underkoffler, John: »Pointing to the future of UI«, URL: https://www.ted.com/talks/john_underkoffler_drive_3d_data_with_a_gesture, TC: 00:10:22, abgerufen am 26.2.2017.

Zurück auf Los

Frank Chimero spricht in einem Vortrag im Oktober 2017 bei der Mirror Conf in Braga über die steigende Komplexität in der Webentwicklung und wiederkehrende Verwirrtheit in Bezug auf technologische Neuerungen und Möglichkeiten. Seine Schilderung finde ich vor allen Dingen dahingehend spannend, dass es mir in vielerlei Hinsicht ähnlich geht.

Frank Chimero spricht in seinem Vortrag »Everything Easy is Hard Again« im Oktober 2017 bei der Mirror Conf in Braga über die steigende Komplexität in der Webentwicklung und wiederkehrende Verwirrtheit in Bezug auf technologische Neuerungen und Möglichkeiten. Seine Schilderung finde ich vor allen Dingen dahingehend spannend, dass es mir in vielerlei Hinsicht ähnlich geht.

Er erläutert die Veränderung bei der Entwicklung von Web-Layouts und von dem Gefühl, dass es sich alle fünf Jahre so anfühlt als würde man noch einmal von vorne beginnen,1 nachdem man sich gerade in die aktuelle Technologie eingearbeitet hat. Ab Mitte der 90er Jahre war die Gestaltung mithilfe von Tabellen üblich; später waren es Floats, Flexbox oder CSS Grid, welche auch in Kombination verwendet werden können.
Zudem spricht er von der Tatsache, dass Methoden, die Tabu waren plötzlich zu den Empfehlungen gehören. Hier nennt er das Beispiel, dass er einen Artikel gelesen hat, in dem es um die Vorteile geht, keine Stylesheets, sondern Inline-Styles zu verwenden.2 Ich selbst hing auch schon an diesem Punkt als ich das erste mal von »above the fold« hörte und eine Seite nach diesem Konzept verbessern sollte.

Ähnlich wie Chimero gab es bei mir immer wieder – wenn auch riesengroße – Lücken bei der Entwicklung von Webseiten. Nachdem ich meine ersten Webseiten im Jahr 2000 erstellte, habe ich mich jahrelang nicht mehr im Detail damit beschäftigt. Hier und da nur Versuche bis ich mich mit Beginn meiner Ausbildung 2007 wieder angenähert habe. Durch kleine statische Seiten oder die Betreuung von Seiten via Content Management Systeme wurde es wieder wärmer, doch den richtigen Sprung habe ich nicht mehr geschafft. Erst mit dem Beginn meines Studiums hatte ich immer wieder die Motivation, »das jetzt endlich richtig lernen zu wollen«. Es ging damit los, Floats richtig zu verstehen und plötzlich gab es dieses Responsive Webdesign, welches vieles durcheinander brachte: Pixel, em, rem oder Prozent? Fluid, Adaptiv, was? Und nach kurzer Pause gab es mit Flexbox plötzlich wieder etwas Neues. Ist das zusätzlich? Oder alternativ? Die meiste Zeit verbrachte ich wohl damit, zu verstehen, was wie und warum verwendet wird.

Mit meinen Kenntnissen war es bisher kein Problem, kleinere Webprojekte umsetzen, doch vor wenigen Wochen habe ich mich entschieden, tiefer eintauchen zu wollen. Ich habe damit begonnen bei #100daysofcode mitzumachen, um zu sehen, was passiert, wenn ich jetzt länger am Ball bleibe. Dabei geht es darum, sich eigene Ziele zu setzen und 100 Tage lang mindestens eine Stunde täglich zu üben und zu lernen. Es ist erstaunlich wie viel man in so kurzer Zeit lernen kann und ich hoffe trotz Master-Arbeit dran bleiben zu können. Vor allem wünsche ich mir, nicht wie bisher demotiviert zu sein, sobald es in JavaScript zu sehr ins Detail geht.

Der Vortrag von Frank Chimero inspiriert und motiviert mich dahingehend, dass es aus seiner Sicht egal sein könnte, ob man direkt aus der Schule kommt oder 20 Jahre Erfahrung mitbringt. Man könnte an der gleichen Stelle landen, nämlich im ersten Jahr, in dem man Webseiten erstellt.3 Und das ist immerhin ein hervorragender Anfang für viele weitere Jahre.

Quellen
  1. Vgl. Chimero, Frank: »Everything Easy is Hard Again«, Stand: 12.10.2017, URL: https://frankchimero.com/writing/everything-easy-is-hard-again/, Absatz 18, abgerufen am 15.2.2017.
  2. Vgl. Ebd., Absatz 26.
  3. Vgl. Ebd., Absatz 52.

(Un-)Menschlickeit im digitalen Mittelalter

Der Film »Lo and Behold – Wovon träumt das Internet?« des Regisseurs Werner Herzog geht in seinen zehn Kapiteln der Geschichte des Internets und dessen Auswirkungen auf unsere Gesellschaft nach. In Gesprächen werden beispielsweise »Die Herrlichkeit des Netzes«, »Die dunkle Seite«, »Internet auf dem Mars« oder die Zukunft des Netzes thematisiert. Gesprächspartner sind dabei Leonard Kleinrock, Elon Musk, Sebastian Thrun sowie viele weitere wichtige Protagonisten dessen tägliche Arbeit vom Internet bestimmt wird oder deren Leben durch das Netz massiv verändert wurde.

Der Film »Lo and Behold – Wovon träumt das Internet?« des Regisseurs Werner Herzog geht in seinen zehn Kapiteln der Geschichte des Internets und dessen Auswirkungen auf unsere Gesellschaft nach. In Gesprächen werden beispielsweise »Die Herrlichkeit des Netzes«, »Die dunkle Seite«, »Internet auf dem Mars« oder die Zukunft des Netzes thematisiert. Gesprächspartner sind dabei Leonard Kleinrock, Elon Musk, Sebastian Thrun sowie viele weitere wichtige Protagonisten dessen tägliche Arbeit vom Internet bestimmt wird oder deren Leben durch das Netz massiv verändert wurde. Wie in meiner Dokumentation üblich, möchte ich keine Filmrezension schreiben, sondern lediglich die wichtigen Punkte herauspicken. Vor allem die Kapitel »Künstliche Intelligenz« und »Das Internet des Ichs« sind dabei spannend für mich.

In ersterem prophezeit Sebastian Thrun, dass wir an einen Punkt kommen werden, an dem fast alles von Maschinen übernommen werden kann und dass sie das meiste besser als wir Menschen können. Das liegt unter anderem daran, dass Maschinen sehr viel schneller lernen.1 Zudem erklärt er schon zuvor, dass die Fehler, die selbstfahrende Autos machen, sofort mit anderen – auch »ungeborenen« – Autos geteilt werden. Dadurch wird dieser Fehler niemals wiederholt, was ein enormer Vorteil gegenüber menschlichen Fahrern ist.2

Theologische Revolution

Solche grundlegenden Veränderungen, die durch das Internet und die Maschinen, die für uns denken, einhergehen, benötigen laut Computerwissenschaftler Danny Hillis eine Veränderung unserer Moral. Wir müssten über die Definition, was menschlich sein wirklich bedeutet, nachdenken und er sagt eine theologische Revolution voraus. Wir ergründen und entwickeln eine neue Gesellschaft sowie neue Ideen darüber, was richtig und falsch ist. Er sieht die momentane Zeit zudem als eine unglaublich kreative Zeit in der Menschheitsgeschichte – nicht nur technologisch, sondern auch moralisch und kulturell.3 Dieser Gedanke ist dem Luciano Floridis, der von einer neuen Informationsphilosophie spricht, sehr nahe. Auch er ist der Meinung, dass die Entwicklung einer neuen Philosophie notwendig ist, um dem rasanten Wandel, dem unsere Zeit unterliegt, gerecht zu werden.

Das digitale Mittelalter

Der Computerwissenschaftler sieht eine weitere Entwicklung, die den Gedanken Floridis sehr ähnlich ist. Während der Informationsphilosoph es als »Digitalen Gedächtnisverlust« formuliert (Die Hypergeschichte »), spricht Hillis vom »Digitalen Mittelalter«. Seinen Beobachtungen nach passieren heutzutage viele Dinge deren Hintergründe später nicht mehr nachvollziehbar sind. Während es noch handschriftliche Briefe der Gründerväter der USA gibt, wird heute vieles per E-Mail geklärt. Diese Unterhaltungen vorweg werden höchstwahrscheinlich also nicht mehr rekonstruierbar sein und verloren gehen.4 Während die Ausführung beider ziemlich unterschiedlich sind, entsprechen sie sich im Kern doch sehr. Im Grunde geht es bei beiden um eine nicht vorhandene oder verlorene Historie, welche es den Generationen nach uns sehr schwierig machen wird, die Hintergründe zu verstehen.

Das unsichtbare Internet

Während meines Researchs beschäftigt mich immer wieder das Verschwinden von Schnittstellen. Technologie wird zunehmend unsichtbar und rückt in den Hintergrund. Der Internetpionier Leonard Kleinrock erläutert im Film, dass ein Raum wissen müsste, wenn man da ist. Er spricht von Voice User Interfaces, so dass man mit der Technologie kommunizieren kann, welche wiederum mit Sprache, einem Hologram oder einem Display auf natürliche Weise antworten kann. Auch Gesten, Berührungen oder sogar das Miteinbeziehen des Geruchssinns hält er für möglich. Er vergleicht sie dabei mit der Elektrizität, welche einfach unsichtbar in unseren Wänden eingelassen ist. Zu dieser Unsichtbarkeit müsste sich das Internet jedoch noch entwickeln.5 Ähnlich sieht das der Sicherheitsanalytiker Sam Curry, welcher von Räumen spricht, in denen das Licht nach eigenen Vorlieben gedimmt oder die Musik angeschaltet wird, wenn man den Raum betritt.6 Vor allem der letzte Ansatz eines Smart Homes, ist heutzutage teilweise schon möglich. So können beispielsweise HUE-Lampen eingeschaltet werden, sobald sich das Smartphone mit dem W-LAN verbindet oder Lampen von z. B. Trilux je nach Tageslicht gesteuert werden.

Abschließend liefert mir der Film »Lo and Behold – Wovon träumt das Internet?« leider kaum neue Erkenntnisse oder Ansätze, welche ich für meine Master-Arbeit verwenden kann. Die interessanten Gedanken habe ich hier für mich zusammengefasst, jedoch habe ich vor allem im Hinblick darauf, dass Elon Musk oder Ted Nelson Teil des Films sind, mehr erwartet.

Quellen
  1. Vgl. Herzog, Werner: »Lo and Behold – Wovon träumt das Internet?«, 98 Minuten, Vereinigte Staaten 2016 [Deutschland 2017], TC: 01:23:30–01:24:22, VIII. Künstliche Intelligenz.
  2. Vgl. Ebd., TC: 00:34:56–00:36:18, II. Die Herrlichkeit des Netzes.
  3. Vgl. Ebd., TC: 01:24:23–01:25:08, VIII. Künstliche Intelligenz.
  4. Vgl. Ebd., TC: 01:29:46–01:30:20, IX. Das Internet des Ichs.
  5. Vgl. Ebd., TC: 01:26:17–01:27:20, IX. Das Internet des Ich.
  6. Vgl. Ebd., TC: 01:27:20–01:28:28, IX. Das Internet des Ich.

Der schmale Grad zwischen Nutzerfreundlichkeit und Funktionalität

Die erste graphische Benutzeroberfläche für Personal Computer bzw. Workstations wird dem Xerox Alto zugeschrieben. Welches Unternehmen nun den allerersten kommerziellen Computer mit GUI entwickelte und vertrieb, ist für mich dagegen etwas unklar.

Die erste grafische Benutzeroberfläche für Personal Computer bzw. Workstations wird dem Xerox Alto zugeschrieben. Welches Unternehmen nun den allerersten kommerziellen Computer mit GUI entwickelte und vertrieb, ist für mich dagegen etwas unklar. Zum einen wird hier der PERQ genannt, welcher 1979 von dem Unternehmen Three Rivera Computer Corporation veröffentlicht wurde und sich sehr am Xerox Alto orientiert. Das Jahr der Veröffentlichung spricht eindeutig dafür. Zum anderen bin ich bisher häufig über den Xerox Star gestolpert, welcher als eine verbesserte Version des Xerox Alto gilt und erst im Jahr 1981 auf den Markt kam. Scheinbar gehörte er jedoch zu den damals eher unbekannten Workstations. Weiter zählt der 1983 veröffentlichte Apple Lisa zu den ersten kommerziellen Computern, der eine grafische Benutzeroberfläche beinhaltete, die zudem – wie beim Xerox Star – über eine Maus bedienbar war. Er gilt wohl als zunächst bekannteste und revolutionärste Erfindung in dieser Reihe.

Unabhängig davon, ob nun Windows, Mac oder Linux sieht Carrie Anne Philbin jedoch eins: dass fast immer eine evolvierte Version des WIMP Interfaces verwendet wird, welches mit dem Xerox Alto eingeführt wurde.1

Der Apple Lisa

Der Entwicklung des Apple Lisas ging 1979 ein entscheidender Besuch von Steve Jobs und seinem Team bei Xerox voraus.2 Während Adele Goldberg, Gründerin von ParcPlace Systems, zu diesem Zeitpunkt bereits klar war, dass Xerox mit einer Präsentation des Altos das Tafelsilber des Unternehmens verschenkte, bestanden die Manager auf diese Vorführung.3 Das Problem war, dass die Forscher in Palo Alto zwar dazu angehalten wurden, neue Ideen für die Zukunft zu entwickeln.4 Auf der anderen Seite verstand die Führung in New York, welche grundsätzlich auf die Entwicklung von Druckern aus war, jedoch nicht die Visionen, die dort entstanden.5 Umso begeisterter war Larry Tesler, früher Forscher bei Xerox PARC, dass Steve Jobs und sein Team innerhalb einer Stunde mehr verstanden als die Manager über Jahre nicht.6 Auch Jobs sah, dass das Unternehmen keine Ahnung hatte, was mit Computern alles möglich ist und glaubt daran, Xerox den Sieg vor den Füßen weggeschnappt zu haben. Aus seiner Sicht könnte das Unternehmen die Computerindustrie beherrschen und das IBM oder Microsoft der 90er Jahre sein.7

Dem Apple-Mitgründer wurden bei dieser Demo drei Dinge gezeigt, von denen eine Sache besonders hervorstach. Neben der objektorientierten Programmierung und dem Netzwerk-Computersystem war vor allem die grafische Benutzeroberfläche interessant für ihn. Laut ihm war es das bis dahin beste, was er in seinem Leben gesehen hatte und trotz der kleinen Fehler, die er erkannte, wusste er innerhalb von zehn Minuten, dass in Zukunft alle Computer so arbeiten würden.8 Die Besucher sahen einen Computer, der dafür gestaltet wurde, einfach bedient zu werden und den jeder verwenden konnte.9

Auf dieser Grundlage ging Jobs und sein Team zurück zu Apple und entwickelte Lisa.10 Dabei wurde das System nicht einfach nachgestellt, sondern um viele Funktionen erweitert. So gab es beim Xerox Alto beispielsweise keine Menüs, sondern Pop-up-Fenster. Zudem konnten Fenster mit einem Doppelklick geöffnet werden und sich erstmals überlappen. Weiter soll er über eine vollständige Schreibtisch-Metapher verfügt haben, so dass es nun Features wie den Papierkorb gab. Auch Befehle wie Apfel-S wurde mit dem von Apple eingeführten »Macintosh Human Interface Guide« eingeführt.11

Screenshot Apple Lisa
Screenshot des Apple Lisa Betriebssystems

In einer Demo wird diese neue Technologie vorgestellt. Dabei wird gezeigt, dass Lisa einen Desktop simuliert, auf dem frei platzierbare Icons zu finden sind.12 Neben der Vorstellung von gewöhnlichen Schreibtisch-Tools wie einer Uhr oder einem Kalkulator,13 werden Programme zur Textverarbeitung oder Gestaltung demonstriert. Wenn man bedenkt, dass der Einzug von Computer für den privaten Gebrauch erst Ende der 70er Jahre so wirklich begann, sind Werkzeuge zur Text- oder Grafikbearbeitung als revolutionär einzustufen.

Später wurde zwar häufig behauptet, dass Steve Jobs die Ideen von Xerox geklaut hätte, aber unter dem Strich gab es einen Deal: Xerox konnte vor dem Börsengang Apples günstige Aktien-Anteile kaufen, welche sich später vervielfachten.14

Insgesamt zählt Apple Lisa zwar als sehr fortschrittlich, war aber für den normalen Privatgebrauch zu teuer. Heute läge der Preis immerhin bei 25.000 Dollar, was in der heutigen Welt voller günstiger Bauteile unvorstellbar wäre. Somit war er ähnlich wie der Xerox Star ein Flop und Apple bastelte an einem Nachfolger, dem Macintosh. Er wurde 1984 präsentiert und war mit – nach heutigen Verhältnissen – 6.000 Dollar vergleichsweise günstig.15

Der Macintosh

Bei der Produktpräsentation definiert Steve Jobs zwei Meilenstein-Produkte in der damaligen Computerindustrie. Dazu gehörte der Apple II aus dem Jahr 1977, sowie der IBM Personal Computer von 1981. Den Macintosh sah er als dritten Meilenstein in dieser Reihe. In der auf dem Macintosh-Bildschirm gezeigten Präsentation, werden verschiedene Features wie die Veränderung von Schriftgrößen, -stilen und arten gezeigt. Die Schrift konnte deformiert werden, Bildbearbeitung wurde ermöglicht und auch die Tabellenkalkulation erhält einen Platz in dieser Demonstration.16 Manche Funktionen sind zwar bereits im Lisa zu finden, der Macintosh versprach jedoch der weit verbreitete Computer für den heimischen Gebrauch zu werden.

Innerhalb eines Textes, welcher von einer Computerstimme vorgelesen wurde, gibt es zudem eine Spitze gegen den IBM-Computer, welcher als Konkurrent des Lisas zählte. Dort heißt es »Ich würde gerne eine Maxime mit dir teilen, welche ich erkannte, als ich zum ersten Mal ein IBM-Großrechner sah: TRAU NIE EINEM COMPUTER, DEN DU NICHT HOCHHEBEN KANNST!«17.

Kampf um die Marktmacht

Obwohl Steve Jobs in seiner Erfindung einen revolutionären Fortschritt sah, stürzten die Verkäufe schnell ein. Selbst Werbekampagnen, in denen IBM als beherrschender Tyrann ganz nach George Orwell dargestellt wurde oder in denen gezeigt wurde, wie einfach der Macintosh im Gegensatz zum IBM-Rechner bedient werden kann, brachten nichts.18

Auch wenn die grafische Oberfläche und die generelle Bedienbarkeit tatsächlich fortschrittlich waren, konnte der Rechner nicht mit dem deutlich günstigeren IBM-Rechnern mithalten.19 Ein weiteres Problem war der Umgang mit dem eigenen System, den Apple bis heute beibehalten hat. Für die geschlossene Architektur gab es kaum Software. IBM hat sich dagegen deutlich offener positioniert, so dass fremde Produkte oder nicht-IBM-Computer mit dem Label »IBM-kompatibel« versehen werden konnten.20 Das hatte zur Folge, dass die Computer von Apples Konkurrenz zwar nicht so intuitiv zu bedienen waren, die Menschen aber auf einen viel größeren Markt an kompatibler Hard- und Software zugreifen konnten.

Im Bezug auf die grafische Oberfläche konnte man bei Microsoft Windows erst mit der Einführung von Windows 3.0., beziehungsweise noch eher mit der von Windows 95, wirklich von einem verbesserten und konsumerorientierten GUI sprechen. Mit Windows 95 wurden Elemente wie die Taskbar, der Datei-Manager Windows Explorer oder das Start-Menü eingeführt. Zudem wurde mit dem Projekt Microsoft Bob ein kompletter Raum mit Regalen, Tisch und Türen zu weiteren Räumen als Metapher geschaffen. Dieses Konzept war jedoch nicht erfolgreich.21

Um den Macintosh zu retten, benötigte es die »Killer-Anwendung«, welche bereits auf IBM-Rechnern zu finden waren. Ein großer Fortschritt war dabei die Einbindung von Adobe, dessen Gründer John Warnock und Charles Geschke zuvor bei Xerox arbeiteten. Deren Entwicklung der Druckersprache Interpress fand dort keinen Anklang, was in die Gründung von Adobe und der bis heute verbreiteten Druckersprache PostScript mündete. Damit war es möglich »WYSIWYG« ernsthaft zu verwirklichen: Mit Laserdruckern konnte genau das gedruckt werden, was auf dem Bildschirm zu sehen war.22 Dieser Fortschritt präziser Ausdrucke, gekoppelt an ein System mit nutzerfreundlicher Oberfläche, mündete in eine völlig neue Branche: dem Desktop-Publishing. Damit wurde der Macintosh der Computer der Wahl in der kreativen Branche.23

Der schmale Grad zwischen Nutzerfreundlichkeit und Funktionalität

An diesem Beispiel erkennt man, wie schmal der Grad zwischen Nutzerfreundlichkeit und nötiger Funktionalität ist. Zudem lässt sich einiges zu deren Wichtigkeit ablesen.

Bei einer Demonstration des Apple Lisas 1984 betont Alfred Di Blasi, dass Leute nicht wissen sollten wie ein Computer funktioniert. Sie müssen ihn einfach bedienen können, um ihre Arbeit machen zu können. Computer seien Produktivitätstools, weshalb Leute mehr Zeit dafür aufbringen sollten, das zu tun, was sie können anstatt erst zu lernen, wie man das Werkzeug nutzt.24 Nichtsdestotrotz sollten solche Produktivitätstools erst einmal vorhanden sein.

Diesen Punkt kann man aus meiner Sicht auch auf die Gestaltung im Web übertragen. Zum einen halte ich es für wichtig, dass eine Webseite, angefangen bei der grundsätzlichen Struktur bis hin zum letztendlichen grafischen Interface, durchweg so aufgebaut sein muss, dass der Nutzer so wenig Hürden wie nötig bewältigen muss. Jedes Unverständnis und jede Unsicherheit auf dem Weg zum Ziel, birgt die potenzielle Gefahr, dass der Besucher abspringt. Zum anderen darf jedoch die Wichtigkeit der grundsätzlichen Funktionalität nicht übersehen werden.

Bestenfalls leben natürlich die primären Funktionen im harmonischen Einklang mit Nutzerfreundlichkeit und unterstützendem Interface-Design. Nichtsdestotrotz macht bei der Entwicklung von Webseiten der Einsatz von minimum viable products (mvp) durchaus Sinn. Dadurch wird sichergestellt, dass ein Produkt die Mindestanforderungen erfüllt, welche meiner Ansicht nach darin liegen, dass ein Produkt funktioniert. Das bedeutet, dass der Nutzer beim Besuch einer Webseite sein Ziel (und natürlich das des Unternehmens) erreichen soll. Hier sehe ich die Funktionalität als primären Faktor. Zwar können unterstützendes Design und hervorragende Nutzerfreundlichkeit die Chance auf Erreichen des Ziels massiv steigern, alleine kann jedoch nur die Funktionalität überleben.

Quellen
  1. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:11:32–00:11:47, abgerufen am 12.1.2018.
  2. Vgl. Ebd., TC: 00:08:13–00:09:12.
  3. Vgl. Cringely, Robert X: »Triumph of the Nerds«, Dokumentation, 150 Minuten, Vereinigte Staaten 1996, TC: 01:52:54–01:53:33.
  4. Vgl. Ebd., TC: 01:46:50–01:47:00.
  5. Vgl. Ebd., TC: 01:48:55–01:49:42.
  6. Vgl. Ebd., TC: 01:54:21–01:54:32.
  7. Vgl. Ebd., TC: 01:54:32–01:54:55.
  8. Vgl. Ebd., TC: 01:50:41–01:51:48.
  9. Vgl. Ebd., TC: 01:53:34–01:54:09.
  10. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:08:13–00:09:12, abgerufen am 12.1.2018.
  11. Vgl. Dernbach, Christoph: »Apple und Xerox PARC«, Stand: 10.8.2013, URL: http://www.mac-history.de/apple-geschichte-2/2012-01-29/apple-und-xerox-parc, Absatz 19 & 20, abgerufen am 20.1.2018.
  12. Vgl. DiBlasi, Alfred, adiblasi: »Tech: Apple Lisa Demo (1984)«, Stand: 19.11.2006, URL: https://www.youtube.com/watch?v=a4BlmsN4q2I, TC: 00:08:00–00:08:35, abgerufen am 12.1.2018.
  13. Vgl. Ebd., TC: 00:08:35–00:09:15.
  14. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:08:13–00:09:12, abgerufen am 12.1.2018.
  15. Vgl. Ebd., TC: 00:09:12–00:09:43.
  16. Vgl. Cringely, Robert X: »Triumph of the Nerds«, Dokumentation, 150 Minuten, Vereinigte Staaten 1996, TC: 02:04:07–02:05:43.
  17. Ebd.
  18. Vgl. Ebd., TC: 02:06:41–02:07:37.
  19. Vgl. Ebd.
  20. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:08:73–00:08:53, abgerufen am 12.1.2018.
  21. Vgl. Ebd., TC: 00:10:45–00:11:32.
  22. Vgl. Cringely, Robert X: »Triumph of the Nerds«, Dokumentation, 150 Minuten, Vereinigte Staaten 1996, TC: 02:09:09–02:09:42.
  23. Vgl. Ebd., TC: 02:09:48–02:09:42.
  24. Vgl. DiBlasi, Alfred, adiblasi: »Tech: Apple Lisa Demo (1984)«, Stand: 19.11.2006, URL: https://www.youtube.com/watch?v=a4BlmsN4q2I, TC: 00:06:18–00:06:32, abgerufen am 12.1.2018.
Abbildungen
  1. Titelbild: Light, Alan: »Apple Convention, Boston, Spring 1983. An original Apple Lisa at work.«, Stand: Frühling 1983, via Wikimedia Commons, abgerufen am 28.1.2018, Lizenz: CC BY 2.0.

»Laws of UX« von Jon Yablonski

Gestern ging die Webseite Laws of UX (lawsofux.com) von Jon Yablonski online. Er präsentiert damit ein Regelwerk mit den wichtigsten Punkten, die ein Designer beim Erstellen von Benutzeroberflächen berücksichtigen sollte. Eine großartige Arbeit, die theoretische Inhalte hervorragend mit guter Gestaltung verbindet.

Gestern ging die Webseite Laws of UX (lawsofux.com) von Jon Yablonski online. Er präsentiert damit ein Regelwerk mit den wichtigsten Punkten, die ein Designer beim Erstellen von Benutzeroberflächen berücksichtigen sollte.

Meiner Ansicht nach punktet er dabei nicht nur mit den Inhalten bzw. den Regeln selbst, sondern setzt sie zusätzlich großartig in Szene.

Gelangt man auf die Seite sieht man bildschirmfüllend lediglich eine grafische Karte mit dem Titel der jeweiligen Regel, einen kurzen erklärenden Text sowie einen Button mit »Learn more«. Dezent im Hintergrund – Ton in Ton – erscheint die Ordnungsnummer der Regel sowie ein grafisches Element. In dieser Ansicht kann man sich durch die einzelnen Regel-Teaser scrollen. Eine seitliche Navigation verweist auf soziale Netzwerke, über das Burger-Menu erreicht man die Navigation, die alle Inhalte im Überblick zeigt.

Laws of UX Jon Yablonski Fitt‘s Law
Laws of UX – Fitt‘s LawII
Laws of UX Jon Yablonski Law of Proximity
Laws of UX – Law of ProximityIII
Laws of UX Jon Yablonski Miller‘s Law
Laws of UX – Miller‘s LawIV
Laws of UX Jon Yablonski Serial Position Effect
Laws of UX – Serial Position EffectV
Laws of UX Jon Yablonski Navigation
Laws of UX – NavigationVI

Klickt man sich in eine Regel, sind – wieder bildschirmfüllend – eine Farbfläche im Hintergrund, der Titel, die Ordnungsnummer sowie dezente grafische Elemente zu sehen. Der Aufbau vollzieht sich dabei in zurückhaltenden, wirkungsvollen und meiner Ansicht nach visuell sehr ansprechenden Animationen.
Scrollt man nun weiter, erhält man einen bei allen Regeln den strukturell gleichen Überblick über sie. Die »Übersicht«, den »Ursprung« sowie weitere Leseempfehlungen.

Laws of UX Jon Yablonski Fitt‘s Law Detail
Laws of UX – Fitt‘s LawVII
Laws of UX Jon Yablonski Miller‘s Law Detail
Laws of UX – Miller‘s LawVIII
Laws of UX Jon Yablonski Miller‘s Law Detail
Laws of UX – Miller‘s LawIX

Insgesamt halte ich das Projekt für eine großartige Arbeit, die zeigt wie man theoretische Inhalte visuell ansprechend inszenieren kann. Generell fällt mir auf, dass mir vor allem die Arbeiten im Gedächtnis bleiben, die sowohl mit theoretischen Inhalten als auch mit hervorragender Gestaltung bzw. Umsetzung hervorstechen. Dazu gehören beispielsweise auch »In Pieces« von Bryan James oder »Pulse« von Markus Kison. Mit »theoretischen Inhalten« meine ich dabei nicht allein Daten, die so auch auf Unternehmenswebseiten oder ähnlichen auftauchen können. Ich verstehe darunter ein gut recherchiertes Thema dessen Hauptinhalte durch gute Gestaltung fokussiert und in Szene gesetzt werden. So basiert »In Pieces« beispielsweise auf dem Wissen über bedrohte Tierarten, »Pulse« dagegen auf einer Emotionstheorie von Robert Plutchik aus dem Jahr 1980.
Diese Arbeiten sowie das aktuelle Projekt von Jon Yablonski verdeutlichen mir im Bezug auf meine Masterarbeit zunehmend, welche Schwerpunkte für mich immer bedeutender werden.

Abbildungen
  1. Titelbild: Eigener Screenshot; Yablonski, Jon: »Laws of UX«, URL: http://lawsofux.com, abgerufen am 16.1.2018.
  2. Eigener Screenshot; Yablonski Jon: »Laws of UX«, URL: http://lawsofux.com, abgerufen am 16.1.2018.
  3. Ebd.
  4. Ebd.
  5. Ebd.
  6. Ebd.
  7. Eigener Screenshot; Yablonski, Jon: »Laws of UX«, URL: http://lawsofux.com/fitts-law.html, abgerufen am 16.1.2018.
  8. Eigener Screenshot; Yablonski, Jon: »Laws of UX«, URL: http://lawsofux.com/millers-law.html, abgerufen am 16.1.2018.
  9. Ebd.

Die Anfänge der grafischen Benutzeroberfläche

Während meinen Nachforschungen bezüglich der grafischen Veränderungen im Web, gelange ich unweigerlich an den Ursprung der meisten heutigen GUIs. Obwohl das GUI grundsätzlich vom Webdesign zu unterscheiden ist, ist es für mich zum einen wichtig, die Ursprünge dessen zu erkunden, was uns heutzutage die Gestaltung im Web überhaupt ermöglicht. Zum anderen ist für mich der damalige Umgang mit gestalterischen Elementen spannend, welcher noch mehr von der Technologie bestimmt wurde als heute.

Während meinen Nachforschungen bezüglich der grafischen Veränderungen im Web, gelange ich unweigerlich an den Ursprung der meisten heutigen GUIs. Obwohl das GUI grundsätzlich vom Webdesign zu unterscheiden ist, ist es für mich zum einen wichtig, die Ursprünge dessen zu erkunden, was uns heutzutage die Gestaltung im Web überhaupt ermöglicht. Zum anderen ist für mich der damalige Umgang mit gestalterischen Elementen spannend, welcher noch mehr von der Technologie bestimmt wurde als heute.

Die Entwicklung des Konzepts der GUIs wird üblicherweise dem Forschungszentrum Xerox Palo Alto Research Center (Xerox PARC) zugeschrieben. Das ist zwar grundsätzlich richtig, jedoch kann diese Entwicklung nicht gänzlich isoliert betrachtet werden – ihr gingen jahrzehntelange Forschung voraus.

Sketchpad und Spacewar! als Inspiration für Doug Engelbart

Frühe interaktive, grafische Anwendungen wie Ivan Sutherlands »Sketchpad« (1962) oder das von Steve Russell am MIT entwickelte Spiel »Spacewar!« (1962) waren Teil dieser Evolution. Vor allem Sketchpad soll Doug Engelbart in seiner Arbeit inspiriert haben,1 welcher erst 1968 das oN-Line System (NLS) demonstrierte. Das NLS unterstütze dabei schon viele Eigenschaften moderner Computer wie beispielsweise Bitmap-Grafiken, Videokonferenzen, Textverarbeitung oder die kollaborative Bearbeitung von Dokumenten in Echtzeit. Des weiteren erinnert die Benutzung der von ihm erfundenen Maus sowie die Verwendung von Fenstern an heutige Verhältnisse.2

Sketchpad Ivan Sutherland
Der Erfinder Ivan Edward Sutherland bedient sein Programm Sketchpad, welches 1962 innerhalb seiner Dissertation entstanden ist. Sketchpad gilt als erstes Programm mit grafischer Benutzeroberfläche. Mithilfe eines Lichtgriffels, einem Vorläufer der Maus als Eingabegerät, konnte direkt auf dem Bildschirm gezeichnet werden.II
In der Zusammenfassung in einer seiner Schriften heißt es: »Es wurde verwendet, um elektrische, mechanische, wissenschaftliche, mathematische und animierte Zeichnungen zu zeichnen«3.
Spacewar! von Steve Russell
Steve Russells Erfindung »Spacewar!« auf dem PDP-1, welches als eines der ersten grafischen Computerspiele gilt und 1962 fertiggestellt wurde. Auch hier wird der Lichtgriffel als Eingabegerät genutzt.III

Xerox Alto mit dem WIMP Interface

Ein interessanter Verlauf ist der, dass – durch die Reduzierung staatlicher Finanzierungen – viele von Engelbarts Team zum neu gegründeten Xerox PARC wechselten. Dort wurde 1973 mit dem Xerox Alto der erste wirkliche Computer mit einer grafischen Benutzeroberfläche fertiggestellt. Das grafische Konzept orientierte sich dabei an bekannten Mustern, weshalb der 2D-Bildschirm als Oberfläche eines Schreibtisches dargestellt wurde. Innerhalb von einzelnen Rahmen wurden die Programme angezeigt, welche wir heute als Fenster bzw. auch im deutschen als windows kennen. Aus der realen Welt wurden weitere Hilfsmittel wie ein Kalkulator oder die Uhr übernommen, welche frei platzierbar waren. Diese Metapher wird auch »Schreibtisch-Metapher« genannt.4 Bis heute werden Metaphern dieser Art genutzt – noch immer verwenden wir einen sehr abstrahierten Schreibtisch mit Ordnern oder einem Papierkorb. Beides war in dieser Version jedoch noch nicht vorhanden.

Das Alto Team verwendete für seine Gestaltung Windows, Icons, Menüs sowie Zeiger (Pointer). Diese Art wird als WIMP Interface bezeichnet und ist bis heute weitestgehend in Verwendung. Zudem bot Alto wiederverwendbare, grafische Bausteine wie Buttons, Chechboxen oder Tabs an, aus denen GUI-Anwendungen entwickelt werden konnten. Auch sie waren an Objekte der realen Welt angelehnt.5

Grafische Benutzeroberfläche des Xerox Alto
Das Dynabook, entwickelt von Alan Kay, gilt als konzeptioneller Vorläufer des Xerox Alto. Die Grafik zeigt die grafische Benutzeroberfläche des Xerox Alto, welche – dem Bildschirm entsprechend – vertikal statt horizontal ist. Die Grafik zeigt, dass das GUI bereits aus einzelnen, sich überlappenden Fenstern sowie Symbolen bestand. Alan Kay und sein Team entwickelten als Softwareumgebung die objekt-orientierte Programmiersprache SmallTalk. Um mit Dokumenten, Anwendungen und Co. interagieren zu können, konnten Symbole, Dialogfelder und Dropdown-Menüs angeklickt werden.IV

Xerox Star – Cut, Copy, Paste

Vom Xerox Alto gab es nur 2000 Exemplare, mit denen intern oder an Universitäts-Laboren gearbeitet wurde. Sie wurden nie kommerziell verkauft und 1981 kam die Folgeversion Xerox Star mit verbesserter Hard- und Software auf den Markt. Bei dieser Version wurde die Schreibtisch-Metapher weiter ausgereizt, so dass Dateien wie Papier aussahen und in Ordnern oder virtuellen Aktenschränken verstaut werden konnten.6 Auch weitere Funktionen, die wir heute verwenden, wurden mit dem Xerox Star eingeführt. Es sollte die Möglichkeit bestehen, Veränderungen unsichtbar zu machen, was mit Cut, Copy und Paste gelang. Die Idee dahinter war zudem, dass ausgedruckte Dokumente ein perfektes Abbild realer Versionen sein sollten. Das wurde »What-You-See-Is-What-You-Get« (WYSIWYG) genannt7 und ist bis heute ein weit verbreiteter Terminus.

Grafische Benutzeroberfläche des Xerox Star
Grafische Benutzeroberfläche des Xerox StarV

Im folgenden Verlauf möchte ich mich zwar weiterhin mit der Entwicklung grafischer Benutzeroberflächen beschäftigen und etwas detaillierter auf die Interfaces selbst eingehen. Insgesamt wird die Beobachtung aber eher oberflächlich bleiben, da mein Fokus sehr klar auf der Evolution im Web selbst liegt.

Quellen
  1. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:01:58–00:02:36, abgerufen am 12.1.2018.
  2. Vgl. Ebd., TC: 00:02:36–00:02:53.
  3. Sutherland, Ivan Edward: »Sketchpad: A man-machine graphical communication system«, Stand: September 2003, URL: http://www.cl.cam.ac.uk/techreports/UCAM-CL-TR-574.html, abgerufen am 12.1.2018.
  4. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:03:03–00:04:36, abgerufen am 12.1.2018.
  5. Vgl. Ebd.
  6. Vgl. Ebd., TC: 00:06:30–00:07:00.
  7. Vgl. Ebd., TC: 00:07:05–00:07:48.
Abbildungen
  1. Titelbild: Hicks, Michael: »Xerox PARC Alto with mouse and chorded keyset.«, Stand: 3.11.2013, via Wikimedia Commons, abgerufen am 13.1.2018, Lizenz: CC BY 2.0.
  2. Von Kerry Rodden gescanntes Originalfoto von Ivan Sutherland: »Sketchpad Dissertation: Ivan Sutherland operating the Sketchpad system.«, Stand: 1.1.1963, via Wikimedia Commons, abgerufen am 13.1.2018, Lizenz: CC BY-SA 3.0.
  3. Ito, Joi: »Spacewar! auf einer PDP-1 des Computer History Museums.«, Stand: 12.5.2007, via Wikimedia Commons, abgerufen am 13.1.2018, Lizenz: CC BY 2.0.
  4. parc – A Xerox Company: »Smalltalk GUI«, URL: https://www.parc.com/newsroom/media-library.html, abgerufen am 13.1.2018.
  5. Baecker, Ronald M.; Buxton, William; Greenberg, Saul; Grudin, Jonathan: »Reading in Human-computer Interaction: Toward the Year 2000«, Burlington (MA) 1995, S. 57.

Carbon Design System

Vor längeren bin ich bereits auf das Carbon Design System aufmerksam geworden. Da vor kurzem ein Interwiew mit Bethony Sonnenfeld, Design Lead bei IBM, veröffentlicht wurde, habe ich nochmals mit dem System auseinandergesetzt. Carbon ist ein Designsystem, das für die Produkte der IBM Cloud entwickelt wurde.

Vor längeren bin ich bereits auf das Carbon Design System aufmerksam geworden. Da vor kurzem ein Interwiew mit Bethony Sonnenfeld, Design Lead bei IBM, veröffentlicht wurde, habe ich mich erneut mit dem System auseinandergesetzt.

Carbon ist ein Designsystem, das für die Produkte der IBM Cloud entwickelt wurde. Nachdem anfänglich nur ein überarbeitetes System für IBM Bluemix eingeführt werden sollte, wuchs der Wunsch, dass Carbon ein allgemeines, produktunabhängiges System wird. Im März 2016 wurde mit dem Umbau begonnen, seit Juni 2016 gibt es die Version 6.0, im Oktober 2017 wurde die aktuelle Version 8 des Systems veröffentlicht.

Im Interview mit Jason Grant stellt Bethony Sonnenfeld die Herangehensweise bei der Überarbeitung bzw. Neugestaltung des Systems vor. Sie erläutert die Motivation und Denkweise, sowie den Prozess selbst. Zwei für mich wichtige Punkte sind dabei die Verhaltensregeln sowie die Dokumentation. Die Verhaltensregeln zeigen, auf welchen Wegen und in welcher Art und Weise bestenfalls kommuniziert wird. Das betrifft unter anderem die zwischenmenschliche Umgangsweise. So wird beispielsweise auf die Selbstverständlichkeit hingewiesen, dass man trotz unterschiedlicher Ansichten respektvoll miteinander umgehen sollte. Zusätzlich schafft eine Übersicht der möglichen Kontaktmöglichkeiten Klarheit und vermeidet eine chaotische Kommunikation auf diversen Kanälen.

Die Dokumentation klärt viele Fragen rund um das Carbon Design System. Zu jedem Element gibt es Informationen, so dass viele Fragen überflüssig werden und bestenfalls auf allen Seiten Zeit eingespart wird.1 Dabei ist nicht nur ein reibungsloser Arbeitsauflauf wichtig. Wie Alla Kholmatova in ihrem Buch »Design Systems – A practical guide to creating design languages for digital products.« schon festhält, ist es vor allem in größeren Teams wichtig, die Elemente eindeutig festzulegen. Das verhindert beispielsweise, dass doppelte Bausteine aus unklaren oder unvollständigen Vorgaben entstehen und das System inkonsistent wird.
Für einen weiteren wichtigen Punkt halte ich die Nutzung von GitHub. Der Prozess ist sehr kontrolliert festgelegt, es müssen stets zwei Designer Änderungen absegnen. Damit kann trotz der Zusammenarbeit vieler sichergestellt werden, dass das System konsistent bleibt und den Spezifikationen entspricht.
Bethony Sonnenfeld betont, dass die Auswahl eines vorhandenen Designsystems von der persönlichen Präferenz abhängt. Sie basieren beispielsweise auf verschiedenen JavaScript-Softwarebibliotheken und als Unerfahrene würde sie ein System auswählen, das eine gute, saubere Code-Basis besitzt sowie User Experience-Richtlinen anbietet. Viele Systeme zeigen laut ihr viel zu wenig Anwendungsbeispiele, so dass man es als Nicht-Designer in der Umsetzung sehr schwer hat.2 Wobei ich mir hier die Frage stelle, wie »einfach« solche Systeme wirklich angelegt werden müssen. Aus meiner Sicht sollen sie den Arbeitsablauf von Designern und Entwicklern effizienter und schneller gestalten, die Berufe an sich jedoch nicht völlig ersetzen.

Mir persönlich gefällt das Carbon Design System vor allem im Hinblick auf das synchronisierte Arbeitsmaterial für Designer und Entwickler. Für Designer gibt es beispielsweise eine Sketch-Datei, die alle Elemente enthält. Für Systeme bzw. Frameworks wie Bootstrap gibt es zwar unzählige Sketch-Dateien im Web zu finden, dabei sind aber sicherlich nicht alle vollständig, sauber angelegt und vor allem nicht stets synchron. Abschließend finde ich es sehr spannend einen näheren Einblick in den Prozess erhalten zu haben, da er verständlich macht wie lange die Entwicklung eines solchen Systems inklusive der einzelnen Versionen und Verbesserungen benötigen kann. Das wirkt zum einen abschreckend, da in dieser Zeit natürlich auch die nötigen Ressourcen bereitgestellt werden müssen. Auf der anderen Seite zeigt es den zwischenzeitlich standardisierten Ablauf vieler Produkte, die erst auf den Markt gelangen, um dann stetig verbessert zu werden.

Quellen
  1. Vgl. Sonnenfeld, Bethony, Integral: »UX Design Interview With Bethany Sonnenfeld, Design Lead at IBM for Carbon Design System«, URL: https://www.youtube.com/watch?v=HI-hvAjQc4A, TC: 00:13:50–00:15:15, abgerufen am 27.12.2017.
  2. Vgl. Ebd., TC: 00:45:40–00:47:40.
Abbildungen
  1. Titelbild: Eigener Screenshot; IBM, Download: »Carbon_Design-Kit_8.0.0.sketch« URL: https://github.com/carbon-design-system/carbon-design-kit, abgerufen am 27.12.2017.

Punkt.

Bei meiner Auseinandersetzung mit Informationssystemen, Hypermedia sowie der Entwicklung des Internets stoße ich regelmäßig auf neue Namen, welche im Vorfeld des World Wide Webs richtungsweisende Konzepte und Arbeiten entwickelten. Mit manchen von ihnen habe ich mich bereits während meiner Recherche beschäftigt, andere muss ich leider bewusst außen vor lassen, um mich auf die wesentlichen Punkte meiner Arbeit zu konzentrieren.

Bei meiner Auseinandersetzung mit Informationssystemen, Hypermedia sowie der Entwicklung des Internets stoße ich regelmäßig auf neue Namen, welche im Vorfeld des World Wide Webs richtungsweisende Konzepte und Arbeiten entwickelten. Darunter einige mir bis dahin unbekannte, wie beispielsweise Andries van Dam, Eugene Garfield, Wendy Hall oder Ada Lovelace, sowie in der Allgemeinheit sicherlich bekanntere, wie Charles Babbage, Gottfried Wilhelm Leibniz, Ted Nelson, Alan Mathison Turing oder Konrad Zuse.

Die Namen stehen für die unterschiedlichsten Erfindungen: für Rechenmaschinen, den ersten Algorithmus, Hypermedia-Systeme oder Theorien über Computerentwicklung und Informatik. Die meisten haben jedoch eines gemeinsam: Sie sind thematisch zu weit von meinem Thema weg. Mit manchen von ihnen habe ich mich bereits während meiner Recherche beschäftigt, andere muss ich leider bewusst außen vor lassen, um mich auf die wesentlichen Punkte meiner Arbeit zu konzentrieren.

Hypertext Editing System Console Brown University 1969
Das Hypertext Editing System von Ted Nelson und Andries van Dam in Zusammenarbeit mit Studenten der Brown UniversityI
Photograph of Eugene Garfield, recipient of the 2007 Richard J. Bolte Sr. Award, at Heritage Day, May 9, 2007, at the Chemical Heritage Foundation.
Eugene Garfield, Erfinder des »Science Citation Index« (SCI) sowie »Journal Impact Factor«. Diese Gewichtung von Zitationszusammenhängen bildet die Basis des heutigen Google PageRanks.II
Wendy Hall
Wendy Hall entwickelte das Hypermedia-System »Microcosm«, welches sich vor allen Dingen durch die dynamische Verlinkung von Informationen basierend auf Inhalten, dem Kontext und Metadaten auszeichnet.III
Ada Lovelace
Ada Lovelace gilt als erste Programmiererin. Sie schrieb 1843 den ersten Algorithmus und veröffentlichte ein Programm für Charles Babbages nie vollendeten, mechanischen Computer »Analytical Engine«.
Charles Babbage | Analytical Engine
Charles Babbage entwarf den unfertigen, mechanischen Computer »Analytical Engine«. Sie stellt eine Rechenmaschine für allgemeine Anwendungen dar.IV
Rechenmaschine Gottfried Wilhelm Leibniz
Gottfried Wilhelm Leibniz erfand eine Rechenmaschine, welche die vier Grundrechenarten beherrscht.V
Ted Nelson – Xanadu
Ted Nelson prägt 1965 den Begriff Hypertext und schrieb von literarischen Maschinen, welche dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren. Seine wahrscheinlich bekannteste Arbeit ist das Hypertext-Projekt Xanadu, welches 1960 seinen Anfang nahm.VI
Alan Turing
Alan Turing führte 1963 die Turingmaschine ein, welches ein wichtiges Rechnermodell der theoretischen Informatik ist. Der Turing-Test gilt als Probe für den Nachweis künstlicher Intelligenz und die 4. Revolution wird Turing-Revolution genannt. Spätestens seit dem Film »Imitation Game« dürfte er weitestgehend bekannt sein.VII
Konrad Zuse Z3
Mit dem Z3 entwickelte Konrad Zuse den ersten funktionstüchtigen, vollautomatischen, programmgesteuerten und frei programmierbaren Digitalrechner. Er gilt damit als Erfinder des Computers.VIII
Abbildungen
  1. Lloyd, Gregory: »Photo of the Hypertext Editing System (HES) console in use at Brown University«, Stand: Oktober 1969, via Wikimedia Commons, abgerufen am 30.9.2017, Lizenz: CC BY 2.0.
  2. Science History Institute: »Photograph of Eugene Garfield, recipient of the 2007 Richard J. Bolte Sr. Award, at Heritage Day, May 9, 2007, at the Chemical Heritage Foundation.«, Stand: 9.5.2007, via Wikimedia Commons, abgerufen am 26.1.2017, Lizenz: CC BY-SA 3.0.
  3. Mabbett, Andy: »Wendy Hall at the Wikipedia Science Conference, London 2/3 September 2015«, Stand: 2.9.2015, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 4.0.
  4. Science Museum London/Science and Society Picture Library: »Babbages Analytical Engine, 1834-1871«, Stand: 28.8.2013, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 2.0.
  5. Museum Herrenhausen Palace: »Leibniz‘ Vier-Spezies-Rechenmaschine – Original, um 1690«, Stand: 7.9.2013, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY 3.0.
  6. Unbekannt: »Mockup of transpointing windows, closeup view, 1972«, URL: http://www.xanadu.com.au/ted/XUsurvey/xuDation.html, abgerufen am 23.10.2017.
  7. Yates, Tom: »Bombe – Rebuild«, Stand: 17.4.2014, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 3.0.
  8. Venusianer, Wikipedia Deutschland: »Nachbau der Zuse Z3 im Deutschen Museum in München«, Stand: 20.9.2006, via Wikimedia Commons, abgerufen am 13.12.2017, Lizenz: CC BY-SA 3.0.

Hyperland: Durch Micons ans Ziel

Der Dokumentarfilm (oder die Fantasy-Dokumentation) »Hyperland« aus dem Jahr 1990 wurde von Douglas Adams geschrieben und von Max Whitby produziert. In dem 50-minütigen Film geht es unter anderem um interaktives Multimedia sowie andere Technologien wie z.B. einen VR-Helm. Er zeigt dabei vorstellbare Ansätze für ein Hypermedium.

Der Dokumentarfilm (oder die Fantasy-Dokumentation1) »Hyperland« aus dem Jahr 1990 wurde von Douglas Adams geschrieben und von Max Whitby produziert. In dem 50-minütigen Film geht es unter anderem um interaktives Multimedia sowie andere Technologien wie z.B. einen VR-Helm. Er zeigt dabei vorstellbare Ansätze für ein Hypermedium.

Der Software-Agent stellt sich vor

Der Hauptdarsteller Douglas Adams schläft vor dem Fernseher ein und trifft in seinem Traum auf Tom Baker – die Personifizierung eines Software-Agenten. Mit der Frage, ob Adams gelangweilt vom linearen, nicht-interaktiven Fernsehen ist, tritt er mit Adams in Kontakt. Da jener aber überfordert mit dieser neuen Form der Kommunikation ist, fordert ihn der Agent auf, mit ihm zu interagieren. Baker beschreibt sich als eine Simulation, eine künstliche und komplett anpassbare Persönlichkeit, die nur als Anwendung in seinem Computer existiert.
Optisch an einen Butler angelehnt, präsentiert er sich dabei als selbstloser Assistent, der jederzeit für jede Art von Arbeit bereit ist. Er könne ihm sofortigen Zugang zu jedem Stück Information, das digital irgendwo auf der Welt gespeichert ist, ermöglichen: Jedes Bild, jeder Film, jeder Sound, jedes Buch, jede Statistik, jeder Fakt. Jede Verbindung zwischen allem, was er sich nur vorstellen kann.2

Hyperland | Konfigurationsoberfläche
Konfigurationsoberfläche für den Software-Agenten Tom BakerII

Als nächstes stellt der Agent die Konfigurationsoberfläche vor, von wo aus Adams alle Einstellungen vornehmen kann. Über eine grafische Benutzeroberfläche hat man die Wahl, wie der Assistent sprechen soll – ob forsch oder freundlich oder mit welchem Akzent –, was er an hat oder welche Spezies er sein soll.3 Es wird suggeriert, dass der Nutzer die komplette Kontrolle besitzt und alles erdenkliche auch möglich ist.
Bei der Frage, welchen Namen diese Software hat, nennt Tom Baker eine ganze Liste: Dynabook, Hyperspace, Cyberia, Infinite Virtual Address Space, Intelligent TV, Interactive Television, Interactive Multimedia oder Hypertext.4

Anlehnung an ein Hypermedium

Hyperland ist in seinem Aufbau selbst an ein Hypermedium angelehnt. So klickt sich Adams mithilfe seines Agenten über sogenannte Micons – ein Kunstwort aus Moving und Icons – durch den Informationsraum. Die geloopten Micons stehen dabei für eine Idee, ein Konzept oder ein Stück Information in irgendeiner Form.5
Neben diversen Beispielen interaktiver Systeme stellt Tom Baker Auszüge der historischen Entwicklung vor. So erwähnt er Vannevar Bushs Memex, Ted Nelsons Hypertext-Idee, die Gründung des MIT Media Labs und des Multimedia Labs, sowie Robert Abel,6 welcher als Pionier der Computeranimation und visueller Effekte7 oder sogar als Vater interaktiver Erfahrungen gilt.

Adams gelangt dabei zusammen mit Baker immer tiefer in die Informationssphäre, was am Beispiel des Atlantic Monthly, in dem Vannevar Bush seinen berühmten Essay »As We May Think« veröffentlichte, demonstriert wird. Douglas Adams wählt naheliegenderweise den Atlantik als nächstes Ziel. Hierüber gelangen sie zur Ökologie, Ozeanografie, Schifffahrt, Literatur und zu einem Live Feed. Der Live Feed zeigt als Quellen die Labrador-Basis und den Azoren-Gibraltar-Rücken. Auf Nachfrage, ob das wirklich live wäre, gesteht Baker ein, dass die Bilder 10 Sekunden Verzögerung hätten, was also live wäre.
Als weiteren »Tiefgang« wird die Sparte Literatur vorgestellt, welche passend zum Atlantik, assoziative Verknüpfungen zu Melville, Conrad, Hemingway, Coloridge, CS Forrester oder »Mehr« zeigt. Texte werden dabei parallel vorgelesen, da die Autoren scheinbar über Wasser schreiben.8

Im weiteren Verlauf werden verschiedene Systeme vorgestellt, so z. B. die interaktive Anwendung »Life Story – Demonstration Prototype« des MIT Labs. Auf den Film »Life Story« zugeschnitten, können beispielsweise spezielle Inhalte ausgewählt oder Transkriptionen abgerufen werden. Das Team bestand aus Steve Gano, Kristee Kreitman, Kristina Hooper, Mike Naimark und Fabrice Florin. Letzterer spricht im Interview davon, dass das interessante an Multimedia die Tatsache ist, dass man viele Stories zusammenführen kann. Es gibt nicht nur eine, sondern eine Verflechtung vieler. Diese Vielzahl macht aus seiner Sicht den Unterschied, so dass man von einer zur anderen wandert und den Themenkomplex aus unterschiedlichsten Blickwinkeln betrachten und miteinander vergleichen kann.9

Resümee

Für meine Nachforschungen hat der Film inhaltlich leider keinen großen Mehrwert. Zum einen liebe ich jedoch die Art und Weise, wie er umgesetzt ist. Zum anderen faszinieren mich die damaligen Ansichten, welche einerseits sehr zukunftsweisend wirken, andererseits aber sicher genau am Geist der Zeit liegen. Mitten im Aufbruch und längst auf dem Weg in ein neues Zeitalter.

Quellen
  1. Vgl. »Hyperland« in: »Wikipedia, the free encyclopedia«, Stand: 7.3.2017, URL: https://en.wikipedia.org/wiki/Hyperland, abgerufen am 6.12.2017.
  2. Vgl. Whitby, Max; geschrieben von: Adams, Douglas: »Hyperland«, Dokumentation, 50 Minuten, Vereinigtes Königreich 1990, TC: 00:03:17–00:05:14.
  3. Vgl. Ebd., TC: 00:05:14–00:06:18.
  4. Vgl. Ebd., TC: 00:06:32–00:06:40.
  5. Vgl. Ebd., TC: 00:07:20–00:08:10.
  6. Vgl. Ebd., TC: 00:06:40–00:07:20.
  7. Vgl. »Robert Abel (animator)« in: »Wikipedia, the free encyclopedia«, Stand: 28.8.2017, URL: https://en.wikipedia.org/wiki/Robert_Abel_(animator), abgerufen am 6.12.2017.
  8. Vgl. Whitby, Max; geschrieben von: Adams, Douglas: »Hyperland«, Dokumentation, 50 Minuten, Vereinigtes Königreich 1990, TC: 00:12:0–00:14:20.
  9. Vgl. Ebd., TC: 00:31:32–00:32:53.
Abbildungen
  1. Titelbild: Eigener Screenshot; Whitby, Max; geschrieben von: Adams, Douglas; mprove: »Hyperland‹«, Dokumentation, 50 Minuten, Vereinigtes Königreich 1990, URL: https://vimeo.com/72501076, TC: 00:07:27, abgerufen am 6.12.2017.
  2. Vgl. Ebd., TC: 00:06:14.

Fußnoten als Wegpunkte der Assoziations-Pfade

Eugene Garfield ist unter anderem der Gründer des »Science Citation Index« (SCI) sowie der Erfinder des »Journal Impact Factor«. Der SCI ist eine Zitationsdatenbank, welche als Vorläufer des »Web of Science« zählt. Die Anfang der 60er Jahre erfundene Datenbank enthält Informationen darüber, welche Publikationen von welchen zitiert werden. Die systematische Erfassung der wissenschaftlichen Fußnoten macht damit Zitationszusammenhängen deutlich. Der Journal Impact Factor ist dagegen ein Art Ranking, welches die Häufigkeit der Zitationen – somit also den Einfluss auf andere Veröffentlichungen – angibt.

Eugene Garfield ist unter anderem der Gründer des »Science Citation Index« (SCI) sowie der Erfinder des »Journal Impact Factor«. Der SCI ist eine Zitationsdatenbank, welche als Vorläufer des »Web of Science« zählt. Die Anfang der 60er Jahre erfundene Datenbank enthält Informationen darüber, welche Publikationen von welchen zitiert werden. Die systematische Erfassung der wissenschaftlichen Fußnoten macht damit Zitationszusammenhänge deutlich.1 Der Journal Impact Factor ist dagegen ein Art Ranking, welches die Häufigkeit der Zitationen – somit also den Einfluss auf andere Veröffentlichungen – angibt.

Photograph of Eugene Garfield, recipient of the 2007 Richard J. Bolte Sr. Award, at Heritage Day, May 9, 2007, at the Chemical Heritage Foundation.
Eugene Garfield am 9. Mai 2007I

Seine grundsätzliche Idee war dabei, so Alex Wright, dass man vergessen kann, was im Artikel selbst steht. Das wichtigste findet man in den Fußnoten und als eine Art Hyperlink kann man über sie den Pfaden aus Assoziationen folgen.2 Wright erläutert weiter, dass dieses Citation Ranking die direkte Basis für das heutige Google PageRank ist.3

Auch wenn ich Eugene Garfields Erfindung nicht in einer Sparte mit denen von beispielsweise Paul Otlet oder Vannevar Bush sehe, erkenne ich eine ähnliche Wertschätzung gegenüber assoziativen Verknüpfungen. Während sich Otlet und Bush auch dem »dazwischen«, nämlich den Informationen und dem Wissen zwischen den Verbindungen, widmen, hebt Garfield ausschließlich die Verknüpfungen selbst hervor. Auch Berners-Lee betont bei jeder Gelegenheit, dass man in einer extremen Sichtweise die Welt ausschließlich als aus Verbindungen bestehend sehen kann und er die Idee mag, dass jedes Stück Information nur durch dessen Beziehung zu anderen Informationen definiert wird.4 Auch wenn es im World Wide Web im Allgemeinen nicht um die Gewichtung von Inhalten geht – das übernimmt Google PageRank –, liegt der grundsätzliche Gedanke, nämlich dass eine Information durch eine andere definiert wird, sehr nah beieinander.

Quellen
  1. Vgl. »Science Citation Index« in: »Wikipedia, Die freie Enzyklopädie«, Stand: 26.2.2017, URL: https://de.wikipedia.org/wiki/Science_Citation_Index, abgerufen am 26.11.2017.
  2. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:33:49–00:35:40, abgerufen am 18.8.2017.
  3. Vgl. Ebd., TC: 00:35:45–00:36:09.
  4. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 12.
Abbildungen
  1. Science History Institute: »Photograph of Eugene Garfield, recipient of the 2007 Richard J. Bolte Sr. Award, at Heritage Day, May 9, 2007, at the Chemical Heritage Foundation.«, Stand: 9.5.2007, via Wikimedia Commons, abgerufen am 26.1.2017, Lizenz: CC BY-SA 3.0.

Klick Klick – Hallo Welt!

Das WordPress-Theme »The Ark« wird als »Best Rated Theme of All Time« angepriesen – aus meiner Sicht nicht umsonst. Mich hat in den letzten Jahren kein Theme so sehr überzeugt, weshalb ich meine Erfahrung teilen möchte.

Heute möchte ich dem WordPress Theme »The Ark« einen Beitrag widmen. Warum? Jahrelang habe ich mal mit guten, mal mit schlechten Themes gearbeitet und bisher hat mich keins so sehr überzeugt. Ich denke, dass es nicht umsonst als »Best Rated Theme of All Time«1 angepriesen wird. Der Beitrag basiert dabei auf persönlichen Erfahrungswerten und soll kein Tutorial darstellen.

Zu Beginn sei gesagt: Das Frustrationslevel liegt erstmal sehr hoch. Der Aufbau ist – bis hierhin – sehr unüblich und man weiß nicht, wo man was ändern und einstellen muss, um zum gewünschten Ergebnis zu kommen. Zusätzlich hatte ich bei der ersten Website, die ich mit diesem Theme umgesetzt habe (literaturarchiv1968.de), große Probleme damit, dass die (tatsächlich nur gefühlte) Standard-Antwort des Supports die war, dass custom code benötigt wird. Das Problem war hier nicht, dass ich es nicht per Code lösen hätte können, sondern dass ich mich ständig gefragt hatte, wofür ich ein so umfangreiches Theme mit scheinbar unzähligen Elementen benötige, wenn ich ohnehin die Hälfte selbst coden muss. Zum einen weiß ich nun, dass die Seite nach sehr vielen individuellen Lösungen verlangt hat. Zum anderen hat sich seitdem sehr viel durch Updates getan. Das Entwicklerteam ist dabei ein besonderes Plus. Die Antwortzeiten sind unheimlich kurz, das Team unheimlich hilfsbereit und die Entwickler stehen im ständigen Dialog mit der Community, um das Theme stetig zu verbessern. Das bedeutet natürlich gleichermaßen, dass es an einigen Stellen noch Verbesserungsbedarf hat.

Benutzeroberfläche im Bereich Sitemap
Benutzeroberfläche im Bereich Sitemap

Der Aufbau

Grundsätzlich baut das mobile-first-Theme auf Bootstrap auf, so dass zumindest die Logik sehr einfach zu verstehen ist. Des Weiteren arbeitet es mit dem »Fresh Builder« – einem sehr eingängigen page builder, mit dem man die Webseite via Klicks aufbaut. Dabei kann man nicht nur sehr schöne, sondern auch sehr gut funktionierende Websites in kürzester Zeit erstellen. Die Möglichkeiten sind dabei wohl unbegrenzt, da man sich die sections entweder selbst aus unzähligen Elementen zusammenstellt oder vorgefertigte section blocks als Vorlage verwendet. Jedes einzelne Element hat dabei viele, zusätzliche Einstellungsmöglichkeiten. Durch die global styles können ähnlich wie bei SketchApp Stile angelegt werden, die per Klick eingefügt werden. Zum Verständnis: Man kann sich damit beispielsweise eine große Headline anlegen, der wiederum durch Klicks einzelne, selbst zu erstellende Komponenten wie font-size, line-height, etc. zugeordnet werden. Dieses gesamte Headline-Element ordnet man nun den Überschriften zu, die so aussehen sollen. Zudem können zum einen Abschnitte wie Header, Footer oder die Titlebar mit dem Fresh Builder aufgebaut werden. Zum anderen Seiten, die man via Sitemap gestaltet. In der Sitemap können die einzelnen Seitentypen (Blog Archive, Blog Single, Page, …) global angelegt werden, so dass sie nicht wie in den meisten Themes über die PHP-Dateien geändert werden. Selbst die Übersetzungen durch das PlugIn WPML, eigene Felder durch das PlugIn ACF oder die Verwendung der sections für custom post types funktionieren hervorragend.

Auswahlmenü der Elemente
Auswahlmenü der Elemente

Das Grundprinzip Einfachheit

Vor allem die Funktionalität und Gestaltungsfreiheit spricht aus meiner Sicht für The Ark. Bisher hatte ich die Erfahrung, dass Themes häufig sehr eingeschränkt sind. So sehen sie auf den ersten Blick gut aus und spätestens beim mobilen Design müsste man die ganze Seite – aus visueller Sicht – neu schreiben. Ein weiteres Problem hatte ich häufig durch die Begrenztheit der Elemente. Zwar kann man bei der Entwicklung sehr viel selbst einbauen und z.B. für die einfache Bedienung durch den Kunden eigene Felder erstellen. Jedoch bin ich der Meinung, dass das Grundprinzip von WordPress Einfachheit bedeutet und die wird bei The Ark von Haus aus mitgeliefert.

Durch weitere Projekte wird mir das Theme immer zugänglicher und es ist erstaunlich, wie effizient man damit arbeiten kann. Alles in allem, trotz einiger Mankos, ein absolut empfehlenswertes Theme. Also ab, online mit euch: Klick Klick – Hallo Welt!

Quellen

  1. Theme-Website: http://arktheme.com/, abgerufen am 3.5.2017.

makk – Kölner Design Preis im Spielrauschen

Am Mittwoch habe ich das makk in Köln besucht, wo zur Zeit der Kölner Design Preis, sowie die Ausstellung »Im Spielrauschen« zu sehen ist. Zwar haben mich beide Ausstellungen nicht gänzlich überzeugt, dennoch bin ich in meinen Überlegungen 1-2 Gedanken weiter gekommen.

Am Mittwoch habe ich das makk in Köln besucht, wo zur Zeit der Kölner Design Preis, sowie die Ausstellung »Im Spielrauschen« zu sehen ist.

Der Kölner Design Preis hatte mich offen gesagt etwas enttäuscht. Die Preisträger waren in der Qualität und Art sehr durchmischt und komplett überzeugt hat mich leider kein Projekt. Es gab die ein oder andere spannende Idee, die dann nicht überzeugend umgesetzt war. Oder es gab solide Gestaltungsergebnisse, die inhaltlich nicht sehr interessant waren.
Zwar handelt es sich dabei um Abschlussarbeiten, jedoch hatte ich den Eindruck, dass so manches Projekt eher einer Semesterarbeit gleicht. Das bedeutet nicht, dass ich sie für grundsätzlich schlecht halte, jedoch waren meine Erwartungen unter dem Schirm eines Kölner Design Preises sehr viel größer.

»Im Spielerauschen« handelt von der Welt des Spielens. Die Ausstellung beschäftigt sich unter anderem mit der historischen Entwicklung des Spielens und dem Gedanken, dass Masken, Puppen und Avatare der Einstieg in die theatralisch Welt sind. Diesen Ansatz finde ich insofern sehr spannend, da hier die Grenze zwischen Fiktion und Wirklichkeit viel näher an den Menschen heran rückt, als ich es in bisherigen Überlegungen (z.B. Zwischen Realität und Fiktion ») bedacht habe. Meist hatte ich das Wort Fiktion mit Virtualität in Verbindung gebracht. Grundsätzlich halte ich die Ausstellung für spannend, einzig die Präsentation war aus meiner Sicht sehr nüchtern gehalten. Im vergangenen Jahr war ich bei der Ausstellung »Film und Games. Ein Wechselspiel.« im Frankfurter Filmmuseum. Die Räume waren sehr aufwändig gestaltet, so dass man in eine komplett eigene Welt eingetaucht ist. Im makk waren es eher kalte, ungestaltete Räume, in denen die Objekte, Bildschirme und Co. platziert wurden.

Alles in allem war der Besuch des makk dennoch inspirierend, da es absolut reicht, in den eigenen Überlegungen nur 1–2 Gedanken weiter zu gekommen.

Von der SciFi-Vision zur Wissenschaft

H. G. Wells ist ein englischer Schriftsteller und träumte von einem »World Brain«. In seiner gleichnamigen Sammlung aus Essays und Talks aus den Jahren 1936–1938 beschreibt er seine Vision einer neuen, freien, synthetischen, autoritativen und permanenten Welt-Enzyklopädie.

H. G. Wells ist ein englischer Schriftsteller und träumte von einem »World Brain«. In seiner gleichnamigen Sammlung aus Essays und Talks aus den Jahren 1936–1938 beschreibt er seine Vision einer neuen, freien, synthetischen, autoritativen und permanenten Welt-Enzyklopädie.1

»World Brain« von H. G. Wells aus dem Jahr 1938I

Laut Alex Wright glaubt er daran, dass der Schlüssel Konflikte zwischen Ländern zu lösen darin liegt, den freien Fluss von Informationen zu ermöglichen. So käme es nämlich zu einem Ungleichgewicht, welches mit einem Art universellen Verständnis, wie die Welt funktioniert, wieder ausgeglichen wird.2
Weiter zitiert er H. G. Wells, dass das gesamte menschliche Wissen für jedes Individuum verfügbar gemacht werden könnte und das wahrscheinlich schon bald so sein wird. Zwar wurde Information mit dem Telefon oder Telegraf nur elektronisch und nicht digital, womit jedoch möglicherweise eine globale Enzyklopädie und ein Netzwerk der Wissensgenerierung geschaffen werden könnte.3 Alex Wright hebt hervor, dass Wells in seinen Beschreibungen eine Reihe von organischen Metaphern verwendet. So spricht er beispielsweise von einer Enzyklopädie mit zahlreichen Tentakeln und Ganglien.4

Eine erste Vorstellung war jedoch eine Welt-Enzyklopädie, die aus einer Reihe von Bänden besteht und im eigenen Haus oder zumindest in Häusern oder Bibliotheken in der Nähe gelagert wären und die auf dem aktuellen Stand gehalten werden würden. Die Inhalte wären dabei sehr sorgfältig ausgewählt.5

Mit seiner SciFi-Vision hielt Wells sogar einen Vortrag auf dem Weltkongress der universellen Dokumentation, welcher unter anderem das Ziel hatte, Ideen und Methoden zur Umsetzung des »World Brains« zu diskutieren.6
Sowohl H. G. Wells als auch Paul Otlet waren bereits 1933 bei diesem Kongress, jedoch ist unklar, ob sich die beiden dort getroffen hatten. Ähnlich wie Wells spricht jedoch auch Otlet von einem Schreibtisch der Zukunft, der ausgestattet mit einem Bildschirm sowie möglicherweise einem Telefon zulässt, Dokumente automatisch abzurufen.7

Weiter scheint der Autor Arthur C. Clarke von Wells inspiriert worden zu sein. So sagt er in »Profiles of the Future« vorher, dass Wells World Brain in zwei Schritten stattfinden würde. Der erste würde der Bau einer Welt-Bibliothek sein, welche für Jedermann per Computer-Terminal von zu Hause zugänglich sein würde. Diese Phase 1 sagte er für das Jahr 2000 voraus. In der zweiten Phase könnten Menschen mit dem World Brain als superintelligente AI interagieren und mit ihr diverse Probleme der Welt lösen. Die Welt-Bibliothek wäre dabei ein Teil des World Brains, welches 2010 komplett wäre.8 Auch Eugene Garfield konstatiert Wells Vision eine großartige Zukunft und prophezeit, dass der Science Citation Index ein Vorläufer dessen ist.9 Brian R. Gaines sieht sogar das World Wide Web als Erweiterung des World Brains, auf das Menschen nun mit PCs zugreifen konnten.10

Wie schon in meiner Ausführung über Paul Otlet hervorgebracht, finde ich es erstaunlich, wie früh schon an Konzepten und Gedankenexperimenten für einen universellen Informationsraums gearbeitet wurde. Umso deutlicher wird mir, dass der Status Quo des Webs noch lange nicht das erreichte Ziel ist. Ich habe bereits Teile von Ted Nelsons Kritik an der Umsetzung des World Wide Webs angeführt und auch Alex Wright sieht Otlets Vision in mancher Hinsicht als anspruchsvoller als das World Wide Web selbst. Zwar ist das Web tief verankert in unserem Alltag, nichtsdestotrotz ist es erst 30 Jahre alt. Da das in der Geschichte nur ein winziger Zeitraum ist, ist es tatsächlich fraglich, ob das Web in seiner heutigen Form überleben kann – selbst, wenn es unglaublich ist, dass nicht. Ein weiteres amüsantes Detail ist, dass Wells SciFi-Vision in der Welt der Wissenschaft angekommen ist und sogar als Redner Platz auf dem genannten Kongress gefunden hat.

H. G. Wells wird mich in meiner Recherche vermutlich nicht weiter voranbringen, seine Idee wird jedoch immerhin einen kleinen Nebenzweig meiner Dokumentation darstellen. Des Weiteren motiviert mich diese Auseinandersetzung, Arthur C. Clarkes Buch zu lesen, da ich den Autor schon durch »2001: Odyssee im Weltraum« zu schätzen gelernt habe.

Quellen
  1. Vgl. »World Brain« in: »Wikipedia, the free encyclopedia«, Stand: 22.10.2017, URL: https://en.wikipedia.org/wiki/World_Brain, abgerufen am 10.11.2017.
  2. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:10:12–00:11:23, abgerufen am 18.8.2017.
  3. Vgl. Ebd., TC: 00:11:24–00:12:06.
  4. Vgl. Ebd., TC: 00:12:07–00:13:33.
  5. Vgl. »World Brain« in: »Wikipedia, the free encyclopedia«, Stand: 22.10.2017, URL: https://en.wikipedia.org/wiki/World_Brain, abgerufen am 10.11.2017.
  6. Vgl. Ebd.
  7. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 99, abgerufen am 28.9.2017.
  8. Vgl. »World Brain« in: »Wikipedia, the free encyclopedia«, Stand: 22.10.2017, URL: https://en.wikipedia.org/wiki/World_Brain, abgerufen am 10.11.2017.
  9. Vgl. Ebd.
  10. Vgl. Ebd.
Abbildungen
  1. H.G. Wells: »Cover of the book World Brain by H. G. Wells. Published by Methuen & Co Ltd, London, 1938.«, Stand: 26.2.2015, via Wikimedia Commons, abgerufen am 10.11.2017.

Das Hypertext Editing System

Als Wegbegleiter Ted Nelsons möchte ich zumindest beiläufig Andries van Dam in meine Dokumentation mit aufnehmen.
Zusammen mit Studenten der Brown University arbeiteten sie am ersten Hypertext-System, dem Hypertext Editing System (HES), sowie am Nachfolger, dem File Retrieval and Editing System (FRESS). Es erschien 1967 und somit ein Jahr vor Doug Engelbarts oNLine-System.

Als Wegbegleiter Ted Nelsons möchte ich zumindest beiläufig Andries van Dam in meine Dokumentation mit aufnehmen.
Zusammen mit Studenten der Brown University arbeiteten sie am ersten Hypertext-System, dem Hypertext Editing System (HES), sowie am Nachfolger, dem File Retrieval and Editing System (FRESS).1 Es erschien 1967 und somit ein Jahr vor Doug Engelbarts oNLine-System.

David Edward Rice beschreibt es in einer schriftlichen Ausarbeitung aus dem Jahr 1967 als interaktives Mensch-Maschine-Computersystem zur Textmanipulation, -darstellung und -setzung. Zudem besitzt es ein ausgefeiltes System zur Erstellung und Bearbeitung von Manuskripten, sowie einer Lesemaschine, auf dem das Geschriebene durchsucht und beliebig komplexer Struktur abgefragt werden konnte.2

Die Textstrukturen können in dem System auf beliebige Weise miteinander verknüpft werden, während sich der Benutzer während dem Lesen an diesen Verbindungen entlang hangeln kann. Herkömmliche Unterteilungen wie beispielsweise Zeilen, Seiten und Seitenzahlen sind laut ihm nicht vorhanden, da die Verknüpfungsstruktur an allen Anwendungen im System beteiligt ist.3 Texte, die nicht semantisch sind, aber komplexe Verknüpfungen zwischen ihren Fragmenten besitzen, nennt man dabei »Hypertext«. Das hebt es von der linearen Struktur ab und das System ermöglicht es Hypertexte zu erstellen, sie zu bearbeiten, neu anzuordnen und auszudrucken.
Die zerstückelten Texte können mit einem »Standardcomputer«, nämlich dem IBM 360/50 und einem 2250 Display (12″ x 12″), auf verschiedene Arten durchsucht werden.4

Rice schreibt, dass das Ziel des Systems sei, ein »universelles Textverarbeitungs- und -bearbeitungssystem für Autoren, Redakteure und Online-Leser zu erstellen«5.

Das Hypertext Editing System scheint entgegen erster Erwartungen sehr umfangreich zu sein, Andries van Dams Benutzerhandbuch besteht immerhin aus 33 Seiten.

Quellen
  1. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:48:58–00:50:40, abgerufen am 18.8.2017.
  2. Vgl. Rice, David Edward: »Computer-Assisted Text Manipulation – A Look at The Current State of the Art And a Particular Example, The Hypertext Editing System«, Stand: 1967, URL: https://archive.org/details/TNM_The_Hypertext_Editing_System_computer-assiste_20171120_0001, S. 46, abgerufen am 1.11.2017.
  3. Vgl. Ebd., S. 46 f.
  4. Vgl. Ebd., S. 47.
  5. Ebd., S. 48 f.
Abbildungen
  1. Lloyd, Gregory: »Photo of the Hypertext Editing System (HES) console in use at Brown University«, Stand: Oktober 1969, via Wikimedia Commons, abgerufen am 30.9.2017, Lizenz: CC BY 2.0.

Ted Nelsons Xanadu als Wegbereiter des World Wide Webs?

Bei der Recherche über das World Wide Web darf Ted Nelson nicht fehlen. Er prägt 1965 den Begriff Hypertext und schrieb von literarischen Maschinen, welche dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren. Zudem träumt er von einer utopischen Gesellschaft, in der Menschen alle Informationen teilen können und sich auf Augenhöhe begegnen. Die wahrscheinlich bekannteste Arbeit von Ted Nelson ist das Hypertext-Projekt Xanadu, welches 1960 seinen Anfang nahm.

Bei der Recherche über das World Wide Web darf Ted Nelson nicht fehlen. Er prägt 1965 den Begriff Hypertext und schrieb von literarischen Maschinen, welche dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren.1 Zudem träumt er von einer utopischen Gesellschaft, in der Menschen alle Informationen teilen können und sich auf Augenhöhe begegnen.2 Seine wahrscheinlich bekannteste Arbeit ist das Hypertext-Projekt Xanadu, welches 1960 seinen Anfang nahm.

Das Projekt Xanadu

Durch das Projekt Xanadu soll ein »Docuverse«, ein Universum aus Dokumenten, entstehen, welches es möglich macht, jegliche Literatur fest miteinander zu verflechten.
Alex Wright beschreibt in seinem Vortrag, dass es bei Xanadu nicht nur um simple Verlinkungen geht, sondern um dynamische Beziehungen, wenn ein Abschnitt in einen anderen Abschnitt kopiert wird. Das Dokument lebt innerhalb des anderen weiter, jedes hat seinen Platz und wird dynamisch upgedatet.3

In einer Demonstration von Xanadu Space, der meinem Verständnis nach letzten Xanadu-Version vor der aktuellen OpenXanadu aus dem Jahr 2013, spricht Ted Nelson über seine ursprüngliche Hypertext-Idee. Als Schreibender sah er das Blatt Papier als Gefängnis, durch das der Text von vier Wänden eingesperrt wurde und aus dem Ideen entfliehen wollten. Klammern oder Fußnoten sind dabei erste Hinweise darauf, dass ein Bedarf besteht, Texte miteinander zu verbinden oder mit zusätzlichen Informationen zu versehen. Mit der Erfindung von Computern sah er die Möglichkeit, aus diesem Papiergefängnis zu entfliehen.4
Mit elektronischen Dokumenten sind viele Dinge möglich, die mit Papier nicht umsetzbar sind. Umso irrsinniger ist es aus seiner Sicht, dass alle versuchen Papier zu imitieren; so z. B. Adobes Acrobat oder Microsofts Word. Er kann nicht verstehen, wieso es nicht möglich ist Randnotizen zu machen, da er Parallelität als großen Vorteil elektronischer Schriftstücke sieht. Diese Parallelität macht es laut ihm einfacher, Texte zu schreiben und zu lesen.5

Xanadu sieht Nelson als Lösung des Problems. Bei seiner Präsentation zeigt er den dreidimensionalen Raum, der in seinem Beispiel aus elf Dokumenten und 27 Verweisen besteht. Neben den »Deep Links« für Inhaltsverknüpfungen, liefert er einen wichtigen Ansatz mit dem von ihm geprägten Begriff »Transklusion«.

Mit Transklusion ist die Verbindung zwischen einem Hauptdokument und einer Begleitseite gemeint. Dabei sind die Inhalte an verschiedenen Orten verfügbar und das Hauptdokument wird auf diese Weise mit weiteren Informationen verbunden.6 Dabei geht es nicht um einen Link zum ursprünglichen Inhalt, sondern um eine Wiederverwendung dessen.7 Das bedeutet, dass beispielsweise Änderungen im originalen Text, dynamisch im aktuellen Dokument geupdatet werden. Nelsons Beschreibung nach »ist die Transklusion das, was Zitat, Nachahmung und Querverweis lediglich versuchen. […] Alias und Caches sind Formen der Transklusion«8. Er bemerkt zusätzlich, dass Vannevar Bushs Idee des Memex mit Transklusionen anstelle von Links arbeitet.9

In Xanadu Space werden sie sichtbar, wenn man sich durch die Hauptseite klickt. Man erhält parallel die verbundene Information, die auf der Begleitseite im eigentlichen Kontext zu sehen ist.10 In diesem riesigen Kosmos aus Verknüpfungen, kann man einer Verbindung folgen und genau nachvollziehen, was sie bedeutet.11 Damit besteht der Informationsraum aus vielen Informationsatomen, die Klammern, Fußnoten oder Formulierungen wie »Wie schon erwähnt« überflüssig machen.

Unterschiede zum und Probleme mit dem World Wide Web

Ted Nelson hat offensichtlich ein Problem mit dem aktuellen Aufbau des World Wide Webs. So schreibt er beispielsweise in »I DON’T BUY IN«, dass das Web kein Hypertext ist, sondern nur dekorierte Verzeichnisse. Er fügt hinzu, dass es bei Xanadu ausschließlich um die Dokumentenstruktur geht, so dass Autoren und Leser nicht über Dateistrukturen oder hierarchische Verzeichnisse nachdenken müssen, sondern sich auf das wesentliche konzentrieren können. Gleichermaßen ist er der Ansicht, dass das Dokument und das MarkUp voneinander getrennt sein müssen, um den Inhalt nicht mit der Präsentation zu vermischen.12 Auf technischer Ebene sieht er einen fundamentalen Fehler des Webs darin, dass Links nur in eine Richtung führen. Er macht deutlich, dass es eine Alternative zum aktuellen Aufbau des World Wide Webs gibt und sie – vermutlich das Team und Xanadu-Anhänger – weiter dafür kämpfen werden.13

Offen gesagt fällt es mir schwer zu beurteilen, inwiefern Ted Nelson mit seinen Aussagen richtig liegt. In manchen Teilen meiner Auseinandersetzungen hatte ich das Gefühl, dass er den verlorenen Kampf nicht akzeptieren will und aus diesem Grund an mancher Stelle behauptet wird, dass Tim Berners-Lee seine Idee geklaut und schlecht umgesetzt hat. Auf der anderen Seite halte ich vor allem die Verwendung von Transklusionen für großartig und dem Web bei weitem voraus. Das treibt meiner Meinung nach den Gedanken einer völligen Vernetzung sinnvoll weiter. Auch die Verwendung bidirektionaler Links halte ich hierbei für einen Fortschritt. Ähnlich wie bei Bushs Memex sehe ich die Möglichkeit, Inhalte nicht nur miteinander zu verknüpfen, sondern Verknüpfungen nachvollziehen zu können. Hierdurch kann wiederum neues Wissen generiert werden.

Um diese Frage final zu klären, müsste ich mich durch die unzählig vorhandenen Dokumente über Xanadu arbeiten, was ich aus Zeitgründen nicht tun werde; dafür ist sie für mein gesamtes Masterthema letztendlich nicht wichtig genug. Jedoch werde ich mich eventuell in einem weiteren Beitrag der Frage widmen, inwiefern ein System wie Xanadu Auswirkungen auf das UI im Web hätte. Bisherige visuelle Eindrücke halte ich nämlich nicht für sonderlich praktikabel oder zumindest nicht für sehr ansprechend.

Abschließend möchte ich noch – völlig umkommentiert – weitere Begriffe für mich festhalten, die Nelson geprägt hat. Alex Wright erwähnt sie in seinem Vortrag und sie könnten möglicherweise zu einem späteren Zeitpunkt wichtig werden: stretchtext, zippered list, window sandwiches, indexing vortexes, part-punces, tumblers, collateral hypertext, Hummers, thinkertoys, fresh hyperbooks, anthological hyperbooks, grand systems.14

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 5.
  2. Vgl. Ebd.
  3. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:44:40–00:45:56, abgerufen am 18.8.2017.
  4. Vgl. Nelson, Theodor Holm, photonhunter: »Ted Nelson demonstrates Xanadu Space«, Stand: 6.9.2008, URL: https://www.youtube.com/watch?v=En_2T7KH6RA, TC: 00:30:00–00:01:20, abgerufen am 23.10.2017.
  5. Vgl. Ebd., TC: 00:01:20–00:02:30.
  6. Vgl. Ebd., TC: 00:03:12–00:04:52.
  7. Vgl. Nelson, Theodor Holm; Project Xanadu; Keio University: »Xanalogical Structure, Needed Now More than Ever: Parallel Documents, Deep Links to Content, Deep Versioning and Deep Re-Use«, URL: http://www.xanadu.com.au/ted/XUsurvey/xuDation.html, Absatz 4, abgerufen am 23.10.2017.
  8. Ebd., Absatz 6.
  9. Vgl. Ebd., Absatz 9.
  10. Vgl. Nelson, Theodor Holm, photonhunter: »Ted Nelson demonstrates Xanadu Space«, Stand: 6.9.2008, URL: https://www.youtube.com/watch?v=En_2T7KH6RA, TC: 00:03:12–00:04:52, abgerufen am 23.10.2017.
  11. Vgl. Ebd., TC: 00:04:56–00:05:10.
  12. Vgl. Nelson, Theodor Holm: »I DON‘T BUY IN«, URL: http://ted.hyperland.com/buyin.txt, abgerufen am 24.10.2017.
  13. Vgl. Ebd.
  14. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:46:53–00:47:46, abgerufen am 18.8.2017.
Abbildungen
  1. Titelbild: Unbekannt: »Mockup of transpointing windows, closeup view, 1972«, URL: http://www.xanadu.com.au/ted/XUsurvey/xuDation.html, abgerufen am 23.10.2017.

Der Memex als Ergänzung des Gedächtnis

Nachdem ich in meinen Beiträgen »Assoziative Verlinkungen und Generierung von Wissen« und »Wir wie vielleicht denken« dem fiktiven Schreibtisch von Vannevar Bush nachgegangen bin und dabei dritte Quellen verwendet hatte, möchte ich mich Bushs ursprünglichen Essay »As We May Think« widmen, der 1945 im The Atlantic Monthly veröffentlicht wurde.

Nachdem ich in meinen Beiträgen »Assoziative Verlinkungen und Generierung von Wissen« und »Wir wie vielleicht denken« dem fiktiven Schreibtisch von Vannevar Bush nachgegangen bin und dabei dritte Quellen verwendet hatte, möchte ich mich Bushs ursprünglichen Essay »As We May Think« widmen, der 1945 im The Atlantic Monthly veröffentlicht wurde.

Die Grundzüge des Memex hatte ich bereits verstanden. In seinem Essay erläutert er sein Arbeitsgerät detailliert, ordnet seine Vorstellung vorab in den zeitlichen Kontext ein und spricht über vorherrschende Bedürfnisse und mögliche Anwendungen.

Bushs Vision

Wie schon bekannt, ist Bush davon überzeugt, dass der Geist im Gegensatz bisheriger Indizierungssysteme, die alphabetisch oder numerisch aufgebaut sind, assoziativ arbeitet. Dabei ist es laut ihm die »Künstlichkeit der Indizierungssysteme, die es erschwert, Zugang zu den Aufzeichnungen zu bekommen«1. Gleichermaßen ist er der Auffassung, dass die Auswahl durch Assoziation mechanisiert werden müsse.2

Vannevar Bush 1940
Vannevar Bush 1940I

Wie Paul Otlet geht es ihm – unabhängig der abweichenden Visionen – offensichtlich darum, den Zugang zur Masse an menschlichem Wissen zu erleichtern und es sinnvoll zu verknüpfen. In seinem Essay warnt er davor, dass die Menschheit nach Errichtung einer komplizierten Zivilisation auf halbem Wege steckenbleibt, weil die Erinnerungsfähigkeit überlastet ist. Vielmehr bevorzugt er das Privileg, Dinge zu vergessen, die man nicht benötigt, ohne zu befürchten, dass sie sich nicht wiederfinden lassen.3 Maschinen sollen demnach der Auslagerung unseres Wissens dienen und jederzeit zugänglich sein. Wie mehrmals in meiner Dokumentation erwähnt, bewegen wir uns zunehmend in den Status, in dem wir ausschließlich wissen müssen, wo wir Informationen abrufen können. Das reine Auswendiglernen von Daten ist längst überflüssig. Er selbst bezeichnet den Memex als »persönliche Ergänzung zum Gedächtnis«4.

Bevor ich an späterer Stelle Hartmut Winklers Kritik an Bushs ursprünglicher Problemstellung und dem abweichendem Entwurf mit aufnehmen möchte, gehe ich auf Bushs detaillierte Beschreibung des Memex sowie dessen Nutzen ein.

Der Aufbau des Memex

Auf zwei durchscheinenden Schirmen wird das Material projiziert, welches entweder selbst erstellt oder als fertiger Mikrofilm erworben werden kann; so z. B. Bücher, Bilder, Zeitungen etc. Das Arbeitsgerät wird mit Hebeln und Knöpfen bedient und Fotografien können mittels Trockenfotografie angefertigt werden. Mithilfe der Hebel werden Aufzeichnungen in verschiedenen Geschwindigkeiten durchgeblättert und mit den Knöpfen wird unter anderem ein Code eingegeben, der den direkten Zugriff auf bestimmtes Material zulässt oder das Inhaltsverzeichnis anzeigt.5

Das Kernstück des Memex sieht Bush in einem Vorgang, der zwei Informationen miteinander verknüpft. Nebeneinanderliegende Materialien werden per Knopfdruck verbunden, der Pfad wird benannt und ins Codebuch mit aufgenommen. Die Codes sind auf Codeflächen am unteren Bildschirmrand angebracht; wird der entsprechende Knopf gedrückt, können Informationen wieder abgerufen werden. Die Verbindung wird dabei durch nicht sichtbare Punkte, die für Fotozellen lesbar sind, ermöglicht.6

Beispielhaftes Gerät zum Lesen von Mikrofilmen
Beispielhaftes Gerät zum Lesen von MikrofilmenII

Der Memex als unterstützendes Arbeitsgerät

Durch diese Vorgehensweise können ganze Pfade und Seitenpfade für ein bestimmtes Thema erstellt und abgerufen werden.7 Ein wesentlicher Bestandteil seiner Vorstellung ist der, dass Pfade durch Abfotografieren und erneute Integration weitergegeben und somit von anderen Menschen abgerufen werden können.8 Er stellt sich eine völlig neue Art von Enzyklopädie vor, welche bereits mit einem Netz assoziativer Pfade versehen ist. Zudem sieht er den Vorteil darin, dass z. B. ein Meister seinen Schülern nicht nur Aufzeichnungen, sondern ein gesamtes Gerüst, mit dessen Hilfe sie entstanden sind, hinterlassen würde. Ein weiteres Beispiel ist das eines Arztes, welcher bei der Behandlung eines Patienten den Pfad einer ähnlichen Krankengeschichte aufrufen und somit schneller zum Ergebnis kommen könnte.9 Aus seiner Sicht kann auf diese Weise »die Wissenschaft der Menschheit Werkzeuge zur Produktion, Speicherung und Nutzung ihrer Aufzeichnungen liefern«10.

Hartmut Winklers Kritik

Als Ausgangsproblem sieht Bush aus meiner Sicht Wissenschaftler, welchen es aufgrund der Masse schwerfällt, Forschungsergebnisse anderer sinnvoll zu nutzen.11 Hartmut Winkler, welcher in »form diskurs« Bushs Essay kommentiert, sieht in Bushs Aussagen ein grundsätzliches Kommunikationsproblem, auf das sich Bush beruft. Seine These ist dabei die, »dass der Memex zwar den Austausch mit einzelnen Kollegen unterstützt, das eigentliche Problem – die Kommunikation mit dem Pool des Wissens insgesamt – aber nahezu unberührt läßt«12. Daher klaffen aus seiner Sicht das Ausgangsproblem Informationsüberflutung und der Memex als technische Antwort weit auseinander. Zudem merkt er an, dass das eigentliche Problem der Menge, so wie es Bush sagt, nicht mit mechanischer Selektion oder assoziativer Speicherung zu lösen ist.13

Meiner Auffassung nach geht es Bush erstmals nicht um die generelle Kommunikation zwischen Wissenschaftlern. Meinem Verständnis nach geht es vielmehr darum, dass man seinen eigenen Pool des persönlichen Wissens manifestiert und mit anderen, fremden Quellen in Verbindung setzen kann. Eigene Gedankenwege werden in Pfaden untergebracht und somit jederzeit abrufbar. Das Teilen der Pfade ist aus meiner Sicht zwar wesentlich, aber für mein grundsätzliches Verständnis zunächst nicht nötig. Auch die Erstellung einer völlig neuen Art der Enzyklopädie unterstreicht natürlich den Ansatz, menschliches Wissen generell verbinden zu wollen. Wie ich den Text verstehe, wäre das jedoch schon der nächste logische und mögliche Schritt, nachdem das Arbeitsgerät im Einsatz wäre.

Abschließend war es für mich nun wichtig, den originalen Essay »As We May Think« zu lesen, um die Denkweise Bushs noch besser verstehen zu können. Zudem sind mir die Funktionsweise und die Möglichkeiten des Memex noch bewusster.
An dieser Stelle möchte ich meine Nachforschungen über Vannevar Bush zudem beenden, da sein Essay und seine Vision letztendlich nur einen kleinen, theoretischen Part in meiner Master-Arbeit einnehmen werden.

Quellen
  1. Bush, Vannevar: »As We May Think«, Stand: Juli 1945, URL: http://web.mit.edu/STS.035/www/PDFs/think.pdf, Seite 14, abgerufen am 29.9.2017.
  2. Vgl. Ebd.
  3. Vgl. Ebd., S. 19.
  4. Ebd., S. 15.
  5. Vgl. Ebd.
  6. Vgl. Ebd., S. 16.
  7. Vgl. Ebd.
  8. Vgl. Ebd.
  9. Vgl. Ebd., S. 17.
  10. Ebd.
  11. Vgl. Ebd., S. 3.
  12. Winkler, Hartmut: »Vannevar Bush: As We May Think« in: FormDiskurs. Nr. 2, I/1997, S. 136–147, Stand: 1997, URL: http://homepages.uni-paderborn.de/winkler/bush_d.pdf, Seite 146, abgerufen am 29.9.2017.
  13. Vgl. Ebd.
  14. Abbildungen
    1. US Department of Energy: »Vannevar Bush at Berkeley (29 March 1940)«, Stand: 11.3.2016, via Wikimedia Commons, abgerufen am 30.9.2017.
    2. Unbekannt: »Microfilm reader for articles and daily papers, Haifa University library, the 1980s«, Stand: 7.3.2013, via Wikimedia Commons, abgerufen am 30.9.2017, Lizenz: CC BY-SA 3.0.

Reflet Communication – Ein Must-See

Die französische Kommunikationsagentur Reflet Communication zaubert eine Seite, die mich in ihrem Gesamterscheinungsbild und in ihrer Navigation sehr positiv überrascht.

Heute gibt es einfach nur ein kleines Must-See für zwischendurch:
http://www.refletcommunication.com/.

Die französische Kommunikationsagentur Reflet Communication zaubert eine Seite, die mich in ihrem Gesamterscheinungsbild und in ihrer Navigation positiv überrascht.

Vollflächige Fotos, die beim Bewegen der Maus sachte mitschwingen, untermalt von leichtem Sound. Sehr wenige Wörter und dünne Grafiken, die der Navigation dienen und minimal animiert sind. Sie unterstreichen die leichte Anmutung. Auf jeder Seite steht ein Wort in großen serifenlosen Lettern. Mit gedrückter Maustaste kann man dieses Wort zur Phrase »ziehen«.
Erst durch Scrollen schiebt sich eine Ebene mit Textelementen über etwa 75 % des Bildschirms, so dass man nun mehr über die Agentur erfährt.

Reflet Communication Interface Design
Reflet Communication | passionII
Reflet Communication Interface Design
Reflet Communication | youthIII

Insgesamt konzentriere mich dabei nur auf das Look and Feel der Seite und es macht Spaß mit ihr zu interagieren, hier und da ein paar Bewegungen auszulösen. Die Tiefeneffekte sind zum Teil großartig.

Inhaltlich bin ich mir noch etwas unschlüssig, ob man als Nutzer mehr Spaß am Spiel hat oder tatsächlich auf den ersten Blick erfährt, was die Agentur zu bieten hat. Jemandem mit ernsthaften, inhaltlichen Interessen steht aber ausreichend Text zur Verfügung.

Die Website ist unter anderem mit dem JavaScript-Webframework AngularJS gebaut.

Abbildungen
  1. Titelbild: Eigener Screenshot; Reflet Communications, URL: http://www.refletcommunication.com/en/experience, abgerufen am 17.10.2017.
  2. Eigener Screenshot; Reflet Communications, URL: http://www.refletcommunication.com/en/passion, abgerufen am 17.10.2017.
  3. Eigener Screenshot; Reflet Communications, URL: http://www.refletcommunication.com/en/youth, abgerufen am 17.10.2017.

Paul Otlets Proto-Web

Ursprünglich wollte ich mich mit Paul Otlet, dem Pionier des Informationsmanagements, nur weiter auseinandersetzen, wenn es für meinen Master relevanter wird. Im Zuge meiner Recherche über wichtige Vorreiter in Bezug auf Informationsräume oder spezieller das World Wide Web, fällt Paul Otlet zwar nicht mehr oder weniger Gewicht als zuvor. Während ich mich mit der universellen Dezimalklassifikation, dem Mundaneum und seiner Vision der World City auseinandergesetzt habe, entgingen mir jedoch weitere interessante Details sowie Pläne, die er für neue Technologien hatte.

Ursprünglich wollte ich mich mit Paul Otlet, dem Pionier des Informationsmanagements, nur weiter auseinandersetzen, wenn es für meinen Master relevanter wird. Im Zuge meiner Recherche über wichtige Vorreiter in Bezug auf Informationsräume oder spezieller das World Wide Web, fällt Paul Otlet zwar nicht mehr oder weniger ins Gewicht als zuvor. Nichtsdestotrotz möchte ich neue Erkenntnisse dokumentieren, auf welche ich inzwischen gestoßen bin.

Während ich mich mit der universellen Dezimalklassifikation, dem Mundaneum und seiner Vision der World City beschäftigt habe, entgingen mir weitere interessante Details sowie Pläne, die er für neue Technologien hatte. Da man über Paul Otlet sicher ganze Doktorarbeiten schreiben könnte, hoffe ich die Gedanken dieses Genies in dieser kurzen Form gerecht und vor allem korrekt wiederzugeben.

Karteikarten und Telegraphenmaschinen als Hypermedium

Durch die benutzten Karteikarten war es möglich, einzelne Informationen – ob bibliographisch oder inhaltlich – analytisch festzuhalten und größere Informationsbrocken konnten auf separaten Blättern manifestiert werden. Das nennt Otlet das »monographische Prinzip«.1 Warden Boyd Rayward, der erste Biograph Otlets, vergleicht das mit den Knoten und Textstücken in Hypertext2 und tatsächlich kann die Arbeit als Hypermedium bezeichnet werden. Alex Wright schreibt in einem Artikel, dass Otlets Proto-Web zwar auf einem Patchwork aus analogen Technologien wie Karteikarten und Telegraphenmaschinen beruhte, es jedoch die vernetzte Struktur des heutigen Webs vorwegnahm.3 Auch laut Rayward legt eine Untersuchung der Ideen und Verfahren, auf denen die Entwicklung der Datenbanken basieren, nahe, dass sie sehr ähnlich zu Hypertext-Systemen sind. Sie bestanden aus Knoten und Abschnitten und durch ein System aus Links und Navigationsvorrichtungen gelangte der Nutzer von bibliographischen Referenzen zu Volltext, Bildern oder Objekten.4

Informationen können so losgelöst vom Gesamtwerk des jeweiligen Autors gelesen und kombiniert werden. Rayward erläutert, dass Otlet diese Möglichkeit Wissen in einer flexiblen, enzyklopädischen Weise anzuordnen »Kodifizierung« nennt.5 Diese Form von »Datenbanken« war wichtig, um eine neue Art von »Bezugs- und Konsultationsfunktionen«6 zu schaffen. Zudem war Otlet dieses Herauslösen der Informationen wichtig, um dem Autor nicht »sklavisch durch das Labyrinth eines persönlichen Plans folgen zu müssen«7. Dem Leser sollte ermöglicht werden, wichtige Inhalte zu scannen und den uninteressanten fernzubleiben.8

Neben der Tatsache, dass es neue Möglichkeiten dafür geben sollte, Texte in maschinenlesbarer Form zu bearbeiten, so dass die ursprüngliche Integrität des Dokuments erhalten bleibt,9 hatte Otlet die Idee, Texte so verfügbar zu machen, dass sie »nach Belieben durchsucht, analysiert, abstrahiert und neu formatiert werden konnten«10. Das ist konzeptionell sehr nah an heutigen Textverarbeitungsprogrammen und auch eine Form von Computer hatte er sich schon damals vorgestellt.

Das Proto-Web

Als das Mundaneum mit seinen unzähligen Karten und Blättern mehr und mehr wuchs, suchte er nach Lösungen, die Masse an Papier in den Griff zu bekommen. Er begann daher, so Alex Wright, neue Technologien zu entwerfen. Darunter unter anderem ein Art Papiercomputer, der – ausgestattet mit Rädern und Speichen – Dokumente auf der Schreibtischoberfläche bewegte. Seine finale Antwort soll jedoch das Verschrotten von Papier insgesamt gewesen sein.11
Weiter dachte er über die Möglichkeit einer elektronischen Datenspeicherung nach, welche später in seine Vision eines »mechanischen, kollektiven Gehirns« mündete, das alle Informationen der Welt innerhalb eines globalen Telekommunikationsnetzes abrufbar machen sollte.12 Ein Ansatz war der, Informationen in einer neuen Form der Enzyklopädie – der Encyclopedia Microphotica Mundaneum – über Mikrofilme verfügbar zu machen.13 Diesen Weg der Informationsverbreitung findet man später beispielsweise auch bei Vannevar Bushs Idee des Memex.

Paul Otlet | Telekommunikation
Eine von Otlets Skizzen über Telekommunikation

Folgend sah er die Möglichkeit, auf dieses angedachte universelle Netzwerk für Informationen und Dokumentation via Multimedia-Arbeitsstationen zuzugreifen, die zu dieser Zeit jedoch noch nicht erfunden waren.14 Er hatte aber bereits die Vision, dass eine Maschine benötigt werde, die das Fernschreiben und -lesen ermöglichten, so dass Gelehrte auch zu Hause Dokumente lesen konnten – verbunden per Kabel wie das Telefon oder ohne Kabel wie das Radio.15 In Otlets medienübergreifendem Netz sollte Raum für die Partizipation des Lesers sein.
Ferner spekulierte er, dass der »Schreibtisch der Zukunft nur aus einem Bildschirm oder mehreren Bildschirmen sowie einem Telefon bestehen könnte, um Dokumente abrufen zu können«16. Auch die Tonübertragung mit einer Art Lautsprecher sowie die komplette Verschmelzung innerhalb einer Maschine sah er dabei vor.17 Alex Wright führt diese skizzierten Pläne für ein globales Netzwerk von Computern bzw. »elektrischen Teleskopen« weiter aus. So sollen die Millionen miteinander verknüpften Dokumente, Bilder, Audio- und Videodateien durchsuchbar sein. Über die Geräte könnte man zudem Nachrichten versenden, Dateien teilen und sich in sozialen Netzwerken versammeln. Das nannte er réseau mondiale, ein weltweites Netzwerk.18 In diesen Netzwerken könnte man teilnehmen, applaudieren, Ovationen geben und im Chor singen.19

Paul Otlet und das World Wide Web

Paul Otlets Visionen sind aus meiner Sicht unglaublich nah an der heutigen Welt. Schreibtische mit Bildschirmen, vernetzte Informationen und die Möglichkeit am gesamten Informationsraum teilzuhaben, hören sich für damalige Verhältnisse revolutionär an. Umso ungläubiger macht es mich zum einen, dass seine Arbeit über Jahrzehnte in der Versenkung verschwand und erst durch Rayward Ende der 60er Jahre wiederentdeckt wurde. Zum anderen stimmt es mich nachdenklich, dass das Potenzial dieser Entwicklungen und Gedanken erst so viel später erkannt wurde. Weiter finde ich es erstaunlich, dass das World Wide Web als universeller Informationsraum erst nach so langer Zeit entwickelt wurde. Sicher feilte man über Jahrzehnte an Informationssystemen, das Internet gab es sehr viel früher und auch Hypertext an sich war nicht Tim Berners-Lees Idee. Der technologische Fortschritt hielt sich vermutlich in Grenzen und gesellschaftlich war man eventuell noch nicht bereit. Nichtsdestotrotz sehe ich in Otlets Ideen grundsätzliche Gedanken des World Wide Webs sowie dessen fundamentale Struktur. Daher frage ich mich beispielsweise auch, wieso weniger an offenen als an geschlossenen Systemen gearbeitet wurde, obwohl das Internet schon Jahrzehnte vor dem Web erfunden wurde und wieso der Zugang zu Wissen so lange so sperrig war, obwohl bereits Otlet den einfachen Zugang zu Wissen als wichtigen Bestandteil sah.

Abschließend halte ich Otlet für ein wirkliches Genie, der mit seinen unzähligen Ideen großes in seinem Leben geleistet hat. Wie eingangs erwähnt könnte man sicher ganze Doktorarbeiten über ihn schreiben, da viele seiner Ideen revolutionär waren und man sich alleine mit seinen Publikationen zu Lebzeiten endlos beschäftigen hätte können. Gleichwohl möchte ich an dieser Stelle mit dem Visionär abschließen und mich nach meinem Master möglicherweise noch mit Alex Wrights Buch »Cataloging the World« auseinandersetzen.

Quellen
  1. Vgl. Rayward, Warden Boyd: »Visions of Xanadu: Paul Otlet (1868–1944) and Hypertext« in: »Journal of the American society for information science«, Band 45, Ausgabe 4, S. 235–250, Stand: Mai 1994, URL: https://pdfs.semanticscholar.org/48f4/51ecb5d5241a7780bf07ac15b4e5699c5c41.pdf, S. 238, abgerufen am 28.9.2017.
  2. Vgl. Ebd.
  3. Vgl. Wright Alex: »The web that time forgot«, Stand: 17.6.2008, URL: https://www.nytimes.com/2008/06/17/health/17iht-17mund.13760031.html, Absatz 4, abgerufen am 30.9.2017.
  4. Vgl. Rayward, Warden Boyd: »Visions of Xanadu: Paul Otlet (1868–1944) and Hypertext« in: »Journal of the American society for information science«, Band 45, Ausgabe 4, S. 235–250, Stand: Mai 1994, URL: https://pdfs.semanticscholar.org/48f4/51ecb5d5241a7780bf07ac15b4e5699c5c41.pdf, S. 240, abgerufen am 28.9.2017.
  5. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 97, abgerufen am 28.9.2017.
  6. Rayward, Warden Boyd: »Visions of Xanadu: Paul Otlet (1868–1944) and Hypertext« in: »Journal of the American society for information science«, Band 45, Ausgabe 4, S. 235–250, Stand: Mai 1994, URL: https://pdfs.semanticscholar.org/48f4/51ecb5d5241a7780bf07ac15b4e5699c5c41.pdf, S. 240, abgerufen am 28.9.2017.
  7. Ebd.
  8. Vgl. Ebd.
  9. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 98, abgerufen am 28.9.2017.
  10. Ebd.
  11. Vgl. Wright, Alex: »The web that time forgot«, Stand: 17.6.2008, URL: https://www.nytimes.com/2008/06/17/health/17iht-17mund.13760031.html, Absatz 15, abgerufen am 30.9.2017.
  12. Vgl. Ebd., Absatz 16.
  13. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 99, abgerufen am 28.9.2017.
  14. Vgl. Rayward, Warden Boyd: »Visions of Xanadu: Paul Otlet (1868–1944) and Hypertext« in: »Journal of the American society for information science«, Band 45, Ausgabe 4, S. 235–250, Stand: Mai 1994, URL: https://pdfs.semanticscholar.org/48f4/51ecb5d5241a7780bf07ac15b4e5699c5c41.pdf, S. 235, abgerufen am 28.9.2017.
  15. Vgl. Rayward, Warden Boyd: »The legacy of Paul Otlet, pioneer of information science« in: »The Australian Library Journal«, Volume 41, No 2, S. 90–102, Stand: Mai 1992, Online veröffentlicht: 28.10.2013, URL: https://www.tandfonline.com/doi/pdf/10.1080/00049670.1992.10755606, S. 98, abgerufen am 28.9.2017.
  16. Ebd., S. 99.
  17. Vgl. Ebd.
  18. Vgl. Wright, Alex: »The web that time forgot«, Stand: 17.6.2008, URL: https://www.nytimes.com/2008/06/17/health/17iht-17mund.13760031.html, Absatz 2, abgerufen am 30.9.2017.
  19. Vgl. Ebd., Absatz 24.

Die Erarbeitung eines Designsystems für digitale Produkte

Zur weiteren Recherche im Bezug auf Designsysteme arbeite ich mit dem Buch »Design Systems – A practical guide to creating design languages for digital products.« von Alla Kholmatova. Im Gesamten dient es als gute Grundlage, die die Umsetzung eines Designsystems in der Praxis zeigt.

Zur weiteren Recherche im Bezug auf Designsysteme arbeite ich mit dem Buch »Design Systems – A practical guide to creating design languages for digital products.« von Alla Kholmatova. Das Buch erscheint digital in zwei Hälften – eine Mitte des Jahres, die andere im September 2017. Anschließend liegt das Buch auch als Printausgabe vor.

Im Gesamten dient es als gute Grundlage, die die Umsetzung eines Designsystems in der Praxis zeigt. Mit vielen Beispielen von Unternehmen wie sipgate, TED, Airbnb oder FutureLearn wird verständlich, inwiefern sich die Erstellung der sowie die Arbeit mit Designsystemen von Team zu Team unterscheiden. Parameter wie z. B. die Team- und Projektgröße oder die generelle Arbeitsweise sind dafür entscheidend und müssen individuell gehandhabt werden.

In kleineren Teams hat der einzelne mehr Einblick und Verantwortung, in größeren müssen Verantwortlichkeiten eventuell anders verteilt werden.1 Zudem müssen die Designprinzipien für jeden verständlich sein. Das bedeutet entweder, dass im Team wirklich jeder weiß, welche Grundsätze gelten oder dass die fundamentale Gestaltungslinie eindeutig dokumentiert ist. Auch in der Anwendung der Systeme muss klar sein, ob die Regeln strikt oder eher locker eingehalten werden. Während beispielsweise bei Airbnb alles exakt festgelegt ist und die Pattern strikt angewendet werden müssen,2 sind bei dem kleineren Team von TED ein offener Umgang und mehr Flexibilität zu finde.3 Bei einer rigorosen Einhaltung der Regeln muss das Designsystem dementsprechend so gut konzipiert sein, dass die Gestaltung trotz Modularität nicht generisch wirkt.4

Bei der Dokumentation bzw. im allgemeinen Verständnis des jeweiligen Systems ist zudem das gemeinsame Sprachverständnis wichtig. So nennt sie das Beispiel eines Sequenz-Moduls.5 Dieses Modul sollte für jeden Sequenz heißen, nicht »Wizards Control« oder »Fancy Bubbles«.6 Des Weiteren sollten die Ausdrücke eindeutig so gewählt werden, dass man auch als Designer, der nicht bis in die Tiefen des Projekts involviert ist, weiß um welches Element es sich handelt. Neben dem klaren Einsatz des Elements werden Dopplungen durch Neugestaltung verhindert. Bestimmte Buttons wurden bei FutureLearn »Minions« genannt, ein großer Button heißt »Boss«7. Durch diese Benennung wird klar, dass es nur einen großen Button auf der Seite geben kann, da es nur einen Boss gibt. Diese metaphorische Benennung halte ich – insofern man für alle Elemente ähnliche Bezeichnungen finden kann – für sehr vorteilhaft. Ein weiteres Beispiel ist die »Whisperbox« sowie eine zugefügte Komponente namens »Boombox«. Schon im Wortlaut wird klar, welches der beiden zurückhaltend leise und welches prominent laut ist. Die Autorin schlägt generell vor sich vorzustellen, dass das Interface nicht visuell ist, sondern laut vorgelesen wird. Dadurch erkennt man schnell, ob man in Bezug auf die »Visual loudness scall« bereits ein Element der gleichen Lautstärke vorhanden ist.8

Kholmatova unterteilt die Pattern in zwei große Gruppen. Die funktionalen sowie die, die der Wahrnehmung zuzuordnen sind. Zur Unterscheidung kann man sich vorstellen, dass funktionale im HTML-, zweitere typischerweise im CSS-Code zu finden sind.9 Noch klarer macht sie es mit dem Beispiel eines Hauses, indem alle Möbel funktional dieselben sein können. Jeder hat etwa einen Tisch, ein Sofa oder ein Bett. Und doch macht der Stil den großen Unterschied, ob man sich in der Umgebung wohl oder sogar völlig fehl am Platz fühlt.

Insgesamt könnte ich noch unzählige weitere Absätze verfassen. Wenn man in diesem Bereich arbeitet, sind zwar einige Dinge nicht überraschend neu, dennoch fühlt es sich gut an sie zum einen gesammelt niedergeschrieben zu sehen und zum anderen einen Einblick in die Arbeit anderer zu bekommen. Vor allem die Methodik anderer Unternehmen zu verstehen, finde ich sehr spannend. Zudem gibt es natürlich trotzdem viele neue Erkenntnisse und das Buch hilft hervorragend die eigene Arbeitsweise zu analysieren und zu hinterfragen. Aus diesem Grund empfehle ich das Buch absolut jedem, der sich für Designsysteme interessiert.

Quellen
  1. Vgl. Kholmatova, Alla: »Design Systems«, Freiburg 2017, S. 144.
  2. Vgl. Ebd., S. 136.
  3. Vgl. Ebd., S. 140.
  4. Vgl. Ebd., S. 99.
  5. Vgl. Ebd., S. 29.
  6. Vgl. Ebd., Freiburg 2017, S. 30.
  7. Ebd., S. 114.
  8. Vgl. Ebd., S. 78.
  9. Vgl. Ebd., S. 27.

oN-Line System – Template des modernen Computers

An verschiedenen Stellen bin ich auf Doug Engelbart, Forscher an der Standford University, gestoßen. Eine seiner Visionen war, dass Hypertext als Werkzeug für die Arbeit im Team genutzt wird und dass Personen in einem sehr nahen und natürlichen Weg mit Maschinen kommunizieren können.

An verschiedenen Stellen bin ich auf Doug Engelbart, Forscher an der Standford University, gestoßen. Eine seiner Visionen war, dass Hypertext als Werkzeug für die Arbeit im Team genutzt wird und dass Personen in einem sehr nahen und natürlichen Weg mit Maschinen kommunizieren können.1 In den 60er Jahren erschuf er das kollaborative Hypertext-System »oN-Line System« (NLS) und gilt als Erfinder der Computermaus.2 Die Erfindung seiner Einhand-Tastatur mit nur fünf Tasten, sieht Licklider rückblickend sogar als eine der wahrscheinlich größten Erfindungen.3

Engelbart gilt als stark beeinflusst von Vannevar Bush und ist zudem Autor von »Augmenting Human Intellect: A Conceptual Framework« (1962).4 Damit ist die Fähigkeit eines Menschen gemeint, »sich einer komplexen Problemsituation zu nähern, Verständnis für seine speziellen Bedürfnisse zu entwickeln und Problemlösungen abzuleiten. Unter erhöhter Fähigkeit wird in diesem Zusammenhang eine Mischung aus Folgendem verstanden: schnelleres Verständnis, besseres Verständnis, die Möglichkeit, in einer bisher zu komplexen Situation einen brauchbaren Grad an Verständnis zu gewinnen, schnellere Lösungen, bessere Lösungen und die Möglichkeit Lösungen für Probleme zu finden, die vorher unlösbar schienen«5. Zudem sieht er die Wichtigkeit, dass Ahnungen, Ausprobieren, immaterielle Werte und das menschliche »Gefühl für eine Situation« sinnvollerweise mit den rationalen Gegebenheiten der elektronischen Hilfsmittel koexistieren.6

Seine Ausarbeitung gilt als Pionierarbeit seiner Zeit und seine Denkweise ist der Lickliders sehr nahe. Die auf den ersten Blick für meine Arbeit relevantere Entwicklung ist jedoch die des oN-Line Systems. Selbstverständlich kann beides nicht gänzlich getrennt voneinander betrachtet werden, da genau dieses System zur Erweiterung der menschlichen Intelligenz bestimmt war.7 Jedoch möchte ich mich nicht zu sehr in seinem sehr umfangreichen, theoretischen Konzept verstricken.

Das oN-Line System

Wie schon erwähnt ist das oN-Line System ein Hypertext-System. Der Prototyp wurde erstmals 1968 demonstriert und Alex Wright hält es im Wesentlichen für das Template für den modernen Computer.8 Ian Ritchie beschreibt wie Engelbart das System mit Headset-Mikrophon mittels 5-Finger-Tastatur und der ersten Computermaus der Welt demonstriert und zwischen Dokumenten und Graphiken weiter schaltet.9 Aus Ritchies Sicht war das Problem unter anderem das, dass ein Computer zu dieser Zeit mehrere Millionen Pfund kostete und damit als Heimcomputer nicht wirklich praktisch war.10 Wright erläutert weiter, dass das System bereits Hyperlinks und ein Videokonferenz-System enthält,11 was mir als sehr fortschrittlich erscheint. Es gilt als das erste System, das den praktischen Einsatz von mit Hyperlinks vernetzten Dokumenten, der Maus, Raster-Scan-Monitoren, nach Relevanz organisierten Informationen, einer Bildschirmverwaltung, Präsentationsprogrammen und anderen modernen Computing-Konzepten angewandt hat.12

Für mich immer wieder erstaunlich ist die Tatsache, wie früh daran gearbeitet wurde Informationen nach Relevanz zu sortieren und wie lange es gedauert hat bis es mit dem World Wide Web tatsächlich praktikabel für Jedermann umgesetzt wurde. Natürlich gibt es davor schon analoge Systeme, die sich wie im Falle von Paul Otlet durch die Verbindung von Inhalten abheben oder fiktive Anwendungen, die wie bei Vannevar Bushs Memex Assoziationen zwischen Dokumenten auf elektronischem Wege hervorbringen sollten.
Gleichermaßen lässt sich der Antrieb, neue Wege für die Organisation von Informationen zu finden, als logische Konsequenz der menschlichen Entwicklung sehen und sich in den historischen Kontext einordnen. So nahm neben der Fülle an Informationen auch die Abhängigkeit von eben diesen massiv zu. Wohlstand und Fortschritt sind in der Hypergeschichte, in der wir uns beispielsweise in Deutschland befinden, enorm an sie gebunden. Zudem sieht man in Tim Berners-Lee Konzept von Linked Open Data eine weitere Evolution, welche mich stark an »The World City« erinnert, mit der Paul Otlet das Wissen der Menschheit vereinen wollte. Auch bei Linked Open Data ist letztendlich das Ziel alle Daten zusammenzutragen, so dass sie nicht auf lokalen Rechnern oder in geschlossenen Systemen verloren gehen. Zwar unterscheiden sich Informationen und Wissen grundlegend, aber durch das Zusammenführen der Daten bzw. Informationen lässt sich nicht nur Wissen herauslesen, sondern sogar neues generieren. So werden nämlich Sachverhalte assoziativ verbunden, welche vorher nicht als zusammenhängend betrachtet wurden.

Diese abschließenden Gedanken bringen mir insofern neue Erkenntnisse für meine Arbeit, dass mir der Gesamtkontext nun immer klarer wird. Die Recherche über vergangene Entwicklungen, die zeitliche Einordnung sowie aktuelle Konzepte helfen mir enorm beim Verständnis. In diesem Zusammenhang wird mir zudem bewusst, das Informationsdesign eine große Rolle in meiner Arbeit spielen könnte.

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 6.
  2. Vgl. Ebd., S. 50.
  3. Vgl. Licklider, Joseph Carl Robnett, Yoshiki Ohshima: »Some Reflections on Early History by J.C.R. Licklider (VPRI 0093)«, Stand: 5.8.2015, URL: https://www.youtube.com/watch?v=SN–t9jXQc0, TC: 00:12:22–00:13:50, abgerufen am 20.8.2017.
  4. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:36:11–00:37:18, abgerufen am 18.8.2017.
  5. Engelbart, Doug: »Augmenting Human Intellect: A Conceptual Framework«, Stand: Oktober 1962, URL: https://www.dougengelbart.org/pubs/augment-3906.html#2, abgerufen am 22.8.2017.
  6. Vgl. Ebd.
  7. Vgl. Ritchie, Ian: »The day I turned down Tim Berners-Lee«, URL: https://www.ted.com/talks/ian_ritchie_the_day_i_turned_down_tim_berners_lee/, TC: 00:01:17–00:01:51, abgerufen am 20.7.2017.
  8. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:38:04–00:39:36, abgerufen am 18.8.2017.
  9. Vgl. Ritchie, Ian: »The day I turned down Tim Berners-Lee«, URL: https://www.ted.com/talks/ian_ritchie_the_day_i_turned_down_tim_berners_lee/, TC: 00:01:51–00:02:24, abgerufen am 20.7.2017.
  10. Vgl. Ebd., TC: 00:02:24–00:02:37.
  11. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:38:04–00:39:36, abgerufen am 18.8.2017.
  12. Vgl. Gust, Kate, Software Preservation Group: »NLS Augment Index«, Stand: 6.11.2006, URL: http://www.softwarepreservation.org/projects/nlsproject, abgerufen am 22.8.2017.
Abbildungen
  1. Titelbild: DARPA: »oN-Line System«, URL: https://www.darpa.mil/about-us/timeline/nls, abgerufen am 14.9.2017.

This is for everyone

Der Dokumentarfilm »ForEveryone.net« verbindet die Vergangenheit, Gegenwart und Zukunft des Webs. Unter anderem durch Umfragen, Interviews sowie Tim Berners-Lee als Erzähler selbst, schafft die Regisseurin Jessica Yu einen Film, welcher einen kurzen, aber präzisen Einblick in die Entwicklung und Grundideen des World Wide Web gibt.

Der Dokumentarfilm »ForEveryone.net« verbindet die Vergangenheit, Gegenwart und Zukunft des Webs. Unter anderem durch Umfragen, Interviews sowie Tim Berners-Lee als Erzähler selbst, schafft die Regisseurin Jessica Yu einen Film, welcher einen kurzen, aber präzisen Einblick in die Entwicklung und Grundideen des World Wide Web gibt.

Schon in den ersten Minuten bringen Jeff Jaeff, Daniel Weitzner und Peggie Rimmer die Wichtigkeit des Webs auf den Punkt. Jaeff beschreibt das Web als die transformierende Entwicklung überhaupt in unserer Zeit.1 Daniel Weitzner glaubt fest daran, dass es keine andere Technologie gibt, die so viel für freie Meinungsäußerung, Zugang zu Wissen und Demokratie getan hat als das Web.2 Peggie Rimmer sagt vorher, dass die Welt buchstäblich angehalten wird, wenn das Web untergeht.3

Vor allem die letzte Aussage wirft bei mir viele Fragen und Gedanken auf. Während wir uns langsam, Jahr für Jahr, an das Web gewöhnt haben, wäre der Untergang ein tatsächlicher – sicher zeitlich begrenzter – Untergang. Das Web ist so präsent und selbstverständlich, dass das Leben vieler massiv davon abhängt. Ganze Berufe und Branchen sind ausschließlich dem Web zu verdanken und selbst in Bereichen, welche nicht in erster Linie mit dem Web verbunden sind, wäre es fatal, wenn keine Kommunikation über das Web bzw. das Internet stattfinden könnte. Es geht dabei nicht nur um die tägliche Kommunikation via E-Mail oder das Gestalten schöner Webseiten als Beruf. Allein die Forschung, die durch den weltweiten Austausch von Daten massiv von der Vernetzung profitiert, wäre sicher um einiges zurückgeworfen.

Umso besser, dass Tim Berners-Lee eines Tages mit seinem Vater eine Diskussion über eine Idee des Vaters hatte. Berners-Lee erzählt die Anekdote, dass sein Vater nach Ideen suchte, um Computer intuitiver zu machen und Verbindungen zu vervollständigen, wie es das Gehirn kann. Computer sind gut in der logischen Organisationsverarbeitung, aber nicht darin Verbindungen zu schaffen. Dass Computer sehr viel stärker wären, wenn unverbundene Informationen verbunden werden würden, schlummerte weiter als Vision in Berners-Lees Hinterkopf. Laut ihm sind die Verbindungen wichtig und in einer extremen Sichtweise könnte man sogar sagen, dass alles nur aus Verbindungen besteht.4

Die Anfänge des Internets sind schon in den 60er Jahren zu finden, doch Informationen abzurufen oder einzuspielen war für Lieschen Müller unmöglich. Daniel Weitzner drückt es so aus, dass Berners-Lee viel Komplexität weggenommen hatte und das Internet durch das World Wide Web zugänglich machte.5

Das grundsätzliche Problem war nämlich die Inkompatibilität der Computer, weshalb sie oft nicht miteinander kommunizieren konnten. Bei CERN lag die Schwierigkeit schon darin, dass nicht einmal die Stromstecker untereinander kompatibel waren. Die Mitarbeiter kamen aus der ganzen Welt und da es keine strengen Reglements gab, arbeitete jeder an unterschiedlichen Rechnern. Da Berners-Lee irgendwann genug davon hatte, baute er einen eigenen Adapter, der so flexibel war, dass er alles tun kann, was er damit tun möchte. Daraus entstand die weitere Vorstellung, wie es wäre, wenn er seinen Computer so programmieren könnte, dass er einen Raum kreiert, in dem alles verlinkt ist. Jede Information, jedes Bit auf dem Planeten wären für ihn sowie jeden anderen verfügbar. Ein einziger Informationsraum.6

Welche Ideen hinter diesem Informationsraum stecken, so wie z. B. die Dezentralisierung oder die Arbeit mit möglichst wenigen Regeln, fasse ich bereits in »Vision eines Visionärs« zusammen.

Während durch meine bisherige Auseinandersetzung viele Dinge wie die Namensgebung des Webs, die freie Herausgabe von CERN oder beispielsweise die Magna Carta nicht neu für mich waren, fand ich einen neuen Anhaltspunkt in den Erzählungen von Tilly Blyth, Kuratorin des Londoner Science Museum. Sie erklärt, dass schon viele darüber nachgedacht haben, wie man Informationen kategorisieren, verlinken und teilen kann.7 Auf der Webseite des Museums finde unzählige weitere Informationen, die im weiteren Verlauf hilfreich werden könnten. Zudem nennt sie Ted Nelson, Vannevar Bush oder Paul Otlet, welcher die Idee eines physischen Platzes entwickelte, wo alle Informationen aufbewahrt und auf Anfrage abgerufen werden können.8

Insgesamt fühlt sich der Film wie eine Hommage an das Web an, welche es durchaus auch verdient hat. In den letzten Szenen wird Tim Berners-Lees Auftritt bei der Eröffnungsfeier der olympischen Spiele 2012 in London gezeigt, wo er als Erfinder des Webs vorgestellt und mit riesigen Lettern »THIS IS FOR EVERYONE« auf den Zuschauertribünen begleitet wird.9 Das unterstreicht seinen Kampf um das offene Web und die weltweite Verbreitung. Erst wenn jeder Mensch am World Wide Web teilnehmen wird und garantiert werden kann, dass das Web ein offener Informationsraum bleibt, wird Tim Berners-Lees Vision in so mancher Hinsicht erfüllt sein.

Quellen
  1. Vgl. Yu, Jessica, Non-Fiction Unlimited: »ForEveryone.net«, USA 2016, URL: http://www.foreveryone.net/, TC: 00:00:40–00:00:45, abgerufen am 17.4.2017.
  2. Vgl. Ebd., TC: 00:01:05–00:01:16.
  3. Vgl. Ebd., TC: 00:01:30–00:01:35.
  4. Vgl. Ebd., TC: 00:05:02–00:05:57.
  5. Vgl. Ebd., TC: 00:07:20–00:07:32.
  6. Vgl. Ebd., TC: 00:09:44–00:11:47.
  7. Vgl. Ebd., TC: 00:06:15–00:07:20.
  8. Vgl. Ebd.
  9. Vgl. Ebd., TC: 00:23:32–00:33:56.
Abbildungen
  1. Titelbild: Eigener Screenshot; Yu, Jessica, Non-Fiction Unlimited: »ForEveryone.net«, USA 2016, URL: http://www.foreveryone.net/, TC: 00:33:37, abgerufen am 17.4.2017./li>

Intergalactic Computer Network

Bei der Entstehung des World Wide Webs spielt die Erfindung des Internets die grundlegende Rolle überhaupt. Joseph Carl Robnett Licklider gilt als einer der wichtigsten Begründer, weshalb ich ihn in meine Dokumentation aufnehmen möchte.

Bei der Entstehung des World Wide Webs spielt die Erfindung des Internets die grundlegende Rolle überhaupt. Joseph Carl Robnett Licklider gilt als einer der wichtigsten Begründer, weshalb ich ihn in meine Dokumentation aufnehmen möchte. Meine Recherche über ihn war verhältnismäßig lange, da ich es sehr schwierig fand geeignete Materialien zu finden. Jedoch möchte ich meine Ergebnisse sehr gebündelt zusammentragen, da die detaillierte Entstehung des Internets kein Kernthema für mich darstellt. Aus diesem Grund habe ich mich bisher auch nicht im Detail mit seinen Büchern wie z. B. »The Dream Machine« oder »Libraries of the future« auseinandergesetzt. Innerhalb eines Vortrags von Hannes Högni Vilhjálmsson spielen seine Arbeiten »Man-Computer-Symbiosis« und »The Computer as a Communication Device« eine Rolle. Zudem dient mir »Brief History of the Internet« der Internet Society als Basis.

Advanced Research Projects Agency

Den Grundstein des Internets legt Licklider in den 60er Jahren bei seiner Arbeit für die ARPA (Advanced Research Projects Agency). Schon vor seiner Zeit bei ARPA (später DARPA) entstand 1960 seine Arbeit »Man-Computer-Symbiosis«. Dabei geht es nicht darum, dass der Mensch von der Maschine ersetzt oder mechanisch erweitert wird, sondern eine tatsächliche Symbiose entsteht.1 Einen Vorteil sieht er vor allen Dingen darin, dass die Maschine Aufgaben übernehmen kann, welche dem Menschen die Zeit für intellektuelle Arbeit rauben.2 In seinen Anforderungen für die Symbiose spricht er bereits in dieser Arbeit von »Networked thinking centers«, welche durch Aufteilung der Computerleistung verhindern sollen, dass zu schnelle und teure Computer nicht ausgelastet werden und nur wenigen Menschen dienen.3 Licklider ist davon überzeugt, dass Computer die Mensch-Mensch-Kommunikation verbessern können und vor allem die Beschleunigung von Arbeitsprozessen spielt bei seinen Gedanken eine Rolle.4

Ab 1962 ist er Leiter bei ARPA, wo er in den kommenden Jahren über das »Intergalactic Computer Network« nachdenkt, erste Experimente durchführt und Verbindungen mit seinen Mitarbeitern realisiert.5 Nachdem er 1967 seinen Plan für das »ARPANET« veröffentlicht, wird die Umsetzung einer Schlüsselkomponente, dem »Interface Message Processor«, ausgeschrieben. »BBN Technologies« realisiert ihn letztendlich und legt damit den Grundstein für das erste Rechnernetz im Jahr 1969, welches in den kommenden Jahren immer mehr Computer aufnimmt.6 Dieses Netz gilt als Vorreiter des Internets.

Wie eingangs erwähnt möchte ich mich nur kurz mit diesem Thema befassen, weshalb ich es ohne Reflexion oder Erkenntnisse mit in meine Dokumentation aufnehme.

Quellen
  1. Vgl. Vilhjálmsson, Hannes Högni, RU Computer Science: »Pearls of Computation: „J. C. R. Licklider: Man-Computer Symbiosis on the Intergalactic Computer Network«, Stand: 13.2.2015, URL: https://www.youtube.com/watch?v=ncCPTgWX6a8, TC: 00:17:31–00:19:22, abgerufen am 24.8.2017.
  2. Vgl. Ebd., TC: 00:23:23–00:25:10.
  3. Vgl. Ebd., TC: 00:25:18–00:26:03.
  4. Vgl. Ebd., TC: 00:36:16–00:37:31.
  5. Vgl. Ebd., TC: 00:12:18–00:14:23.
  6. Vgl. Leiner, Barry M.; Cerf, Vinton G.; Clark, David D.; Kahn, Robert E.; Kleinrock, Leonard; Lynch, Daniel C.; Postel, Jon; Roberts, Larry G.; Wolff, Stephen, Internet Society: »Brief History of the Internet«, »Origins of the Internet« URL: https://www.internetsociety.org/internet/history-internet/brief-history-internet/, abgerufen am 26.8.2017.

Assoziative Verlinkungen und Generierung von Wissen

In zwei Beiträgen bin ich bereits kurz auf Vannevar Bush, den Erfinder der Memex, eingegangen. Durch einen Vortrag von Alex Wright habe ich die Funktionsweise der Memex noch ein Stück besser verstanden, weshalb ich nochmal kurz auf Bush eingehen möchte.

In meinen Beiträgen »Tim Berners-Lee über das World Wide Web« und »Wie wir vielleicht denken« bin ich bereits kurz auf Vannevar Bush, Erfinder des fikitven Schreibtisches Memex, eingegangen. Durch einen Vortrag von Alex Wright habe ich die Funktionsweise des Memex noch ein Stück besser verstanden, weshalb ich nochmal kurz auf Bush eingehen möchte.

Als Grundlage dient mir erneut Bushs Überzeugung, dass das Gehirn nicht wie Bibliotheken oder ein Katalogsystem funktionieren würde, sondern durch Assoziationen arbeitet und zwischen einzelnen Gedanken hin und her springt.1 Essenziell ist bei der Idee des Memex, dass Verbindungen zwischen Dokumenten kreiert werden können.2 Dabei hatte man assoziative Wege sie zu verknüpfen und die Pfade waren sichtbar. Wenn die Maschine also eine Woche vorher benutzt worden wäre, hätte der nächste gesehen, welcher Weg gegangen wurde. Man konnte dabei nicht nur sehen, wie man in das aktuelle Dokument gelangt ist, sondern wohin es weiter verlinkt. In dieser Hinsicht sieht Wright ein Vorteil gegenüber dem Web, da man üblicherweise nicht sieht, wer noch auf derselben Webseite ist – ausgenommen auf jenen, die genau darauf ausgelegt sind.3
Meiner Meinung nach ist das insofern vorteilhaft, dass dadurch völlig neue Assoziationen und Wege aufgezeigt werden, welche man selbst eventuell noch nicht bedacht hatte.

Sollte ich die Maschine zwischenzeitlich richtig verstehen, gibt es noch eine weitere Möglichkeit, Wissen einzelner zu vernetzen. So konnten viele Informationen auf den Mikrofilmen gelagert, zwei Dokumente nebeneinander geöffnet und Anmerkungen geschrieben werden.4 Speziell die Möglichkeit eigene Anmerkungen hinzuzufügen, sehe ich als enorm wichtiges Werkzeug für die gemeinschaftliche Auseinandersetzung mit und Generierung von Wissen.

Vannevar Bush wird häufig als der Mann erwähnt, auf dessen Arbeit viele weitere Ansätze in der Welt der Computer und des World Wide Webs basieren. Daher möchte ich mich zu einem späteren Zeitpunkt detaillierter durch den Essay »As We May Think« arbeiten.

Quellen
  1. Vgl. Bush, Vannevar: »As We May Think«, URL: http://web.mit.edu/STS.035/www/PDFs/think.pdf, Seite 14, abgerufen am 29.8.2017.
  2. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:26:40–00:29:23, abgerufen am 18.8.2017.
  3. Vgl. Ebd., TC: 00:24:57–00:27:00.
  4. Vgl. Ebd., TC: 00:30:57–00:32:00.
  5. Vgl. Ebd., TC: 00:29:25–00:30:56.

Paul Otlet – Pionier des Informationsmanagements

Im Zuge meiner Nachforschungen hinsichtlich der Entwicklung des World Wide Webs stoße ich häufig auf den Namen Paul Otlet. An diversen Stellen wird er als Pionier des Informationsmanagements oder als Wegbereiter des Webs oder Google genannt. Alex Wright, amerikanischer Autor und Informationsarchitekt, spricht in seinem Vortrag »The Web That Wasn’t: Forgotten Forebears of the Internet« bei UX Brighton über Paul Otlet sowie diverse andere Vorreiter des Internets.

Im Zuge meiner Nachforschungen hinsichtlich der Entwicklung des World Wide Webs stoße ich häufig auf den Namen Paul Otlet. An diversen Stellen wird er als Pionier des Informationsmanagements oder als Wegbereiter des Webs oder Google genannt. Alex Wright, amerikanischer Autor und Informationsarchitekt, spricht in seinem Vortrag »The Web That Wasn’t: Forgotten Forebears of the Internet« bei UX Brighton über Paul Otlet sowie diverse andere Vorreiter des Internets.

Otlets Organisationsstruktur intellektueller Arbeiten
Otlets Organisationsstruktur intellektueller Arbeiten

Die universelle Dezimalklassifikation

Der Belgier Otlet lebte von 1868 bis etwa Mitte des 20. Jahrhunderts und entwickelte seine Vision dementsprechend vor der Erfindung des ersten Computers. Ein zentraler Gedanke seiner Arbeit ist die systematische Anordnung, inhaltliche Verknüpfung und Darstellung menschlichen Wissens. Die bis dahin übliche Katalogisierung der Medien – weitestgehend Bücher – brachte ein großes Problem mit sich: Die Inhalte waren nicht ersichtlich. Das Ziel war also, ein System zu entwickeln, welches es zulässt, Inhalte zu extrahieren und sie auf intelligente Weise zu indexieren,1 um sie wiederum einfach verfügbar machen zu können. Basierend darauf entwickelt er zusammen mit Henri La Fontaine, beides Bibliothekare, die universelle Dezimalklassifikation, welches noch immer in fast ganz Europa von öffentlichen Bibliotheken verwendet wird2 und menschliches Wissen systematisch einteilt.

Wissen der Menschheit

Das bescheidene Ziel war es schließlich, das komplette Wissen der Menschheit seit Erfindung des Drucks zu sammeln und zu indexieren. Im Mundaneum war ab 1895 das »Institut International de Bibliographie« beheimatet,3 wo das Duo mit der Umsetzung dieser Vision begann. Die jahrzehntelange Arbeit wurde von der Regierung unterstützt und die Mitarbeiter versuchten absolut jede Information der Welt zu sammeln,4 um sie schließlich systematisch auf Karteikarten zu indexieren. Allein zwischen 1895 und dem 1. Weltkrieg entstanden so zehn Millionen Karteikarten,5 welche auch andere Medien wie Fotografien, Filme oder Audioaufnahmen mit einbezogen.6 Bis ins Jahr 1934 wurden mithilfe eines internationalen Netzwerks ganze 18 Millionen Karteikarten erstellt, welche innerhalb von Aktenschränken stolze 15.000 Zettelkästen füllten.7

Ab 1910 entstand das International Museum, das eher als Lehrinstitut als als Museum verstanden wurde. In 150 Räumen war Wissen thematisch sortiert aufbereitet und für die Öffentlichkeit zugänglich.8

The World City

Der Utopist ging gedanklich noch einen Schritt weiter. Er dachte über eine physische Manifestation der Informationen nach und arbeitete zusammen mit bekannten Architekten an Plänen für eine »World City«. Dessen Herz sollte das Mundaneum sein und unter anderem globale Universitäten oder ein Netzwerk von Museen beherbergen.9 Rund um das zentrale Mundaneum sollte ein Art Netzwerk fließender Informationen und Institutionen entstehen, welches durch Zweigstellen in der ganzen Welt unterstützt werden sollte. Die Aufgabe der Zweigstellen wäre die gewesen, Informationen des jeweiligen Landes zu verwalten, sie weiterzugeben und sie gegen Informationen aus der globalen Stadt einzutauschen.10

Inhaltliche Verlinkung

Alex Wright bewertet den Ansatz Otlets in mancher Hinsicht als anspruchsvoller als das World Wide Web selbst. Zwar wäre es heute unmöglich alle Informationen zu sammeln, doch das Web sei ein flacher Informationsraum ohne Organisationsprinzipien. Das macht es auf der einen Seite als offenes Medium aus, auf der anderen Seite sieht er genau das als Krankheit. Man käme etwas auf die Spur, Dinge verschwänden wieder, man müsse herausfinden, wem und was man vertrauen könne und es sei ohnehin unmöglich das große Ganze zu verstehen. Zudem fand Otlet sehr anspruchsvolle Wege Informationen zu verlinken, während Hyperlinks nur von A nach B führen, ohne dass man genau weiß in welcher Beziehung die Links zueinander stehen.
Otlet hatte dagegen eine ausgefeilte Syntax aus Zahlen und Zeichen, welche letztendlich zeigt, dass ein Dokument mit dem anderen übereinstimmt oder es in bestimmten Aspekten sogar erweitert. Aus Wrights Sicht besitzt das Web diese Art und Weise der Verbindungen noch nicht, obwohl viele Menschen daran arbeiten.11

Aus meiner Sicht ist die Vision Otlets ein wunderbarer Ansatz, um Informationen sammeln, organisieren und verbreiten zu können. Vor allem die globale Stadt, die sich letztendlich nur dem Fluss des menschlichen Wissens widmet, halte ich für großartig. Andererseits halte ich die Zentralisierung des Wissens aus heutiger Sicht nicht für den besten Ansatz. Dadurch, dass nur bestimmte Institutionen in den jeweiligen Ländern Informationen austauschen, wäre der freie Fluss sehr beschränkt. Man muss jedoch bedenken, dass ein digitaler Austausch wie heute natürlich noch nicht möglich war.

Mein Beitrag soll nur einen kurzen Einblick in Otlets Vision geben, um sein System besser verstehen zu können. Sollte es während meines Masters relevanter werden, möchte ich mich noch einmal detaillierter mit der tatsächlichen Systematik auseinandersetzen. Zudem werde ich meine Dokumentation durch einen kleinen Exkurs zu Otto Neurath erweitern. Er war österreichischer Design Thinker und an den Plänen der Stadt beteiligt.

Quellen
  1. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:14:34–00:15:14, abgerufen am 18.8.2017.
  2. Vgl. Ebd., TC: 00:13:43–00:14:34.
  3. Vgl. Tiny Big Story, in collaboration with Ikesu, Mundaneum: »Mundaneum – Small history of a big idea – Context EN«, Stand: 9.7.2015, URL: https://www.youtube.com/watch?v=flBcebZ7MCo, TC: 00:00:54–00:01:14, abgerufen am 18.8.2017.
  4. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:20:19–00:21:00, abgerufen am 18.8.2017.
  5. Vgl. Ebd., TC: 00:21:00–00:21:30.
  6. Vgl. Ebd., TC: 00:16:30–00:16:54.
  7. Vgl. Tiny Big Story, in collaboration with Ikesu, Mundaneum: »Mundaneum – Small history of a big idea – Context EN«, Stand: 9.7.2015, URL: https://www.youtube.com/watch?v=flBcebZ7MCo, TC: 00:01:15–00:01:29, abgerufen am 18.8.2017.
  8. Vgl. Ebd., TC: 00:01:59–00:02:26.
  9. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:17:14–00:18:40, abgerufen am 18.8.2017.
  10. Vgl. Ebd., TC: 00:18:40–00:19:20.
  11. Vgl. Ebd., TC: 00:24:57–00:27:00.

Wie wir vielleicht denken

Im TED-Beitrag »The day I turned down Tim Berners-Lee« erläutert Ian Ritchie, wie sich das Web entwickelt hat und wie es dazu kam, dass er 1990 Berners-Lees Anfrage einen Browser zu schreiben, ablehnte. Da ich mich mit Teilen der Entwicklung schon beschäftigt habe und die Essenz seines Vortrags nicht sonderlich erkenntnisreich finde, interessiert mich vor allen Dingen seine Schilderung über Vannevar Bush und Doug Engelbart.

Im TED-Beitrag »The day I turned down Tim Berners-Lee« erläutert Ian Ritchie, wie sich das Web entwickelt hat und wie es dazu kam, dass er 1990 Berners-Lees Anfrage einen Browser zu schreiben, ablehnte.1

Da ich mich mit Teilen der Entwicklung schon beschäftigt habe und die Essenz seines Vortrags nicht sonderlich erkenntnisreich finde, interessiert mich vor allen Dingen seine Schilderung über Vannevar Bush und Doug Engelbart.

Ritchie erwähnt Bushs Artikel »As We May Think«, der 1945 veröffentlicht wurde. Er behauptet damals, dass die Art, wie wir Informationen nutzen, zerstört sei und wir als Menschen nicht wie Bibliotheken oder Katalogsysteme funktionieren würden. Das Gehirn arbeitet durch Assoziationen und springt zwischen einzelnen Gedanken hin und her.2 Auf dieser Grundlage entwickelte er 1945 die fiktive Maschine Memex, welche Informationen miteinander verknüpfen würde. Ein Memex hatte eine Plattform, auf der man Informationen verbinden und abrufen konnte. Der Computer war zu dieser Zeit noch nicht erfunden.3

Bushs Artikel inspiriert Engelbart, welcher später das oN-Line System baute, das zur Erweiterung der menschlichen Intelligenz bestimmt war. Er präsentierte es 1968 live auf einer Konferenz. Man sah wie er es mithilfe der 5-Fingertastatur und der ersten Computermaus bediente und zwischen Dokumenten und Grafiken wechselte.4 Während Computer zu dieser Zeit noch unerschwinglich waren,5 ändert sich das in den 80er Jahren mit dem Einzug der Heimcomputer. Ritchies Unternehmen OWL entwickelte in dieser Zeit das erste erfolgreiche Hypertextsystem, später folgt Apples HyperCard6 und schließlich die Erfindung des World Wide Webs durch Tim Berners-Lee.

Auf Bushs »As We May Think« bin ich schon häufiger innerhalb meiner Recherche gestoßen und Doug Engelbart hat beispielsweise Tim Berners-Lee in seinem Gespräch bei Sternstunde Philosophie erwähnt. Daher möchte ich mich im Weiteren zumindest grob mit beiden auseinandersetzen, um deren Ansätze besser zu verstehen.

Quellen
  1. Vgl. Ritchie, Ian: »The day I turned down Tim Berners-Lee«, URL: https://www.ted.com/talks/ian_ritchie_the_day_i_turned_down_tim_berners_lee/, TC: 00:03:34–00:04:14, abgerufen am 20.7.2017.
  2. Vgl. Ebd., TC: 00:00:17–00:00:50.
  3. Vgl. Ebd., TC: 00:00:50–00:01:17.
  4. Vgl. Ebd., TC: 00:01:51–00:02:24.
  5. Vgl. Ebd., TC: 00:02:24–00:02:37.
  6. Vgl. Ebd., TC: 00:02:37–00:03:14.
Abbildungen
  1. Titelbild: Dunkoman: »The Memex«, abgerufen am 21.7.2017, Lizenz: CC BY 2.0.

Neue Zusammenhänge durch verbundene Daten

Ein Jahr nach Tim Berners-Lees TED-Vortrag »The next web« meldet er sich mit »The year open data went worldwide« auf der TED-Bühne zurück. Mitgebracht hat er Ergebnisse, die erneut unterstreichen, wie wichtig es ist, Rohdaten ins Web einzuschleusen.
Neben diversen Beispielen wie eingespeiste Daten der britischen Regierung oder ein Rechtsstreit auf Grundlage von Daten, halte ich einen Erfolg für besonders erwähnenswert.

Ein Jahr nach Tim Berners-Lees TED-Vortrag »The next web« meldet er sich mit »The year open data went worldwide« auf der TED-Bühne zurück. Mitgebracht hat er Ergebnisse, die erneut unterstreichen, wie wichtig es ist, Rohdaten ins Web einzuschleusen.

Neben diversen Beispielen wie eingespeiste Daten der britischen Regierung1 oder ein Rechtsstreit auf Grundlage von Daten,2 halte ich einen Erfolg für besonders erwähnenswert.

Schon im letztjährigen Talk wies Berners-Lee auf die Open Street Map hin, welche durch die Community wächst. Während Europa bereits sehr gut bearbeitet wird, sieht er in manchen Regionen Potenzial für Verbesserungen.3 Er setzt dabei Port-au-Prince auf Haiti in den Fokus, welches Ende 2009 nicht allzu gut bearbeitet war wie beispielsweise Kalifornien. Nach dem Erdbeben veröffentlichte GeoEye Satellitenaufnahmen, die von der Open-Source-Community verwendet werden durften, was dazu führte, dass die Bearbeitung enorm zunahm. Leute aus aller Welt griffen auf die Aufnahmen zurück und bauten sehr schnell eine Karte auf. Das unterstützte die Notstandsarbeit enorm, da z. B. Flüchtlingslager,4 Krankenhäuser oder blockierte Straßen angezeigt wurden. Zudem wurden beschädigte Gebäude und Flüchtlingslager sichtbar.5

Dieses Beispiel zeigt, wie essenziell Daten als Grundlage für die Lösung der Probleme der Menschheit sein können. Berners-Lee erwähnte bereits im Vorjahr die Vorteile in Bezug auf die Bekämpfung von Alzheimer und es gibt unzählige andere Szenarien, in denen Linked Open Data wertvolle Arbeit leisten kann. Das Zusammenführen einzelner Informationen, welche bisher bei sämtlichen Leuten für das Web unsichtbar gelagert werden, kann große Zusammenhänge herstellen. Werden diese bisher unsichtbaren Verbindungen sichtbar gemacht, können viele Missstände oder gemeinsame Probleme sicher schon heute aufgedeckt werden.

Quellen
  1. Vgl. Berners-Lee, Tim: »The year open data went worldwide«, URL: https://www.ted.com/talks/tim_berners_lee_the_year_open_data_went_worldwide, TC: 00:00:51–00:11:18, abgerufen am 16.7.2017.
  2. Vgl. Ebd., TC: 00:01:29–00:02:07.
  3. Vgl. Ebd., TC: 00:03:29–00:04:03.
  4. Vgl. Ebd., TC: 00:04:03–00:04:35.
  5. Vgl. Ebd., TC: 00:04:53–00:05:07.

The next web: Linked Data

Tim Berners-Lee erläutert in seinem TED-Vortrag »The next web« im Februar 2009, was genau unter seinem Konzept »Linked Data« zu verstehen ist und wie wichtig es ist, dass wir alle gemeinsam daran arbeiten, so viel Daten wie möglich im Internet bereitzustellen.

Tim Berners-Lee erläutert in seinem TED-Vortrag »The next web« im Februar 2009, was genau unter seinem Konzept »Linked Data« zu verstehen ist und wie wichtig es ist, dass wir alle gemeinsam daran arbeiten, so viel Daten wie möglich im Internet bereitzustellen.

Zunächst versucht Berners-Lee die Unterscheidung zwischen Dokumenten und Daten klarzumachen, da die bereits vorhandenen Dokumente im Web allgemein sicher auch als Daten verstanden werden.1 Daten müssen aber in einer speziellen, maschinenlesbaren Form aufbereitet werden, damit sie von Computern lesbar sind.

Er sieht ein, dass Daten zunächst langweilig erscheinen, weist aber darauf hin, dass sie enorm interessant werden, wenn man beginnt sie zu kombinieren.2 Er fordert das Publikum auf, sich vorzustellen, wie eine Welt aussehen könnte, in der alles, was man sich vorstellen kann in Form von Daten ins Web gespeist und verknüpft wird. Das ist das, was er linked data bzw. verknüpfte Daten nennt. Für die Erstellung von Daten nennt er drei wichtige Regeln. Nicht nur Dokumente, sondern alle Dinge, um die es in Dokumenten geht werden mit HTTP: beginnen und somit eindeutig benennbar sein.3 Die zweite Regel ist, dass man bei der Abfrage dieses HTTP:-Dokuments zusätzliche Daten erhält, die für die Anfrage relevant sind.4 Dass es allein um die Beziehung zwischen den Daten geht, sieht er als dritte Regel. So kann man die Daten effektiv Weise durchsuchen.5

Die Macht der Daten

Berners-Lee hebt mehrmals hervor, dass die Daten umso mächtiger werden, je mehr davon existieren und miteinander verbunden werden.6 Daher ist es für ihn so wichtig, dass es das Web ermöglicht, dass alle Arten von Daten eingespeist werden können: Ob Regierungsdaten, Unternehmensdaten, wissenschaftliche und persönliche Daten, Wetterdaten oder ganz andere Daten. Für ihn sind alles wichtige Daten.7

Um die Macht der Daten weiter zu unterstreichen, verdeutlicht er, wie wichtig sie für die Lösung der Herausforderungen der Menschheit sind. Wissenschaftler, die sich den Problemen stellen, können ohne Daten nicht ausreichend über das Web kommunizieren. Zudem wird laut Berners-Lee ein großer Teil des menschlichen Wissens in irgendwelchen Datenbanken verborgen, oft sogar auf Computern gelagert und nicht geteilt.8 Als anschauliches Beispiel nennt er die Forschung nach neuen Medikamenten gegen Alzheimer. Die Frage, welche Neuronen bei der Signalübertragung beteiligt und außerdem verwandt mit pyramidenförmigen Neuronen sind, liefert bei Google 223.00 Treffer mit null brauchbaren Ergebnissen, da keiner diese Frage je gestellt hat. In einer Datenbank mit verknüpften Daten lassen sich 32 Treffer, die alle auf die Ausgangsfrage zutreffen, finden. Auch die Querverbindung zwischen verschiedenen Wissenschaften sieht er als enorme Wende.9 Als weiteres Beispiel nennt er OpenStreetMap, das es jedem erlaubt, die Erde zu vermessen, einzutragen und Orte einzuspeisen. So kann jeder seinen Teil zu einem großen Ganzen beitragen.10

Der Begründer des Webs macht klar, dass Linked Data nicht nur große Institutionen angeht, sondern jeden einzelnen betreffen. Zudem fordert er beispielsweise Interoperabilität zwischen sozialen Netzwerken, um die Mauern zwischen ihnen abzubauen. Das müsse mit verknüpften Daten geschehen.11 Spätestens hier sehe ich viele zweifelnde Gesichter, mich selbst zum Teil mit eingeschlossen. Trotz der überzeugenden Beispiele und dem großen Wert, den ich in Linked Data erkennen kann, sehe ich vor allem die fehlende Privatsphäre durch Öffnung des Systems.

Alles in allem sehe ich jedoch überwiegend die Vorteile darin, einen großen allumfassenden Informationsraum zu schaffen, der nicht durch Silos voneinander abgegrenzt wird. Diesen Raum mithilfe von Daten zum semantischen Web aufzuwerten (Struktureller Aufbau des Webs und die Koexistenz von Mensch und Maschine ») halte ich zudem für einen enormen Fortschritt in der menschlichen Entwicklung, der die Masse an Informationen und Wissen in eine nutzbare Form bringen kann.

Quellen
  1. Vgl. Berners-Lee, Tim: »The next web«, URL: https://www.ted.com/talks/tim_berners_lee_on_the_next_web/, TC: 00:03:53–00:04:15, abgerufen am 17.8.2017.
  2. Vgl. Ebd., TC: 00:04:50–00:05:44.
  3. Vgl. Ebd., TC: 00:05:44–00:06:26.
  4. Vgl. Ebd., TC: 00:06:26–00:06:51.
  5. Vgl. Ebd., TC: 00:06:51–00:07:31.
  6. Vgl. Ebd., TC: 00:07:31–00:08:10.
  7. Vgl. Ebd., TC: 00:09:04–00:09:41.
  8. Vgl. Ebd., TC: 00:11:20–00:11:57.
  9. Vgl. Ebd., TC: 00:11:57–00:13:10.
  10. Vgl. Ebd., TC: 00:14:04–00:15:10.
  11. Vgl. Ebd., TC: 00:13:10–00:14:04.

Tim Berners-Lee über das World Wide Web

Im Gespräch mit Barbara Bleisch spricht Tim Berners-Lee in Sternstunde Philosophie über seine Erfindung, das World Wide Web. Dabei kommen Themen wie beispielsweise Linked Open Data, die World Wide Web Foundation, die Zusammenarbeit von Mensch und Maschine oder künstliche Intelligenz zur Sprache.

Im Gespräch mit Barbara Bleisch spricht Tim Berners-Lee in Sternstunde Philosophie über seine Erfindung, das World Wide Web. Dabei kommen Themen wie beispielsweise Linked Open Data, die World Wide Web Foundation, die Zusammenarbeit von Mensch und Maschine oder künstliche Intelligenz zur Sprache.

Eine gewaltige kulturelle Veränderung sieht der Begründer darin, dass Gruppen und Kulturen im World Wide Web von der Leidenschaft der Menschen bestimmt werden.1 Um diese durchbrochenen Barrieren vollständig zu nutzen, müssen wir laut ihm lernen, die neu gewonnene Freiheit zu nutzen. Er bewirbt dabei sein Konzept von Linked Open Data, indem er auf die Zusammenarbeit von Wissenschaftlern hinweist, die sich großen Herausforderungen wie die Bekämpfung von Krebs oder Alzheimer annehmen. Er sieht das Web als vernetzte Menschheit und wenn man in das Netz schaut, sieht man die Menschheit von ihrer guten sowie von ihrer schlechten Seite.2 Zudem ist er überzeugt davon, dass die Leute heutzutage »nicht mehr nur zum Spaß surfen, sondern es benutzen. Sie wissen, dass es riesig ist und kennen die Orte, die sie im Web mögen«3.

Die Erschließung des Planeten

Die Gründung der World Wide Web Foundation im Jahr 2008 basiert auf dem Wunsch, dass das Internet der Menschheit besser dienen soll. Ein wichtiges Ziel war die Verbreitung voranzubringen, da bei Aufnahme ihrer Arbeit erst 10, 15 % der Menschen Zugang zum Web hatten. Zur Zeit des Gesprächs (2015) waren immerhin schon 40 % versorgt,4 was ich noch immer als überraschend wenig empfinde. Er vermutet, dass in den kommenden 1–2 Jahre die 50 %-Marke überstiegen wird5 und durch eine kurze Recherche glaube ich, dass die Marke zurzeit geknackt werden dürfte.

Die Tatsache, dass nur etwa die Hälfte der Menschheit das World Wide Web nutzen kann, wirft bei mir unterschiedliche Gedanken auf. Zum einen wird es in seiner inhaltlichen Masse noch einmal enorm wachsen. Zudem bin ich gespannt, welche kulturelle Veränderungen vollzogen werden, wenn neben der entwickelten Welt andere Stimmen hörbar werden. Des Weiteren wird die Vernetzung mit der restlichen Welt sicherlich sehr viele neue Möglichkeiten eröffnen und einen enormen Fortschritt bedeuten.

Von der Künstlichen Intelligenz überholt

Tim Berners-Lee war schon immer darauf aus, Maschinen in sein System einzubinden. Er ist sich sicher, dass es sehr aufregend wird, wenn es ein gutes Datennetz gibt, welches Unmengen an Maschinen dazu bringen kann miteinander zu sprechen. Sie können dazulernen und verstehen wie die Welt funktioniert. Er ist überzeugt davon, dass wir ein Netz errichten müssen, in dem sich Mensch und Maschine die Aufgaben je nach Kompetenz teilen. Maschinen werden den schweren und die Menschen z. B. den kreativen Part übernehmen.6

Weiter sollten wir darauf gefasst sein, dass die künstliche Intelligenz so schlau wird wie wir Menschen. Früher konnte man sich nicht vorstellen, dass Computer Autos fahren oder Schach spielen. Beides ist nun der Fall und ähnlich ungläubig sind wir heutzutage, was die zukünftige Entwicklung der KI betrifft. Daher fordert er dazu auf, sich schon jetzt Gedanken zu machen, für den Zeitpunkt, wenn dieser Fall eintritt.7 Luciano Floridi sieht in dieser Turing-Revolution die 4. Revolution nach Kopernikus, Darwin und Freud. Er siedelt diese jedoch schon bei Turing an, da der Computer den Menschen schon längst z. B. in der logischen Informationsverarbeitung übersteigt.

Vorangegangene Entwicklungen

Als spannende vorherige Erfindungen nennt der Erfinder des Webs die Bulletin Boards, in die man sich mithilfe des Telefonhörers und einem Modem einwählen konnte. Außerdem erwähnt er Doug Engelbert und Vannevar Bush. Engelbert hatte das Internet nie namentlich erwähnt, sei aber durch die Idee Hypertext zu verwenden, Nachrichten zu versenden und Dinge zu verlinken, konzeptionell sehr nah dran. Bushs Idee der Memex erläutert Berners-Lee sehr praktisch. Memex wäre ein Tisch gewesen, an dem man Mikrofilme hätte lesen können. Am Ende wäre eine Verlinkung zum nächsten und durch einen Knopfdruck wäre ein ganzes mechanisches System in Bewegung gekommen und die Memex hätte einen vom einen zum nächsten Mikrofilm gebracht. Zudem hatte er die Idee Wissenschaftlern Zugang zum Human Record zu erleichtern. Das sind die Aufzeichnungen alldessen, was wir entdeckt haben. Zwar war seine Vision ohne tatsächliche Verwendung von elektronischen Computern, Berners-Lee ist sich aber sicher, dass er sich für die Forschung interessiert hätte.8

Utopische Räume

Einen sehr interessanten Ansatz lässt sich gegen Ende des Gesprächs finden. Auf die Frage, ob er seine Erfindung im Zusammenhang mit Problemen wie Datenschutz, Klimawandel, etc. sieht, hat er einen aus meiner Sicht sehr speziellen und guten Ansatz.
Er ist nicht der Meinung, dass das etwas mit utopischen Räumen zu tun hat. Solche Themen werden in einem wissenschaftlichen Umfeld diskutiert und in diesem Zusammenhang ist es wichtig, unsinnige Ideen von den guten zu trennen, um keine Zeit zu verlieren. Umso wichtiger ist es, dass Stimmen nach oben durchdringen, wenn tatsächlich ein Problem entdeckt wird. Er ist der Meinung, dass wir Systeme entwickeln, die nach Regeln funktionieren und keine utopischen Räume sind. Er ist sich sicher, dass man mit Hilfe von Auswahlsystemen diejenigen Menschen finden kann, welchen wir die richtigen Entscheidungen zutrauen und deren Stimmen wir vertrauen.9

Diese Überlegung finde ich insofern spannend, dass ich überzeugt davon bin, dass sich kompetentere Menschen finden lassen als diejenigen, die tatsächlich die Gesetze verabschieden. Nicht weil diese generell inkompetent sind, sondern weil sie sicher andere Schwerpunkte haben. John Perry Barlow bringt es so auf den Punkt, dass Menschen innerhalb der Regierung unter anderen Umständen geformt worden sind als die Leute, die die meiste Zeit virtuell verbringen. Wie soll jemand, der sich sonst für völlig andere Dinge einsetzt plötzlich entscheiden, ob irgendwelche Algorithmen so verwendet werden können, wie sie sind? Wie soll man ihnen Entscheidungen über das Land überlassen, wenn man vor der Entscheidung erst einmal die Technologie erklären muss? Hier wäre ein Zusammenschluss von wirklichen Experten, die sich tagtäglich unabhängig davon im World Wide Web bewegen, sehr sinnvoll.

Das und viele weitere Fragen tauchen regelmäßig auf, wenn ich mich mit der Arbeit und den Visionen von Tim Berners-Lee auseinandersetze. Erneut war dieses Gespräch sehr inspirierend, da es zum einen neue Gedankengänge öffnet und bei anderen Gedanken für Klarheit sorgt.

Quellen
  1. Vgl. Berners-Lee, Tim, Das Weltrettungsforum, dem nichts heilig ist.: »Tim Berners Lee – Der Erfinder des Internets (Sternstunde Philosophie)«, Stand: 30.8.2015, URL: https://www.youtube.com/watch?v=1uErJzcr3fU, TC: 00:15:41–00:16:21, abgerufen am 8.7.2017.
  2. Vgl. Ebd., TC: 00:16:56–00:18:22.
  3. Ebd., TC: 00:40:57–00:41:08.
  4. Vgl. Ebd., TC: 00:20:47–00:21:38.
  5. Vgl. Ebd.
  6. Vgl. Ebd., TC: 00:31:22–00:32:55.
  7. Vgl. Ebd., TC: 00:52:06–00:53:18.
  8. Vgl. Ebd., TC: 00:43:37–00:45:28.
  9. Vgl. Ebd., TC: 00:48:30–00:49:35.

»Moments of Happiness« – Einige Erkenntnisse

»Moments of Happiness« ist ein Nebenprojekt der »EPIC Agency«. Dabei werden sechs kleine Situationen gezaubert, die dem Nutzer Spaß machen und Momente des Glücks hervorbringen. Das Projekt führt mich zusätzlich zu weiteren Erkentnissen bezüglich der Weiterentwicklung des Mediums.

»Moments of Happiness« ist ein Nebenprojekt der »EPIC Agency«. Dabei werden sechs kleine Situationen gezaubert, die dem Nutzer Spaß machen und Momente des Glücks hervorbringen. Man könnte es zum Teil »Mini-Spielchen« nennen, da beispielsweise gefordert wird so schnell wie möglich zu klicken oder mit einer Katze mittels eines Wollballs zu spielen.

Ich nehme das Projekt mit in meiner Dokumentation auf, da es mich inspiriert mit Technologie und Grafik zu experimentieren. Zudem finde ich es wichtig zu sehen, dass inhaltliche Einfachheit – zumindest an mancher Stelle – auch hilfreich sein kann, um sich nicht zu sehr zu verstricken.

Die Umsetzung ist grafisch ansprechend und mir fällt zunehmend auf, wie sehr sich der – wenn man es so nennen mag – Webtrend mit großen Farbflächen und kleinen grafischen Elementen zu arbeiten durchsetzt. Minimalistische Gestaltung ist generell natürlich nichts Neues, aber immer häufiger treffe ich auf Projekte, wie z. B. auch »In Pieces«, die sich einem überschaubaren Thema widmen und es grafisch und technisch hervorragend umsetzen.

Moments of Happiness | EPIC Agency
05 – Click to jump, avoid the hedgehogs, grap the carrots.II

Die Weiterentwicklung des Webs

Neben der Tatsache, dass die Gestaltungsqualität im World Wide Web generell zunimmt, vermute ich zum einen, dass die immer einfachere Zugänglichkeit des Mediums ein Grund dafür sein könnte. Zum anderen denke ich, dass sich das allgemeine Verständnis des Mediums stark ändert. Während sich in den Anfängen des World Wide Web die analoge Denkweise sehr in der Gestaltung niedergeschlagen hat, versteht man es zunehmend, wie man den Gestaltungsraum mediumspezifisch nutzen kann. Zudem spekuliere ich, dass der künstlerisch freie Raum nach der Kommerzialisierung des Webs stark in den Hintergrund gedrängt wurde und sich nun wieder Platz schafft. Ähnlich wie es im Analogen gleichermaßen Platz für Imagebroschüren von Unternehmen und Bildbände von Illustratoren gibt, bietet auch der virtuelle Raum unbegrenzte Möglichkeiten für das parallele Bestehen. Meine letzte Vermutung ist die, dass sich Technik und Grafik immer mehr annähern. Auf Entwicklerseite entsteht ein Verständnis für die grafische Arbeit, sowie sich auf der Gestaltungsseite zunehmend ein Verständnis und Interesse für Technologie entwickelt.

Abbildungen
  1. Titelbild: Eigener Screenshot; EPIC Agency, »Moments of Happines«, URL: https://moments.epic.net/, abgerufen am 2.7.2017.
  2. Ebd.

Die Schaffung veränderbarer Räume im Web

Im Anschluss an meinen Text »Von der No-Layout-Ära zur wiedergewonnenen Fluidität des Webs« möchte ich mich kurz und knapp mit einem Artikel von Ethan Marcotte aus dem Jahr 2010 beschäftigen. Marcotte, Begründer des Terminus »Responsive Web Design«, beschreibt darin seinen Ansatz, Webseiten unabhängiger von ausgewählten Endgeräten zu entwickeln.

Im Anschluss an meinen Text »Von der No-Layout-Ära zur wiedergewonnenen Fluidität des Webs« möchte ich mich kurz und knapp mit einem Artikel von Ethan Marcotte aus dem Jahr 2010 beschäftigen. Marcotte, Begründer des Terminus »Responsive Web Design«, beschreibt darin seinen Ansatz, Webseiten unabhängiger von ausgewählten Endgeräten zu entwickeln. Er verfolgt dabei den Vorschlag mit Media Queries zu arbeiten, auf welche ich an dieser Stelle nicht weiter eingehen möchte. Sie sind zwischenzeitlich zum Standard-Werkzeug responsiver Gestaltung geworden.

Viel reizvoller finde ich seine Verknüpfung zwischen »responsive architecture« und der Gestaltung im Web. Dabei geht es grundsätzlich um die Frage, »wie physische Räume auf die Anwesenheit von Passanten reagieren können«1. Mit Bezug auf das Buch Interactive Architecture von Michael Fox und Miles Kemp, kristallisiert er den feinen Unterschied heraus: Es geht nicht darum unveränderliche Räume zu schaffen, sondern darum, dass sich die Nutzer und die Struktur gegenseitig beeinflussen können.2 Das ist vor allen Dingen wichtig, da das Web ein vergängliches Medium ist. Innerhalb weniger Jahre ändern sich Fensterbreiten, Bildschirmauflösungen, Benutzereinstellungen oder installierte Schriftarten.3 Viel mehr spricht er sich dagegen aus, das Design auf immer mehr unterschiedliche Endgeräte zuschneiden zu wollen. Er ist überzeugt davon, dass wir als Webdesigner »ein optimales Seherlebnis entwerfen und standardbasierte Technologien in unser Design einbetten können, um sie nicht nur flexibler zu machen, sondern auch an die Medien anzupassen, die sie rendern«4. Nur so kann man effektiv mit der Tatsache arbeiten, dass sich die Landschaft an angebotener Betrachtungsmöglichkeiten enorm schnell ändert.5

Wichtig ist Marcotte dabei nicht nur das visuelle Ergebnis, sondern auch die Möglichkeit die Benutzerfreundlichkeit verbessern zu können. So kann beispielsweise Fitts’ Gesetz über Touch-Geräte besser umgesetzt werden.6

Die drei technischen Zutaten für RWD

Als primäre Zutaten zur Umsetzung von responsiven Webdesigns sieht Marcotte flüssige Raster, flexible Bilder und Medienabfragen. Zudem ist eine andere Denkweise in Bezug auf das Medium erforderlich,7 das sich letztendlich sehr stark vom Printdesign unterscheidet und somit sehr viele neue Herausforderungen an den Gestalter herangetragen hat.

Abschließend ist der Ansatz der Media Queries aus heutiger Sicht eine Selbstverständlichkeit. Im Jahr 2010 war die Einführung des »Responsive Web Design« jedoch eine massive Neuerung. Schon zuvor gab es z. B. verschiedene Bildschirmgrößen oder -auflösungen und schon durch das iPhone, das 2007 auf den Markt kam, ist das Bedürfnis gewachsen, flexibler reagieren zu können. Langfristig macht es bei der Masse an Geräten aber natürlich keinen Sinn für jedes separate Versionen zu gestalten. In der Übergangszeit und auch bis heute, sieht man zudem Webseiten, welche komplett abgekoppelt für mobile Endgeräte entwickelt sind und sogar mit einer eigenen Subdomain angesprochen werden. In manchen Fällen macht das sicher nach wie vor Sinn, doch insgesamt sollte im Vordergrund stehen, sich anpassende Seiten zu gestalten, die auch die nächsten Endgeräte überstehen.
In Bezug auf mein Thema finde ich es außerdem sehr spannend, wie sich erneut Technologie, Design und das Bedürfnis der Menschen gegenseitig beeinflussen und Schritt für Schritt in ihrer Evolution voranbringen.

Quellen
  1. Marcotte, Ethan: »Responsive Web Design«, Stand: 25.5.2010, URL: https://alistapart.com/article/responsive-web-design, Absatz 8, abgerufen am 26.6.2017.
  2. Vgl. Ebd., Absatz 9.
  3. Vgl. Ebd., Absatz 2.
  4. Ebd., Absatz 10.
  5. Vgl. Ebd., Absatz 3.
  6. Vgl. Ebd., Absatz 27.
  7. Vgl. Ebd., Absatz 31.

CSS Grid: Der Weg zu einer neuen, visuellen Ästhetik

Eines meiner persönlichen Ziele während des Masters ist, mich in den Bereichen HTML und CSS, bestenfalls auch in JS, weiterzuentwickeln. Zurzeit widme ich der noch etwas neueren Spezifikation CSS Grid. Im März habe ich bereits am Meetup »Grids and Glory« von Sven Wolfermann in den Räumen von sipgate in Düsseldorf teilgenommen. Als weitere Grundlage dient mir das Tutorial »CSS Grid First Look« von Morten Rand-Hendriksen aud lynda.com. Generell bin ich gespannt, wie sich die visuelle Ästhetik des Webs in den nächsten Jahren durch diese neue Spezifikation evolviert.

Eines meiner persönlichen Ziele während des Masters ist, mich in den Bereichen HTML und CSS, bestenfalls auch in JS, weiterzuentwickeln. Zurzeit widme ich mich der noch etwas neueren Spezifikation CSS Grid. Im März habe ich bereits am Meetup »Grids and Glory« von Sven Wolfermann in den Räumen von sipgate in Düsseldorf teilgenommen. Als weitere Grundlage dient mir das Tutorial »CSS Grid First Look« von Morten Rand-Hendriksen auf lynda.com.

Nach der ersten Einarbeitung bin ich begeistert von den Möglichkeiten, die CSS Grid mit sich bringt. Zunächst muss man sich an die neue Terminologie gewöhnen, die das CSS Grid mit ins Spiel bringt. So gibt es neben »grid cells«, eine einzelne Zelle eingeschlossen von vier »grid lines«, sogenannte »grid tracks«, die den Bereich zwischen zwei horizontalen oder vertikalen Linien darstellt. Zusätzlich gibt es »grid areas«, die im Grunde aus mehreren zusammenhängenden Zellen bestehen. Es gibt noch weitere Begriffe, die zum Teil aber schon aus bisherigen Rastern bekannt sind.

Benennung von template areas oder grid lines

Neben einer neuen Terminologie gibt es natürlich neue Selektoren. Doch die Beschreibung der Eigenschaften ist das Wesentliche, was für mich wirklich neu ist. So können beispielsweise template areas oder grid lines, in denen die grid cells eingeschlossen sind, benannt werden. Das führt zum einen dazu, dass mithilfe »unserer Sprache« der Code und die einzelnen Bereiche übersichtlicher dargestellt werden. Zum anderen halte ich es jedoch für sehr wichtig, die Freiheit nicht zu sehr auszukosten. Die Benennung sollte eindeutig sein, so dass auch nachfolgende Entwickler die einzelnen Bereiche eindeutig erkennen können und keine Unklarheiten auftauchen. Da aber zum einen schon immer Klassen bzw. IDs selbst benannt werden konnten und zum anderen bereits standardisierte Begriffe für Webseitenbereiche vorhanden sind, sehe ich das nicht als wirkliches Problem.

Zusätzlich zu der Benennung ist die Einführung der repeat()-Funktion eine fundamentale Änderung. Muster können so durch Wiederholungen erstellt werden.

Die neue Einheit fraction

Die Einführung der Einheit »fraction« (fr) ist eine weitere wichtige Neuerung durch CSS Grid. Neben dem Vorteil, dass die ein oder andere Rechenarbeit entfällt, halte ich es vor allem für spätere Anpassungen für enorm wichtig. Soweit mein erster Eindruck stimmt, kann das Grid dadurch sehr schnell nachträglich geändert und z. B. mit zusätzlichen Spalten erweitert werden. Wenn zunächst nur mit der Einheit fr gearbeitet wird, genügt es weitere frs hinzufügen oder die Spaltenzahl durch weniger frs zu reduzieren. Insofern nicht einzelne Spalten pixelgenau oder in Prozenten angegeben sind, entfällt hier jegliche Rechnerei.
Wenn es für das Layout infrage kommt, kann fr selbst mit Angabe von genauen Maßen genutzt werden, da die Einheit grundsätzlich den übrigen Platz in Anspruch nimmt.

Veränderung der semantischen Ordnung durch CSS

Die wohl mächtigste Veränderung ist die Möglichkeit, die semantische Ordnung einfacher durch CSS verändern zu können. Elemente können zielgenau im Grid positioniert und mobile Seiten intuitiver gestaltet werden. Zudem zeigt Morten Rand-Hendriksen ein Beispiel, indem die semantische Ordnung von wichtig nach unwichtig sortiert ist. Ein Promo-Inhalt wird am Ende des HTML-Dokuments platziert, da er für den Inhalt irrelevant ist. Visuell wird er jedoch an den Anfang der Website gesetzt, um die Anzeige prominent zu bewerben.

Ästhetische Evolution durch neue Spezifikationen

Insgesamt ist es erstaunlich wie flexibel CSS Grid funktioniert und ich halte die Spezifikation für eine der größten Neuerungen der letzten Jahre. Mit der Unterstützung von Codecademy, w3schools und CodePen versuche ich noch spezifische Fragen für mich zu beantworten, jedoch bin ich mir sicher, dass man mit einiger Einarbeitung, sehr viel schneller äußerst flexible Grids erstellen kann. Aus visueller Sicht erhoffe ich mir zunehmend flexiblere Layouts, weg von dem Einheitsbrei der letzten Jahre. Selbst mit Frameworks wie Bootstrap kann man natürlich abweichende Layouts entwickeln, doch landet man viel zu oft an der einheitlichen Aufteilung von 2 bis 4 Spalten in der Desktopansicht, sowie der 12-Spaltigkeit bei mobilen Ansichten. Zwar macht diese Einteilung in vielen Fällen Sinn, jedoch bin ich davon überzeugt, dass sich das visuelle Bild des Webs in den nächsten Jahren deutlich ändern wird. Abschließend bin ich zum einen gespannt, in welche Richtung sich sowohl die Spezifikation des CSS Grids als auch das generelle visuelle Erscheinungsbild in den nächsten Jahren evolviert. Zudem bin ich sehr motiviert durch Tutorials, Lernportalen und ähnlichem weiter in die Materie einzutauchen.

Beispielhaftes Layout mit CSS Grid
Beispielhaftes Layout mit CSS Grid

Von der No-Layout-Ära zur wiedergewonnnen Fluidität des Webs

Vor kurzem bin ich auf den Dokumentarfilm »What Comes Next Is the Future« von Matt Griffin gestoßen. Der Film setzt sich mit der Geschichte des Webs auseinander und wird von den Menschen, die bedeutende Figuren des Webs sind, erzählt. Darunter unter anderem Tim Berners-Lee, Eric Meyer, Ethan Marcotte, Brandon Eich oder John Resig. Mit den aus Interviews gewonnen Antworten, schustert Griffin einen Film, der kapitelweise auf unterschiedliche Themen eingeht.

Auf lynda.com findet man größtenteils Tutorials aus Bereichen wie z. B. Design, Entwicklung, Fotografie oder Web. Vor kurzem bin ich auf den Dokumentarfilm »What Comes Next Is the Future« von Matt Griffin gestoßen. Der Film setzt sich mit der Geschichte des Webs auseinander und wird von den Menschen, die bedeutende Figuren des Webs sind, erzählt. Darunter unter anderem Tim Berners-Lee, Eric Meyer, Ethan Marcotte, Brandon Eich oder John Resig. Mit den aus Interviews gewonnen Antworten, schustert Griffin einen Film, der kapitelweise auf unterschiedliche Themen eingeht.

Bei meiner Recherche stoße ich auf unzählige Timelines über die Entstehung des Webs, auf originale Dokumente oder kleine Zusammenfassungen. Zudem gibt es natürlich tausende Treffer inhaltlicher Natur, die sich auf Teile des technologischen oder visuellen Aspekts konzentrieren. Insgesamt stellt mich meine Suche jedoch noch nicht zufrieden, da es nur wenige ansprechende Auseinandersetzungen mit dem Web als Medium selbst gibt. Das macht den Film von Griffin so interessant für mich. Zum einen, weil die Entwicklung von Menschen erzählt wird, die sie miterlebt und beeinflusst haben. Zum anderen werden zum Teil genau die Aspekte angesprochen, für die ich mich interessiere.

Ein wichtiger Gesichtspunkt, der das Web fundamental ausmacht, wird dabei direkt zu Beginn angesprochen. Das Web wurde letztendlich als offener Informationsraum konzipiert, in dem es für Jeden möglich sein soll, etwas zu publizieren. Das ist für Dave Rupert, Co-Gründer von Paravel, die schönste Sache am Web: Man kann jederzeit Dinge veröffentlichen, die man selbst nützlich findet und Andere können daraus wiederum neues kreieren.1 Brad Frost, welcher Atomic Design entwickelt hatte, liebt den freien Fluss der Ideen, Informationen und Gedanken und betont, dass das vor dem Web unmöglich war.2 Dieser unaufhaltsame, geistige Fluss war auch für John Perry Barlow (Cyberspace als neue Heimat des Geistes ») eine essenzielle Eigenschaft des Webs. Ähnlich wie Barlow sieht Lyza Danger Gardner, Co-Autorin von »Head First Mobile Web«, eine offene Welt. Sie spricht davon, dass das Web keine Wände besitzt und die Kosten, um daran teilzuhaben, eher gering sind.3 Jeffrey Feldmann, unter anderem Autor von »Designing Web Standards«, sieht dagegen die technischen Hürden weiter sinken. Jeder kann zumindest Twitter und Facebook nutzen und hat so die Möglichkeit sich frei zu äußern. Zudem reicht es bei mehr Interesse für einen Tumblr-Blog oder sogar eine WordPress-Seite. Er findet die Tatsache, dass man responsive Webseiten machen kann, ohne überhaupt zu wissen, was die Wörter bedeuten, sehr bemerkenswert und gut.4 Diesen Aspekt finde ich extrem wichtig, da dadurch garantiert wird, dass jeder an dieser Welt teilnehmen kann. Bei solchen Aussagen muss natürlich immer von den vielen Menschen abgesehen werden, welche noch keinen Internetzugang besitzen oder in Ländern leben, wo viele Inhalte gesperrt sind. Die Erschließung des ganzen Planeten wird sicher einer Hauptaufgabe der nächsten Jahre sein.

Chris Wilson, welcher unter anderem an der Entwicklung des ersten Massen-Browsers Mosaic beteiligt war, erinnert sich dagegen noch gut an die Erschließung des Webs in der westlichen Welt. Er spricht davon, dass »wir keine normalen Menschen waren, welche das Web nutzten«5. Zwar gab es das Internet schon vor dem Web, doch es war sehr schwierig, an Informationen zu kommen. Daher bestätigt er Tim Berners-Lee in seiner Idee, dass es wirklich einfach sein muss, Zugang zu erhalten.6 Berners-Lee sieht den Schlüssel zum Web darin, dass es ein virtuelles System geben muss, dass über allen bereits vorhandenen Systemen liegt. Dieses große Hypertext-Buch wird via Internet zugänglich.7

No-Layout-Ära

Zu Beginn des Webs waren die Inhalte eher strukturierte Informationen, als wirklich gestaltete Seiten. Jen Simmons nannte das die No-Layout-Ära und die Darstellung der Inhalte war je nach Browser unterschiedlich.8 Eric Meyer erzählt, dass sich »Seiten gestalten« eher wie ein Witz anhörte.9 Der Designer David Siegel war es schließlich, welcher mit seinem Buch »Creating Killer Web Sites« einen Weg fand, Webseiten mit Tabellen zu gestalten.10 Dass das Buch, das 1996 erschien, im selben Jahr das meistverkaufte Buch bei Amazon war11 spricht Bände. Daran lässt sich erkennen, dass der Wunsch nach Gestaltungsmöglichkeiten riesig war. Ein erster Vorschlag für Cascading Style Sheets (CSS) wurde zwar schon 1993 gemacht, doch erst im Dezember 1996 wurde das CSS Level 1 veröffentlicht.12 Im ersten Moment funktionierten die Tabellen als erstes Grid, doch wie John Allsopp erklärt, gab es das Gefühl, dass es einen besseren Weg geben muss solche Anforderungen zu erfüllen.13 Christopher Schmitt sieht in der Nutzung von CSS eine Goldrausch-Ära. Jeder arbeitete daran durch CSS-Floats bessere Layouts erstellen zu können, so dass man die Gestaltung durch Tabellen endlich hinter sich lassen kann.14 Nichtsdestotrotz waren die Tabellen ein wichtiger Schritt auf dem Weg zur besseren Umsetzung. Eric Meyer sieht viele Dinge im CSS, welche darauf basieren, was Entwickler mit Tabellen-Layouts erstellt hatten.15

Flash als Prototype für CSS und JavaScript-Libraries

Viele Standards im Web basieren auf einer ähnlichen Herangehensweise, wie es mit der Übertragung von Tabellen auf CSS geschehen ist. Bedürfnisse werden experimentell mit vorhandenen Mitteln »irgendwie passend gemacht« bis aus ihnen langfristig neue Standards heranwachsen. Weitestgehend könnte man dabei von Prototypen sprechen, welche später in verbesserte, weniger komplexe Standards übertragen werden. Eine Aussage von Kelly Goto hat mich in Bezug auf Adobe Flash überrascht, selbst wenn sie absolut einleuchtend ist. Aus ihrer Sicht war die Arbeit mit Flash ein stückweit wie Prototyping. Flash gab vielen die Möglichkeit visuell für das Web zu denken. Als Werkzeug hat Flash den Prozess ermöglicht, dass kreative Personen Ideen ausdrücken konnten.16 Laut Aaron Gustafson gab Flash zudem die Möglichkeit mehr Kontrolle über die Gestaltung zu erhalten als mit CSS. Elemente konnten animiert und vereinnahmende Nutzererlebnisse geschaffen werden.17 Val Head sieht Flash auch als gute Chance herauszufinden, was das Web benötigt. Bei der Entwicklung einer neuen JavaScript-Library startete man somit zumindest nicht bei null.18
Eric Meyer sieht dagegen in Flash das komplette Gegenteil zum grundsätzlichen Aufbau des Webs. Der Ursprungsgedanke des Webs ist, dass die weite Verbreitung über der Konsistenz steht. Flash zu nutzen bedeutet jedoch, dass man alles oder nichts haben kann: Entweder man installiert Flash und hat ein konsistentes Nutzererlebnis oder man sieht im Gegenzug nichts.19

Letztendlich wurde die Ära Flash mit dem Erscheinen des iPhones 2007 eingeläutet. Das iPhone unterstützte kein Flash und Apple war überzeugt davon, dass alle Aufgaben mit HTML5 zu lösen sind. Das war ein entscheidender Einschnitt, da die Darstellung von Inhalten nun komplett zurück in die Hände der Browser bzw. des Codes gelegt wurde. Dieser Schritt vorwärts war gleichzeitig ein positiver Schritt rückwärts Richtung Web, das offen und zugänglich sein sollte.

Die Fluidität des Webs annehmen

Während das World Wide Web ursprünglich visuell sehr überschaubar war, wurde die Gestaltung zunehmend komplexer. Der Wunsch von Gestaltern mehr und mehr Einfluss auf die tatsächliche Darstellung zu nehmen wuchs und wirkte sich auch auf die Umsetzung aus. Tabellen und Frames wurden als Layout-Elemente verwendet, die Layouts selbst wurden immer statischer.

Ein entscheidender Beitrag von CSS ist der, dass Inhalt und Gestaltung getrennt werden. Dadurch kann der Fokus beim HTML-Dokument ausschließlich auf die inhaltliche Struktur gelegt werden. Mit CSS Zen Garden entstand im Mai 2003 ein Projekt, das das Ziel hatte zu zeigen, was alles einzig mit CSS möglich war. Das HTML-Dokument blieb dabei immer gleich und zugehöriges CSS konnte eingeschickt werden. Lyza Danger Gardner spricht von einem Art ersten universellen Gefühl dafür, was diese Trennung tatsächlich bedeuten kann.20 Kelly Goto bezeichnet das sogar als großen Moment, der alles im Web änderte und das Kreativitätslevel auf eine völlig neue Ebene anhob.21

Obwohl Tantek Çelik erklärt, dass CSS vorwärts-kompatibel für verschiedene Bildschirmgrößen angelegt war und Seiten somit auf verschiedenen Bildschirmen funktionierten,22 wurde diese Kompatibilität aus meiner Sicht durch fix angelegte Layouts zerstört. Nichts sollte dem Zufall überlassen werden und alles perfekt aussehen.
Mit dem Erscheinen des iPhones wurde das Web aus Kevin M. Hoffmans Sicht stark vermenschlicht. Es war immer dabei und man hatte nicht mehr das Gefühl online gehen zu müssen. Diesen Punkt empfand Tim Berners-Lee schon zu Beginn als sehr störend (Struktureller Aufbau des Webs und die Koexistenz von Mensch und Maschine »). Gleichzeitig wuchs das Bedürfnis nach mobiler Gestaltung deutlich und krempelte alles um. Während Jonathan Snook noch davon spricht, dass es ok war, dass man sich nur um zwei Auflösungen (1024 x 768 px und 320 x 240 px) kümmern musste,23 empfand es John Allsopp langfristig als eher unüberschaubare Aufgabe. Er fragt sich, wie weit es gehen soll und wann wir damit aufhören für jedes Endgerät einzelne Versionen zu entwickeln.24
Einen fundamentalen Fortschritt erreicht Ethan Marcotte, der 2010 den Begriff Responsive Design prägte. Ihm war die Wichtigkeit von flexiblen oder fluiden Layouts bewusst. Zudem musste der mediale Inhalt innerhalb dieser Layouts funktionieren. Mit den Mediaqueries aus CSS3 erreicht er, dass alles in allem responsiv funktioniert und ebnet damit den Weg für eine neue Dimension der Webgestaltung.
Auch Macrotte betont die Tatsache, dass das Web als flexibles Medium angelegt wurde und Designer und Entwickler das Extra an Komplexität in das Medium brachten. Er sieht es als wirklich flexibles, komplett anpassbares Medium, für das wir auch so gestalten sollten.25 Aus seiner Sicht, funktioniert die Industrie umso besser, je weniger wir versuchen die Darstellung zu kontrollieren.26 Jonathan Snook fügt hinzu, dass wir das Web umso einfacher verwalten können, wenn wir die Fluidität des Webs annehmen.27

Zugänglichkeit von Informationen

Die Entwicklung von Apps habe ich bisher – abgesehen vom Aufwand für die Bereitstellung auf verschiedenen Plattformen – als eher unproblematisch angesehen.
Durch Apps wird jedoch die Zugänglichkeit von Informationen stark eingeschränkt. Aus Sicht von Tim Berners-Lee treten die Leute damit in die Falle, dass sie denken eine App ist interaktiv und schneller. Doch bei Apps für beispielsweise Magazine ist es unheimlich wichtig, dass die Beiträge nicht ausschließlich in einem Programm landen, sondern offen im Web zugänglich sind. Ein essenzieller Bestandteil des Webs ist der, dass man Inhalte miteinander verknüpft. Einen Magazinbeitrag in einer App kann man dagegen ohne URL nicht einfach verlinken oder teilen.28
Çelik sieht zudem das Problem, dass jedes Programm evaluiert wird, bevor es – teilweise Tage später – zum Download bereitsteht. Man solle sich vorstellen, wenn man bei jeder Änderung einer Webseite tagelang warten muss, bis die Änderung akzeptiert wird. Den gleichen Standpunkt vertritt Lyza Danger Gardener. Nämlich das genau das das Web ausmacht: Wenn man etwas publizieren möchte, publiziert man das – ohne Autorisierung oder Bewertung des veröffentlichten Inhalts.29 Das würde nämlich wieder die Frage aufgreifen, wer dazu überhaupt legitimiert wäre, über die Veröffentlichung von Inhalten zu entscheiden (Verformung der Gesellschaft »).

Die Einzigartigkeit der Unbeschränktheit

Dass man etwas ohne »Pförtner« publizieren kann empfindet auch Alex Russell als sehr elementar. Ob es letztendlich jemanden interessiert oder nicht, ist erstmal irrelevant. Keine Möglichkeit zu haben sich zu äußern, wäre dagegen viel schlimmer. In dieser Unbeschränktheit sieht er die Einzigartigkeit des Webs. Er sieht das Web als das demokratischste System unserer Generation.30

Tim Berners-Lee spricht davon, dass es unser Web ist und fordert uns auf, dass wir alles dafür tun müssen, dass das Web weiterhin offen bleibt. Denn das ist nach wie vor keine Selbstverständlichkeit.31

Resümee

»What Comes Next Is the Future« von Matt Griffin ist aus meiner Sicht ein großartiger Zusammenschnitt der Web-Stimmen der letzten drei Jahrzehnte. Erst während des Films ist mir aufgefallen, was für ein Privileg es ist, dass noch so viele »originale« Stimmen zu hören sind. Das Web ist so selbstverständlich in unserem Alltag verankert, dass es nicht mehr wegzudenken ist. Gleichermaßen ist es noch so jung, dass Griffin den Begründer des Webs selbst, Tim Berners-Lee, interviewen konnte. Mit Brandon Eich als Entwickler von JavaScript oder Chris Wilson als Mitentwickler des Browsers Mosaic werden weitere Menschen gezeigt, welche das World Wide Web richtungsweisend beeinflusst haben. Das Schöne daran ist, dass der Film klar macht, dass wir nach wie vor in einer enormen Entwicklungsphase sind. Vor wenigen Jahren war der Ausdruck Responsive Webdesign noch nicht bekannt, erst seit kürzerer Zeit gibt es das CSS Grid, welches die Gestaltung weiter vereinfachen soll. Das Web entwickelt sich weiter und weiter und diese Evolution mitzuverfolgen ist großartig, da man nicht weiß, was der nächste Schritt sein wird. Wie viel wird sich noch einmal fundamental ändern? Wird es das Web in seiner Form weiter geben? In welche Richtung könnte es sich verändern?

Da ich die Auseinandersetzung mit der Vergangenheit sehr wichtig finde, um die jetzige Situation in ein Gesamtbild zu bringen und weitere Veränderungen abzusehen, möchte ich weiter in diese Richtung recherchieren. Unter anderem möchte ich mich mit dem Begriff »The next Web« auseinandersetzen. Zudem bin ich durch den Film auf Ethan Marcotte aufmerksam geworden dessen Aussagen mir in vielerlei Hinsicht zusagen. Auch mit ihm möchte ich mich weiter beschäftigen.

Nachtrag

Glücklicherweise habe ich das Video nachträglich öffentlich zugänglich bei Vimeo gefunden: What Comes Next Is The Future (2016) ».

Quellen
  1. Vgl. Griffin, Matt: »What Comes Next Is the Future«, »Why the Web«, USA 2016, URL: https://www.lynda.com/Web-Development-tutorials/What-Comes-Next-Future-Creating-Web/647684-2.html, TC: 00:01:03–00:01:24, abgerufen am 16.6.2017.
  2. Vgl. Ebd., TC: 00:01:57–00:02:12.
  3. Vgl. Ebd., TC: 00:01:44–00:01:57.
  4. Vgl. Ebd., TC: 00:02:12–00:02:42.
  5. Ebd., TC: 00:00:00–00:00:34, »The web arrives«.
  6. Vgl. Ebd.
  7. Vgl. Ebd., TC: 00:00:38–00:01:27.
  8. Vgl. Ebd., TC: 00:00:00–00:00:16, »Killer websites«.
  9. Vgl. Ebd., TC: 00:02:40–00:02:45.
  10. Vgl. Ebd., TC: 00:00:38–00:01:03.
  11. Vgl. Ebd., TC: 00:01:35–00:01:46.
  12. Vgl. »Cascading Style Sheets« in: »Wikipedia, the free encyclopedia«, Stand: 8.5.2017, URL: https://de.wikipedia.org/wiki/Cascading_Style_Sheets, abgerufen am 16. Juni 2017.
  13. Vgl. Griffin, Matt: »What Comes Next Is the Future«, »Cascading styles«, URL: https://www.lynda.com/Web-Development-tutorials/What-Comes-Next-Future-Creating-Web/647684-2.html, TC: 00:00:00–00:00:15, abgerufen am 16.6.2017.
  14. Vgl. Ebd., TC: 00:00:26–00:00:48.
  15. Vgl. Ebd., TC: 00:01:27–00:01:44.
  16. Vgl. Ebd., TC: 00:01:03–00:01:23, »There can be only one Flash«.
  17. Vgl. Ebd., TC: 00:00:10–00:00:21.
  18. Vgl. Ebd., TC: 00:03:15–00:03:48, »JavaScript spreads«.
  19. Vgl. Ebd., TC: 00:02:08–00:02:45, »There can be only one Flash«.
  20. Vgl. Ebd., TC: 00:02:43–00:02:53, »Web standards«.
  21. Vgl. Ebd., TC: 00:03:19–00:03:39.
  22. Vgl. Ebd., TC: 00:04:39–00:05:00.
  23. Vgl. Ebd., TC: 00:01:28–00:01:52, »Many devices, one approach«.
  24. Vgl. Ebd., TC: 00:02:40–00:02:57.
  25. Vgl. Ebd., TC: 00:00:00–00:00:33, »Flexible by default«.
  26. Vgl. Ebd., TC: 00:01:23–00:02:10.
  27. Vgl. Ebd., TC: 00:01:01–00:01:22.
  28. Vgl. Ebd., TC: 00:00:53–00:01:08 und TC: 00:02:45–00:03:20, »Connecting and distributing«.
  29. Vgl. Ebd., TC: 00:04:35–00:05:02.
  30. Vgl. Ebd., TC: 00:02:44–00:03:23, »The next web«.
  31. Vgl. Ebd., TC: 00:00:02–00:00:13, »Growing standards«.

Herausforderungen der Zivilgesellschaft

Der Artikel »Five things we’ve learned about the future of digital rights« präsentiert fünf zentrale Thesen, die sich in einer Diskussion von führenden Experten des »Stockholmer Internet Forums« herauskristallisiert hatten. In der Gesprächsrunde ging es darum wie sich die Zivilgesellschaft den Herausforderungen stellen kann, welche neue Technologien mit sich bringen. Dabei waren Themen wie Cybersicherheit, Kontrolle personenbezogener Daten oder algorithmischen Transparenz im Vordergrund.

Der Artikel »Five things we’ve learned about the future of digital rights« präsentiert fünf zentrale Thesen, die sich in einer Diskussion von führenden Experten des »Stockholmer Internet Forums« herauskristallisiert hatten. In der Gesprächsrunde ging es darum, wie sich die Zivilgesellschaft den Herausforderungen stellen kann, welche neue Technologien mit sich bringen. Dabei waren Themen wie Cybersicherheit, Kontrolle personenbezogener Daten oder algorithmische Transparenz im Vordergrund.1

Als erste These wird aufgeführt, dass Regierungen das Internet bedrohen, sobald es vom Internet bedroht wird. Gbénga Sèsan klärt auf, dass in Ländern teilweise das komplette Internet durch die Regierung abgeschaltet wird, um unrechtmäßig Kontrolle auszuüben. Häufig werden Hassreden oder Fehlinformationen als Ausrede vorgeschoben.2 Die Kontrolle einzelner, vor allem durch die Regierung oder Unternehmen, widerspricht dabei grundsätzlich der Vision des Erfinders des Internets.

Lisa Garcia führt die zweite These an, welche sich damit auseinandersetzt, dass sich Regierungen gezielt in Online-Diskussionen einklinken und versuchen sie zu steuern. Während des Wahlkampfs auf den Philippinen gab es sogar eine »Armee von Tastaturkriegern«, welche offiziell viele Botschaften verbreitet und Kritiker und Journalisten belästigt hat. Sie hält daher Medienkompetenz, vor allem für Leute, die zum ersten Mal online sind, für extrem wichtig.3

Die dritte These betrifft vor allen Dingen das Internet der Dinge. Wenn alles mit allem verbunden ist, werden komplexe ethische Fragen aufgeworfen. So muss es Lösungen geben, wer Zugang zu den Daten hat, wofür sie verwendet werden und wie sich die Entscheidung auf das Leben auswirkt.
Solana Larsen stimmt bedenklich, da zu große Komplexität lähmen kann. Daher ist es extrem wichtig, dass Experten die Menschen aufklären, damit sie zum einen das digitale Leben verstehen und zum anderen die Kontrolle übernehmen können.4

Malaviya Jayaram warnt davor, dass Länder mit niedrigen Einkommen zu Testgebieten werden. Westliche Praktiken werden dabei ohne die nötigen Schutzmechanismen übernommen. So war beispielsweise in Indien das Problem, dass Fingerabdrücke von landwirtschaftlichen Arbeiten aufgrund der Abnutzung der Finger nicht gelesen werden konnte und damit der Zugang zu wichtigen Dienstleistungen verhindert wurde.5

Die letzte These bringt Renato Rocha Souza hervor. Er setzt sich dafür ein, dass Algorithmen transparent sein müssen. Menschliche Entscheidungen, ob beispielsweise ein Darlehen vergeben wird oder wer zu Universität zugelassen wird, werden zunehmend von Algorithmen übernommen und dadurch massiv von den Vorurteilen der Entwickler sowie den nötigen Daten bestimmt. Das Problem ist dabei, dass man als Konsument kein Wissen darüber besitzt, was in den Berechnungen vorgeht. Damit könnte man die Technologie ablehnen oder ihr blind vertrauen.6

Die Thesen eröffnen mir den Weg für neue Gedanken. Es ist absurd, dass viele Länder noch immer keinen Zugang zum Web besitzen, während es für uns schon lange die größte Selbstverständlichkeit ist. Da ich davon überzeugt bin, dass unsere Entwicklung dadurch um ein vielfaches rascher vorangeht, klaffen die Welten dadurch noch weiter auseinander. Eine weitere Schwierigkeit sehe ich, ähnlich wie Garcia, in der fehlenden Medienkompetenz. Selbst der westlichen Welt fehlt hier sicher noch einiges an Kompetenz, doch konnte sie sich immerhin – parallel zur Erfindung des Webs – langsam an das neue Medium gewöhnen. Und trotz der anfänglichen Euphorie war die neue Welt im Web glücklicherweise überschaubarer und mit weniger Gefahren ausgestattet. Jemand, der nun zum ersten Mal online ist, wird sicher seine Probleme haben und zunächst sehr unkritisch mit dem Medium umgehen. Die Arbeit der World Wide Web Foundation beeindruckt mich daher sehr und ich hoffe, dass sie einiges damit bewegen kann.

Quellen
  1. Vgl. Garcia, Lisa; Jayaram, Malavika; Larsen, Solana; Sèsan, Gbénga; Rocha Souza, Renato, World Wide Web Foundation: »Five things we’ve learned about the future of digital rights«, URL: https://webfoundation.org/2017/05/5-things-weve-learned-about-the-future-of-digital-rights/, abgerufen am 14.6.2017.
  2. Vgl. Ebd., Absatz 3.
  3. Vgl. Ebd., Absatz 4.
  4. Vgl. Ebd., Absatz 5.
  5. Vgl. Ebd., Absatz 6.
  6. Vgl. Ebd., Absatz 7.

»Bear 71« – Interaktive Webdokumentation

Vor kurzem bin ich auf die interaktive Webdokumentation »Bear 71« von Leanne Allison und Jeremy Mendes aufmerksam geworden, welche vom »National Film Board of Canada« (NFB) mitgestaltet und -produziert wurde. Trotz dem ein oder anderen negativen Aspekt, halte ich sie für sehr gelungen.

Vor kurzem bin ich auf die interaktive Webdokumentation »Bear 71« von Leanne Allison und Jeremy Mendes aufmerksam geworden, welche vom »National Film Board of Canada« (NFB) mitgestaltet und -produziert wurde. Auch »Fort McMoney« wurde vom NFB koproduziert, welches grundsätzlich solche Formate unterstützt. Die Dokumentation ist aus dem Jahr 2012, im März 2017 wurde die VR-Version veröffentlicht.

Bear 71 | Leanne Allison Jeremy Mendes
Bear 71 – Interaktive Webdokumentation von Leanne Allison und Jeremy MendesII

Die Erzählung

Die Basis von Bear 71 bildet eine 360°-Karte, die ein Stück Wildnis im Banff Nationalpark in der kanadischen Provinz Alberta abbildet. Auf ihr sieht man beispielsweise die Orte, wo Kameras installiert sind oder wie sich einzelne, markierte und getrackte Tiere durch die Landschaft bewegen. Die Markierungen sind klickbar und man erhält dadurch weitere Informationen über einzelne Tiere oder Videoeinspieler der installierten Kameras.

Bear 71 | Leanne Allison Jeremy Mendes
Bear 71 – ÜbersichtskarteIII
Bear 71 | Leanne Allison Jeremy Mendes
Detailansicht eines angeklickten TieresIV

Direkt zu Beginn – noch bevor man auf die Karte gelangt – wird ein Video eingespielt, das zeigt wie ein Grizzlybär betäubt und markiert wird und eine Nummer erhält: Nummer 71. Dargestellt durch eine weibliche Stimme, erzählt Bär Nummer 71 von hier an aus der Ich-Perspektive. In elf Erzählabschnitten berichtet der Bär aus dem Leben in der Wildnis, dem Zusammenleben mit dem Menschen und welche Gefahren die Zivilisation für die Wildnis mit sich bringt. Als beliebter Ferienort bleibt der Banff Nationalpark nicht frei von Müll, so dass Grizzlies beispielsweise Marshmallows zum Essen finden. Auch Straßen, die von Trucks befahren werden, sind eine große Gefahr für die Bären sowie alle anderen Tiere, die im Park leben. Ein etwas paradoxer Videoeinspieler einer installierten Kamera bringt dieses Zusammenspiel auf den Punkt: Ein Grizzlybär nähert sich der Kamera, während eine andere Szene – an der exakt gleichen Stelle – Touristen zeigt, die sich mit aufblasbaren Gummitieren und Badekleidung auf den Weg in den Park machen.
Bär Nummer 71 klagt darüber, dass sie den Menschen nichts tun würden und berichtet von einem wunderschönen Tag, an dem dieser mit einem anderen Bären nur Beeren aß. Fälschlicherweise wird oder wurde die Unterart des Braunbärs tatsächlich als tödliche Gefahr angesehen. Obwohl es zu tödlichen Unfällen mit z. B. verletzten Tieren oder welchen mit Jungtieren kommt, entfernen sie sich grundsätzlich vom Menschen.

Bear 71 | Leanne Allison Jeremy Mendes
Ein Grizzlybär unter einer BrückeV
Bear 71 | Leanne Allison Jeremy Mendes
Touristen an der exakt gleichen StelleVI

Der Sound

Der Sound, der durchgängig unterlegt ist, erinnert mich offen gesagt an die Hintergrundmusik aus Konsolenspielen der 90er Jahre. Er klingt nur sehr viel dumpfer, langsamer und dramatischer. Mir ist jedoch unklar, ob er zufällig so ausgewählt wurde oder bewusst an ein Spiel erinnern soll. Ein Spiel, in dem der Mensch die Oberhand behält und mit den Tieren spielt – sie markiert, exakt trackt, verfolgt, kontrolliert und grundsätzlich jederzeit seine Macht ausnutzen kann.

Resümee

Insgesamt halte ich die Dokumentation für sehr gelungen. Ich finde es großartig, dass die Situation aus der Ich-Perspektive erzählt wird und der Bär somit eine menschliche Persönlichkeit erhält. Zudem gefällt mir die interaktive Komponente, die es mir erlaubt die Information auf der Karte zu erkunden sowie die Erzählabschnitte, welche aus meiner Sicht nicht in der aufgelisteten Reihenfolge gehört werden müssen. Die Abschnitte sind in sich geschlossen, so dass man jederzeit »querhören« kann. In Bezug darauf ist mir jedoch die Navigation nicht ganz klar. Manchmal starten Abschnitte während ich auf Tiere in der Karte klicke, so dass ich zunächst den Eindruck hatte, dass hier zusätzliche, kleine Geschichten erzählt werden. Anschließend war ich mir nicht sicher, ob es nicht doch Teil der großen Erzählung war und erst recht nicht, was ich nun gehört hatte oder nicht. Neben diesem Punkt hat mich die VR-Komponente nicht ganz überzeugt. Mit der Google Cardboard kann ich mich zwar ringsum auf der Karte umschauen, hätte mir aber gewünscht, dass beispielsweise auch 360°-Videos gezeigt werden. Aktuell ist eher eine Art Leinwand innerhalb der virtuellen Realität zu sehen, auf der das Video gezeigt wird. Mir ist jedoch bewusst, dass die Dokumentation eine Neuauflage einer bereits 2012 veröffentlichten Version ist und die Technik damals noch nicht so zugänglich war wie heute. Die zwei negativen Aspekte ändern für mich aber nicht den insgesamt sehr guten Eindruck, sondern wären lediglich Verbesserungsvorschläge, um die Erzählung noch attraktiver zu machen.

Abbildungen
  1. Titelbild: Eigener Screenshot; Allison Leanne; Jeremy Mendes, National Film Board of Canada, »Bear 71«, URL: https://bear71vr.nfb.ca, abgerufen am 27.5.2017.
  2. Eigener Screenshot; Allison Leanne; Jeremy Mendes; National Film Board of Canada, »Bear 71«, URL: https://bear71vr.nfb.ca, abgerufen am 27.5.2017.
  3. Ebd.
  4. Ebd.
  5. Ebd.
  6. Ebd.

UX und UI – Konzentrischer Kreis

Die niederländlische UX-Agentur »Bankai« stellt in einem Medium-Artikel vom 17.3.2017 ein komprimiertes Poster vor, das sämtliche Themen mit UX-/UI-Bezug sowie UX-/UI-Elemente in konzentrischen Kreisen zeigt.

Die niederländlische UX-Agentur »Bankai« stellt in einem Medium-Artikel vom 17.3.2017 ein komprimiertes Poster vor, das sämtliche Themen mit UX-/UI-Bezug sowie UX-/UI-Elemente in konzentrischen Kreisen zeigt. Die Elemente werden dabei zunächst in 15 Gruppen eingeteilt: Action Buttons, Input Device, In/ Output Device, Output Device, User Controls, Visual Design, Kollaboration, Sketchen, User Satisfaction, Sitemapping, User Testing, Data analytics, Prototypen, Content und Tools. Vom Zentrum aus werden die Bereiche in noch detailliertere aufgeteilt bis man letztendlich bei den Elementen oder Inhalten landet.

Das Poster dient mir als sehr gute Grundlage für meine Recherche sowie meine praktische Umsetzung. Während manches wie z. B. Data analytics für mein Thema sehr wahrscheinlich nicht von Belang ist, sind andere Bereiche wie Action Buttons, Visual Design oder Content sehr interessant. Insgesamt gefällt mir die Visualisierung sehr gut, da die Fülle der Bereiche User Experience und User Interface deutlich gezeigt wird. Vor allem aber fokussiert sich die Übersicht nicht nur darauf, was am Ende für ein gutes Nutzererlebnis vorausgesetzt wird, sondern zeigt Elemente und Tools, die für den kompletten Prozess wichtig sind.

Abbildungen
  1. Titelbild: Eigener Ausschnitt aus dem frei verfügbaren Poster; bankai: »UX and UI – concentric circle«, URL: Download UX and UI concentric circle, abgerufen am 20.5.2017.

Das Fundament des Webs

Die World Wide Web Foundation fasst die grundsätzlichen Ideen des Webs sehr präzise zusammen, weshalb ich erneut grob auf sie eingehen möchte. Die Ideen und deren Umsetzung sollen ermöglichen, dass das Web weiter ein offener Informationsraum für alle bleibt.

Bei meiner Nachforschung bezüglich der Geschichte des Webs, finde ich – das liegt in der Natur der Sache – natürlich Dopplungen zu den Inhalten mit denen ich mich bereits beschäftigt habe, wie z. B. in dem Beitrag »Vision eines Visionärs«.

Die World Wide Web Foundation fasst die grundsätzlichen Ideen des Webs sehr präzise zusammen,1 weshalb ich darauf erneut eingehen möchte.

Grundsätzliche Ideen des Webs

Dezentralisierung

Wichtig ist, dass es keine Erlaubnis benötigt, etwas im Web zu publizieren. Das bedeutet gleichermaßen, dass man auch frei von willkürlicher Zensur und Überwachung sein muss.

Nichtdiskriminierung

Jeder sollte unabhängig von finanziellen Möglichkeiten in der Lage sein am Web teilzuhaben. Dieses Prinzip der Gleichheit ist als Netzneutralität bekannt und die Beibehaltung dieser ist zur Zeit ein großes Thema in den Medien.

Bottom-Up-Design

Das Web wird gemeinsam gebaut und nicht von einer kleinen Gruppe kontrolliert. Jeder kann teilnehmen und experimentieren, um das Web weiter voranzubringen.

Universalität

Jeder sollte in der Lage sein, etwas im Web zu äußern. Das sollte unabhängig von der Hardware, dem Wohnort, der Kultur oder politischen Neigungen möglich sein.

Konsens

Um Universalität zu erreichen, muss ein gemeinsamer Konsens gefunden wird. Jeder kann durch einen transparenten, partizipativen Prozess beim W3C das Web mitgehalten.

Diese Ideen sind sinngemäß von der World Wide Web Foundation übernommen. Die Ideen und deren Umsetzung sollen ermöglichen, dass das Web weiter ein offener Informationsraum für alle bleibt. Dass das Web von niemandem kontrolliert wird und jeder ein Teil davon sein kann, sind enorm wichtige Voraussetzungen, um das Web in seiner offenen Form beibehalten zu können.

Quellen
  1. Vgl. World Wide Web Foundation: »History of the Web«, URL: https://webfoundation.org/about/vision/history-of-the-web/, abgerufen am 3.5.2017.

Meinungsfreiheit, Algorithmen und Fake News

Anlässlich zum 28. Jahrestag des World Wide Webs erscheint ein Brief von Tim Berners-Lee auf der Webseite der Web Foundation mit dem ich mich kurz auseinandergesetzt habe. In den vergangenen 12 Monaten beobachtet er drei kritische Trends, welche es anzupacken gilt, damit sich Web als Werkzeug für die gesamte Menschheit entfalten kann.

Neben dem Verlust über die Kontrolle unserer Daten, sieht er die Möglichkeit falsche Informationen im Netz zu verbreiten und die Undurchschaubarkeit und das Unverständnis über politische Werbung im Web als kritische Punkte.

Anlässlich des 28. Jahrestags des World Wide Webs erscheint ein Brief von Tim Berners-Lee auf der Webseite der World Wide Web Foundation, mit dem ich mich kurz auseinandergesetzt habe.

Seine ursprüngliche Vorstellung, dass das World Wide Web eine offene Plattform ist, die es jedem ermöglicht von überall Informationen auszutauschen oder über geografische und kulturelle Grenzen hinweg zusammenzuarbeiten, hat sich seiner Auffassung nach in vielerlei Hinsicht verwirklicht. In den vergangenen 12 Monaten beobachtet er jedoch drei kritische Trends, welche es anzupacken gilt, damit sich das Web als Werkzeug für die gesamte Menschheit entfalten kann.1

Neben dem Verlust über die Kontrolle unserer Daten, sieht er die Möglichkeit falsche Informationen im Netz zu verbreiten und die Undurchschaubarkeit und das Unverständnis über politische Werbung im Web als kritische Punkte.

Die Herausgabe unserer Daten gegen kostenlosen Content ist bereits ein viel diskutiertes Thema. Der Begründer des Webs sieht die Problematik zum einen darin, dass die Daten in Nirgendwo verschwinden und für uns unsichtbar sind. Zum anderen hätten wir Vorteile, wenn wir selbst darüber entscheiden könnten, wann und mit wem sie geteilt werden.2
Als weiteren Kritikpunkt sieht er, dass Regierungen Unternehmen nötigen, um jeden unserer Schritte verfolgen zu können und entwickeln Gesetze, die unser Recht auf Privatsphäre verletzen.3
In meinem Beitrag »Cyberspace als neue Heimat des Geistes« bezweifele ich bereits John Perry Barlows Vorstellung, dass wir unsere Meinung frei äußern können ohne in Schweigen oder Konformität gezwungen zu werden. In einigen Ländern ist die freie Meinungsäußerung nach wie vor sehr gefährlich und selbst in einem vermeintlich liberalen Land wie Deutschland gibt es gehäuft Diskussionen über Meinungsfreiheit und Zensur im Netz. Die nicht vorhandene Konformität sehe ich vor allem durch den entstehenden gesellschaftlichen Druck, wenn Inhalte weit gestreut werden können.
Berners-Lee empfindet vor allem die Tatsache, dass Bürger beobachtet werden als sehr abschreckend auf die freie Meinungsäußerung. Das verhindert, dass das Internet als freier Raum genutzt wird, um wichtige sensible Gesundheitsprobleme, Sexualität oder Religion zu erkunden.4 Dass das World Wide Web nicht frei als Informationsquelle genutzt werden kann bzw. nur mit der Sorge im Hinterkopf, dass jeder Schritt gespeichert wird, verletzt den Ursprungsgedanken des Webs, welches als freier Informationsraum konzipiert wurde.

Der zweite Punkt, den Tim Berners-Lee anspricht, steht aus meiner Sicht dem dritten Punkt sehr nah.
Basierend auf immer besseren Algorithmen werden uns auf Social-Media-Seiten und Suchmaschinen Seiten angezeigt, die uns höchstwahrscheinlich gefallen werden. Pro Klick verdienen die Unternehmen Geld und generell können sich dadurch auch Fake News wie ein Lauffeuer verbreiten. Durch den Einsatz von Data Science oder Bots kann dieses System perfektioniert und mit schlechten Absichten ausgenutzt werden.5
Während ich Nachrichten im Social Media außen vor lasse, möchte ich auf die Schwierigkeit eingehen, welche sich aus meiner Sicht bei Suchmaschinen ergibt. Unabhängig davon welche Suchmaschine man nutzt – primär wird Google wohl die Maschine der Wahl sein –, steckt ein gewinnorientiertes Unternehmen dahinter. Dass die Alphabet Inc. mit ihren Angeboten Geld verdienen möchte, sehe ich generell als nicht allzu problematisch an und daher kann man die Schaltung von Anzeigen bei Google oder die Bevorzugung einzelner Webseiten nicht ankreiden. Nichtsdestotrotz sehe ich das Unternehmen nicht nur in Bezug auf die Speicherung von Daten als kritisch an. Auch die Ausbreitung ihrer Angebote in sämtliche Lebensbereiche finde ich bedenklich, da dadurch sehr viele verschiedene Daten an einer Stelle gespeichert werden und ein ganzheitliches Bild der Menschen abzeichnet. Doch das Hauptproblem liegt nicht darin, dass Alphabet Geld verdienen möchte und das mit einer stetigen Verbesserung ihrer Algorithmen und Angebote auch schafft. Das Problem liegt meiner Ansicht nach in der aktuellen Alternativlosigkeit. Keine Karte zeigt besser den Stau und Alternativrouten an, als Google Maps und wer bietet umsonst eine Suchmaschine an, die bestrebt ist immer bessere Ergebnisse zu liefern? Welche Alternative gäbe es, alle Webinhalte in einer Suchmaschine zu durchforsten, ohne dass irgendjemand am Ende der Leitung Profit daraus schlägt? Sei es finanzieller Natur oder ein staatliches Interesse. Ich spreche mich nicht dafür aus, dass das Alphabet-Universum weiter wachsen soll, indem man sich zurücklehnt und das Ganze akzeptiert. Sämtliche Versuche meinerseits andere Suchmaschinen, Karten oder Kalender zu nutzen scheiterten jedoch mangels guter Alternativen.

Der letzte kritische Trend, den Berners-Lee in seinem Brief aufgreift, setzt sich mit der politischen Werbung im World Wide Web auseinander. Allein bei den US-Wahlen 2016 sind 50.000 verschiedene Anzeigen auf Facebook aufgetaucht. Berners-Lee nennt den Fakt, dass die meisten Menschen Informationen von nur wenigen Plattformen nutzen und die politischen Kampagnen auf Grundlage der persönlichen Daten individualisiert werden können. Neben tatsächlicher Information können auch Fake News so einfach verbreitet werden, dass unterschiedliche Personen jeweils unterschiedliche Aussagen vorfinden.6
Die Verbreitung von Fake News war rundum die US-Wahl ein brisantes Thema und Trump selbst nennt bis dahin als seriös geltende Medienunternehmen Fake Media. Meinem Empfinden nach nutzen Amerikaner soziale Netzwerke noch exzessiver als wir es in Deutschland tun, was die Netzwerke für das Verbreiten von Fake News absolut beliebt macht. Und wenn man den ganzen Tag von Fake News liest, wer weiß schon, was am Schluss wirklich Fake News sind? Wenn ich von zehn unterschiedlichen – bis dahin unbekannten – Nachrichtenunternehmen jeweils dieselbe Nachricht angezeigt bekomme: Glaube ich es irgendwann oder bin ich tatsächlich resistent? Was erstmal wie ein schlechter Witz klingt, kann aus der Ferne aber leider nicht wirklich nachvollzogen oder bewertet werden.

Tim Berners-Lee sieht die Probleme als sehr komplex an und weiß, dass die Lösung nicht einfach sein wird. Erste Ansätze sieht er darin mit den Web-Unternehmen zusammenzuarbeiten, damit ein faires Maß an Datenkontrolle entstehen kann. Zudem sieht er den Kampf gegen die Überwachungsgesetze der Regierung als sehr wichtig. Weiter muss gegen Fehlinformationen vorgegangen werden, in dem »Pförtner« wie Google und Facebook ermutigt werden, sich weiter für die Bekämpfung des Problems einzusetzen, um die Bildung zentraler Organe, die darüber entscheiden was wahr und was falsch ist zu vermeiden. Die Transparenz der Algorithmen ist außerdem essenziell, um zu verstehen wie wichtige Entscheidungen, die unser Leben beeinflussen, gemacht werden.7

Alles in allem sehe ich die kritische Entwicklung ähnlich und das spiegelt auch die Themen wider, über die häufig in den Medien berichtet wird. Beruhigend ist, dass durch den Brief zumindest das Gefühl entsteht, dass dort Leute an einer wichtigen Stelle sitzen, die sich um die Lösung solcher Probleme bemühen. Als einzelner ist das ohne Boykott nur schwierig und nach sämtlichen Datenskandalen hält der Aufschrei ohnehin nur für kurze Zeit an. Bis zum nächsten.

Quellen
  1. Vgl. Berners-Lee, Tim, World Wide Web Foundation: »Three challenges for the web, according to its inventor«, Stand: 12.3.2017, URL: https://webfoundation.org/2017/03/web-turns-28-letter/, Absatz 1, abgerufen am 28.4.2017.
  2. Vgl. Ebd., Absatz 3.
  3. Vgl. Ebd.
  4. Vgl. Ebd., Absatz 4.
  5. Vgl. Ebd., Absatz 3.
  6. Vgl. Ebd., Absatz 5.
  7. Vgl. Ebd., Absatz 6.

HyperCard – Lokales Äquivalent zum Web

In der Episode »Hypercard Maker« von Computer Chronicles aus dem Jahr 1987 stellen Bill Atkinson und Dan Winkler das Hypertext-System HyperCard vor. Das World Wide Web erinnert mich in einigen Eigenschaften stark an HyperCard, weshalb ich das System näher kennenlernen möchte.

In der Episode »Hypercard Maker« von Computer Chronicles aus dem Jahr 1987 stellen Bill Atkinson und Dan Winkler das Hypertext-System HyperCard vor. Zusammen haben sie den Software-Baukasten innerhalb von Apple entwickelt, welcher 1987 veröffentlicht wurde. HyperCard ist eins der ersten funktionierenden Hypermedia-Systeme.

Das World Wide Web erinnert mich in einigen Eigenschaften stark an HyperCard, weshalb ich das System näher kennenlernen möchte.

HyperCard ist ein Informationssystem und besteht aus einzelnen Karten, welche Texte, Grafiken oder Buttons darstellen können. Die Buttons können dabei unter anderem zu weiteren Informationen führen, Anrufe tätigen oder Töne abspielen.1 Das wichtige ist laut Bill Atkinson, dass die Karten sowohl Informationen als auch Interaktionen beinhalten können.2

Die einzelnen Karten werden als »Stacks« gruppiert, die man über Floppy-Disks mit anderen teilen kann.3 Es gibt jedoch auch die Möglichkeit, eigene zu kreieren.4 Die mitgelieferten Templates, »Art Ideas« oder z. B. Button-Librariers unterstützen den Nutzer dabei, eigene Karten und Stacks anzulegen.5

Die Informationen können thematisch organisiert und die Verbindungen zwischen den Karten völlig frei definiert werden.6 So kann man beispielsweise auch Grafiken miteinander verbinden, indem man Buttons auf bestimmte Teile der Grafik legt und zur nächsten Karte mit dem gleichen Inhalt verlinkt. Als Beispiel zeigt Bill Atkinson eine Karte mit einer Pferdekutsche, die bei einem Klick auf das Rad wiederum auf die nächste Karte, die ein Rad enthält, wechselt.7 Durch diese freie Organisation, lassen sich Informationen laut Atkinson sehr eng miteinander verbinden. Auch To-Do-Listen mit Terminen und der Verlinkung zu der dazugehörigen Adresse werden als Beispiel genannt.8

Wichtig ist laut Dan Winkler, dass man für die Arbeit mit HyperCard keine Programmierkenntnisse benötigt, außer man möchte die Buttons selbst modifizieren. Möglichkeiten wären hier z. B. visuelle oder auditive Effekte.9 Sonst ist der unerfahrene Nutzer aber auch in der Lage, Buttons über die Benutzeroberfläche einzubauen.10 Für die Programmierung von Buttons wird die Sprache Apple HyperTalk benutzt. Über eine Box, die an das Terminal erinnert, können in dieser Sprache beispielsweise Kalkulationen oder Kommandos abgefeuert werden.11

HyperCard erinnert mich wie anfangs schon erwähnt sehr an die Struktur des World Wide Webs. Zwar ist es kein offenes System, doch die freie Organisation der Informationen fällt mir primär auf. Wie Tim Berners-Lee Ansatz, alles mit allem zu verlinken, kann man auch in HyperCard – innerhalb des Systems – alles mit allem verlinken. Zudem erklärt Atkinson, dass es eine besondere Home Card gibt, die aus allen Stacks heraus auf die Home-Seite führt. Von dort navigiert man wieder um in die Inhalte, wie z. B. das Adress­buch.12
Das wäre zumindest begrifflich sehr nah an Webseiten, da es auch dort Startseiten gibt. Weiter könnte man es mit den nativen Browser-Startseiten, die bei einigen Browsern die favorisierten Seiten anzeigen, vergleichen. Durch die lokale Speicherung und Anzeige der persönlichen Stacks, erinnert es mich auch sehr stark an den Schreibtisch auf dem Rechner.
Durch Atkinsons Präsentation einer Karte mit Keyboard und klickbaren Tasten, welche Töne erzeugen,13 wird auch deutlich, dass schon ein stückweit an Mini-Anwendungen innerhalb der Karten/Webseiten gedacht wurde, welche im World Wide Web erst später mit JavaScript verwirklicht wurden.

Abschließend kann ich mir vorstellen, dass HyperCard durchaus etwas ähnliches wie das World Wide Web hätte werden können, wenn das System komplett geöffnet worden und die Karten über das Netz verfügbar gewesen wären.

Quellen
  1. Vgl. Public Broadcasting Service: »Computer Chronicles«, »Hypercard Maker«, URL: https://archive.org/details/CC501_hypercard, TC: 00:04:45–00:05:06, abgerufen am 13.4.2017.
  2. Vgl. Ebd., TC: 00:06:12–00:06:40.
  3. Vgl. Ebd., TC: 00:05:08–00:05:34.
  4. Vgl. Ebd., TC: 00:06:44–00:07:03.
  5. Vgl. Ebd., TC: 00:11:08–00:11:56.
  6. Vgl. Ebd., TC: 00:07:58–00:08:55.
  7. Vgl. Ebd.
  8. Vgl. Ebd., TC: 00:07:05–00:07:50.
  9. Vgl. Ebd., TC: 00:10:14–00:10:56.
  10. Vgl. Ebd., TC: 00:09:50–00:10:14.
  11. Vgl. Ebd., TC: 00:09:03–00:09:44.
  12. Vgl. Ebd., TC: 00:06:12–00:06:40.
  13. Vgl. Ebd., TC: 00:05:42–00:06:08.
  14. Abbildungen
    1. Titelbild: Macintosh Repository: »HyperCard 2.2«, URL: https://www.macintoshrepository.org/2328-hypercard-2-2, abgerufen am 13.4.2017.
    2. Eigener Screenshot; Public Broadcasting Service: »Computer Chronicles«, »Hypercard Maker«, URL: https://archive.org/details/CC501_hypercard, TC: 00:04:54, abgerufen am 13.4.2017.

Im Galopp zur nächsten Information

Auf Basis der »Unabhängigkeitserklärung des Cyberspace« möchte ich einen weiteren Einblick über John Perry Barlow erhalten. Dabei bin ich auf den Podcast TWiT.tv von Leo Laporte aus dem Jahr 2010 gestoßen. Gemeinsam mit Tom Merritt spricht er in »TWiT Live Specials 43: Live With John Perry Barlow« mit dem Bürgerrechtler und Songtexter John Perry Barlow über die »Electronic Frontier Foundation«, die Freiheit im Internet sowie die Unabhängigkeitserklärung selbst. Leider wird letzteres eher angeschnitten als wirklich besprochen, so dass ich aus dem Podcast keinen wirklichen Benefit für meine Arbeit ziehen kann. Nichtsdestotrotz äußert Barlow interessante Gedanken, welche ich kurz dokumentieren möchte.

Nach der Behandlung der »Unabhängigkeitserklärung des Cyberspace« möchte ich einen weiteren Einblick über John Perry Barlow erhalten. Dabei bin ich auf den Podcast TWiT.tv von Leo Laporte aus dem Jahr 2010 gestoßen. Gemeinsam mit Tom Merritt spricht er in »TWiT Live Specials 43: Live With John Perry Barlow« mit dem Bürgerrechtler und Songtexter John Perry Barlow über die Electronic Frontier Foundation, die Freiheit im Internet sowie die Unabhängigkeitserklärung selbst. Leider wird letzteres eher angeschnitten als wirklich besprochen, so dass ich aus dem Podcast keinen wirklichen Benefit für meine Arbeit ziehen kann. Nichtsdestotrotz äußert Barlow interessante Gedanken, welche ich kurz dokumentieren möchte.

In Bezug auf die Unabhängigkeitserklärung und Regierung verfestigt er seine Meinung, dass man zu einem großen Schöpfer der Umgebung wird, in der man selbst geformt wird. Seinem Empfinden nach, sind die meisten innerhalb der Regierung unter anderen Umständen geformt worden als die Leute, die die meiste Zeit virtuell verbringen.1

Weiter merkt er an, dass es durch z. B. Wikipedia möglich geworden ist, dass man für die meisten Dinge, für die es eine Wahrheit gibt, auch eine Wahrheit kennen kann. Nach ihm ist die Voraussetzung, wie wir Wahrheit und Realität verstehen, Dinge einer maximalen Wahrnehmung auszusetzen und dann einen gemeinsamen Konsens zu finden. Speziell bei Wikipedia muss er daher keinen Zweifel daran haben, dass eine Antwort nicht stimmt. Was er nicht berücksichtigt hatte ist, dass viele Leute die Wahrheit nicht kennen wollen oder sogar glücklich sind vorsätzlich falsche Informationen zu streuen, weil es ihnen hilft.2
Zudem ist er überzeugt davon, dass wir besser darin werden, schlechte und gute Informationen unterscheiden zu können. Momentan (2010) sieht er uns noch als kulturelles Äquivalent eines 13 1/2-jährigen.3

Twitter hält er nicht für ein nützliches, revolutionäres Tool, da eine Revolution eine Ausdauer von Absichten, Verbindungen und konzeptioneller Integrität benötigt. Das setzt voraus, dass man eine große Aufmerksamkeitsspanne hat, welche es in Twitter so nicht gibt.4 Das Internet spielte laut ihm dennoch eine fundamentale Rolle dabei, dass Obama gewählt wurde. Seine Administration hätte es aber nicht auf eine nützliche Art und Weise genutzt, weil noch keiner weiß, wie das geht. Wir wären noch am Beginn und müssen das alles noch herausfinden.5 Aus heutiger Sicht kann man sich spätestens seit der Wahl Trumps sicher sein, dass hier schon einiges hinzugelernt wurde.

Dennoch glaubt er an eine Umgebung, in der jeder etwas sagen möchte, auch etwas sagen kann. Und jeder, der zuhören möchte, auch zuhören kann. Darin hat sich seine Vision vom Internet in den letzten 25 Jahren nicht geändert und die Leute können selbst aussortieren, was sie hören wollen und was nicht.6

Gegen Ende des Gesprächs erzählt Barlow von seiner Mutter, welche damit startete, dass die schnellste Möglichkeit an Informationen zu kommen die war, ein Pferd im Galopp zu reiten. Es endete damit, dass sie die ganze Zeit E-Mails schrieb. Daran kann man die tiefgreifende Transformation in der Informationstechnologie erkennen und wenn sie nun Geschichten erzählte, war die Technologie unsichtbar. Da es um das Gespräch ging und nicht um das Telefon.7

Abschließend ist es schade, dass kaum weitere Gedanken im Bezug auf die Unabhängigkeitserklärung zu hören waren. Nichtsdestoweniger war es ein spannender Podcast, da ich Barlow zum ersten Mal sprechen sehen habe und es großartig ist, was für weise Aussagen er mit seiner jahrelangen Erfahrung und dem vielen Wissen über das Web trifft.

Quellen
  1. Vgl. Barlow, John Perry, TWiT Netcast Network: »TWiT Live Specials 43: Live With John Perry Barlow«, Stand: 21.10.2010, URL: https://www.youtube.com/watch?v=c2U-6tHE3Wg, TC: 00:05:40–00:06:06, abgerufen am 17.4.2017.
  2. Vgl. Ebd., TC: 00:07:55–00:09:00.
  3. Vgl. Ebd., TC: 00:13:05–00:13:22.
  4. Vgl. Ebd., TC: 00:14:18–00:14:50.
  5. Vgl. Ebd., TC: 00:18:22–00:18:40.
  6. Vgl. Ebd., TC: 00:41:30–00:41:55.
  7. Vgl. Ebd., TC: 00:42:40–00:43:20.

Cyberspace als neue Heimat des Geistes

Am 8.2.1996 veröffentlicht John Perry Barlow die »Unabhängigkeitserklärung des Cyberspace« (A Declaration of the Independence of Cyberspace) als Reaktion auf den »Telecomunications Act of 1996« in den USA. Seine ideelle Vorstellung stellt noch heute eine utopische Welt dar, welche nichtsdestotrotz wünschenswert wäre.

Am 8.2.1996 veröffentlicht John Perry Barlow die »Unabhängigkeitserklärung des Cyberspace« (A Declaration of the Independence of Cyberspace ») als Reaktion auf den »Telecomunications Act of 1996« in den USA.

Unabhängig davon, dass dieses Gesetz in seinen Inhalten massiv kritisiert wurde, geht es Barlow meinem Verständnis nach generell um die Nichteinmischung des Staats in den »Cyberspace«. Diese Nichteinmischung bzw. unrechtmäßige Kontrolle spielte in meinem Beitrag »Die Verformung der Gesellschaft« eine Rolle, weshalb die Unabhängigkeitserklärung interessant für meine inhaltliche Recherche ist.

Cyberspace als neue Heimat des Geistes

In seiner Erklärung richtet er sich gezielt an die Regierungen der industriellen Welt und grenzt sich gleichzeitig von ihnen ab. Er kommt aus dem Cyberspace, der neuen Heimat des Geistes.1 Er betont, dass es dort keine gewählte Regierung gibt und fordert, dass der globale soziale Raum frei bleiben muss. Die Regierung habe nicht das moralische Recht, die Menschen in diesem Raum zu beherrschen.2

Regierung unerwünscht

Weiter klärt er, dass die Regierung weder »uns« noch »unsere« Welt im Cyberspace kennt und dieser nicht innerhalb ihrer Grenzen liegt.3 Diesen Punkt halte ich für sehr wichtig, da ich es für sehr fragwürdig halte, einen Bereich kontrollieren und beherrschen zu wollen, den man nicht kennt und dessen Beschaffenheit sich grundsätzlich von der bekannten Welt unterscheidet.4 Doch, auch wenn das Web im Jahr 1996 vielen fremd war und auch noch heute in seiner kompletten Daseinsform undurchsichtig und unüberschaubar ist, verstehe ich das grundsätzliche Interesse der Regierung keinen rechtsfreien Raum entstehen zu lassen. Vor allem heutzutage, wenn sich die Welt im Web mit der außerhalb verbindet und zu einer Welt verschmilzt.
Hier spricht mich der Ansatz Barlows an, dass es sich grundsätzlich nicht um einen rechtsfreien Bereich handeln soll. Doch die Frage wie sich das World Wide Web in seinen Regeln und Gesetzen selbst und durch die Menschen in ihm regulieren soll, halte ich für sehr schwierig. Immerhin ist das Problem bis heute nicht gänzlich gelöst.

Barlow stellt klar, dass es sich beim Web nicht um ein öffentliches Bauprojekt handelt, sondern dass es durch kollektives Handeln wächst.5
Diese »autonom« entstandene Welt, ist nur durch Aktivitäten der Cyberspace-Bewohner gewachsen.
Die Regierung hat »weder an großartigen und sich häufenden Gesprächen teilgenommen, noch den Reichtum der Marktplätze im Web aufgebaut. Sie kennt weder die Kultur, Ethik oder ungeschriebene Codes, die diese Gesellschaft bereits ordnet«6.
Er wirft der Regierung vor, dass sie dem Cyberspace nicht vorhandene Probleme nachsagt, um legitimiert handeln zu können. Aus seiner Sicht gibt es viele Probleme jedoch nicht und er weist erneut darauf hin, dass sie selbst richten werden und ein eigener Gesellschaftsvertrag entstehen wird.7

Die Gedanken sind frei

Er beschreibt den Cyberspace als Raum, der aus »Transaktionen, Beziehungen und Gedanken besteht, die wie eine stehende Welle im Netz unserer Kommunikation angeordnet sind«8. Er solle von jedem betreten werden können, »ohne Privilegien oder Vorurteile durch Rasse, wirtschaftliche Macht, militärische Stärke oder Geburtsort«9. Es soll ein Raum entstehen, in dem jeder seine »Überzeugungen ausdrücken kann, ohne Angst davor zu haben, in Schweigen oder Konformität gezwungen zu werden«10.
Diese beiden Absätze finde ich in zweierlei Hinsicht fragwürdig und schwierig. Der Geburtsort ist sehr wohl ausschlaggebend, da das World Wide Web bis heute noch nicht flächendeckend verbreitet ist. Die nötige Infrastruktur fehlt vielerorts, so dass die dort lebenden Menschen nicht an dieser offenen Welt teilnehmen können.
Zum anderen wird der Teil der Gesellschaft, der offenen Zugang besitzt, sehr wohl in eine Konformität gedrängt. Soziale Netzwerke waren zu Zeiten Barlows noch nicht in der heutigen Form vorhanden, doch im Grundgedanken sicher schon als Vorstellung präsent. Auch damals gab es schon Newsgruppen, in denen ein Austausch möglich war.
Zwar kann die eigene Meinung aus technischer Sicht veröffentlicht werden. Aus sozialer Sicht besteht jedoch der Druck gesellschaftstaugliches zu äußern und seine persönliche Selbstvermarktung voranzutreiben. Auf der Suche nach Likes wird eventuell nur das gepostet, was die meisten Daumen verspricht und alles fragwürdige besser nicht geschrieben. Extreme Meinungen werden in kleinen und großen Shitstorms abgestraft. Das kann natürlich nicht pauschal behauptet werden, mein Eindruck ist aber, dass weitestgehend sehr gut überlegt wird, was geschrieben und welches Bild gepostet wird. Auch ohne World Wide Web wird man nicht überall und jedem seine Meinung aufdrücken, doch durch den vergrößerten Rezipientenradius im Web, können eigene Aussagen sehr weitreichende Auswirkungen haben. Luciano Floridi (Erkenntnisse und Eindrücke: Luciano Floridis Buch »Die 4. Revolution« ») geht noch einen Schritt weiter und spricht davon, dass unser soziales Selbst durch Soziale Medien geformt wird und unsere Identität beeinflusst.

Bit – Bit – Bit

John Perry Barlow hebt in seiner Erklärung weiter hervor, dass die rechtlichen Begriffe für Eigentum, Ausdruck, Identität, Bewegung und Kontext nicht für den Cyberspace gelten, da sie auf Materie basieren.11 Auch die Identität hat keinen Körper, weshalb keine physische Ordnung möglich ist. Die Ordnung, die bestenfalls im World Wide Web entsteht, basiert auf der Goldenen Regel.12
Er wirft der Regierung vor mit dem »Telecommunications Reform Act« die eigene Verfassung zurückzuweisen und die Träume von Jefferson, Washington und Co. zu beleidigen.13 Die Regierung hätte Angst vor den eigenen Kindern, die als Ureinwohner in dieser Welt leben, in denen sie selbst immer Einwanderer bleiben werden. In dieser Welt ist alles gleichgeschaltet: Empfindungen, Ausdrucksformen, alles ist ein nahtloses Ganzes, das aus der globalen Konversation von Bits besteht. Metaphorisch drückt er so aus, dass sie die Luft, die sie erstickt nicht von der Luft trennen können, auf der dessen Flügel schlagen.14 Er hält einigen Ländern, darunter Deutschland, Frankreich und die USA, vor, den Virus der Freiheit bekämpfen zu wollen, ist sich aber sicher, dass das in einer Welt voller Bits nicht funktionieren wird.15

Unerschöpflicher Rohstoff

Für einen sehr wichtigen Punkt halte ich, dass er sich dagegen erhebt, dass Ideen gleichermaßen wie andere Industrieprodukte wie z. B. Roheisen gehandelt werden. Aus seiner Sicht könne im Cyberspace all das, was der menschliche Geist erschaffen hat, kostenlos und unbegrenzt reproduziert und ohne Kosten verteilt werden. Dafür würde es keine Fabriken mehr benötigen.16
Das halte ich dahingehend für sehr wichtig, dass heutzutage auf Basis einer guten Idee ganze Leben verändert werden können. Zwar waren auch schon vor dem World Wide Web Erfindertum und Ideenreichtum ungemein wichtig. Doch heute hat jeder mit Zugang zum Web die Möglichkeit, seine Ideen weit zu verbreiten. Im Gegensatz zu herkömmlichen Rohstoffen ist der Geist zudem unerschöpflich.

Diese Unerschöpflichkeit und Grenzenlosigkeit sieht Barlow im Cyberspace. Unabhängig davon, dass die materiellen Körper regiert werden, möchte er die Souveränität des Geistes aufrechterhalten. Der Geist, der sich frei macht von der physischen Welt und sich über den ganzen Planeten verbreitet, so dass die Gedanken nicht eingefangen werden können.17 Er wünscht sich einen Raum, welcher humaner und fairer ist, als die Welt, welche die Regierungen vorher geschaffen haben.18

Grenzenlose Utopie

Die »Unabhängigkeitserklärung des Cyberspace« halte ich für einen sehr wichtigen Abschnitt innerhalb meiner Recherche. Sie zeigt sehr deutlich, welche Euphorie über das World Wide Web im Jahr 1996 vorherrschte und wie groß der Wunsch danach war, eine geistige Plattform zu haben, welche alle physischen Grenzen durchbricht. Ein Raum, der sich unaufhaltsam verbreitet und jedem die Möglichkeit geben soll, sich frei zu entfalten. Ein neues Medium, in dem bestenfalls alle Menschen gleichgeschaltet und verbunden sind. Frei von staatlicher Kontrolle als ideelles Paralleluniversum.
Aus heutiger Sicht treffen die Vorstellungen nur zum Teil zu und schränken sich wiederum durch technische Möglichkeiten ein. Zwar ist es technisch möglich Ideen zu verbreiten, gleichzeitig gibt es Mittel, Inhalte zu zensieren. Das fängt bei großen Staaten an, die komplette Plattformen wie Facebook sperren und geht im kleinen weiter, wenn einzelne Inhalte blockiert werden. Noch immer findet man bei Staaten, die die Kontrolle nach wie vor übernehmen wollen, unzählige Fragezeichen in Bezug auf diverse Themen. Selbst in Deutschland, wo man grundsätzlich sehr liberal lebt, stellt sich nach Hass-Tiraden im Netz die Frage nach Meinungsfreiheit und Zensur.

Noch immer hängt das World Wide Web zu sehr an nationalen Grenzen, welche den tatsächlichen geistigen Fluss aufhalten. Meiner Empfindung nach entsteht genau hier das Hauptproblem: Während das World Wide Web sämtliche Schranken durchbricht, sind die nationalen Grenzen nach wie vor in Stein gemeißelt. Unabhängig davon, ob es nun um Steuern oder geltende AGBs geht – die Zuständigkeiten sind unklar, die Grauzonen werden genutzt und Angebote werden in den Markt gespült, um anschließend zäh und langwierig bekämpft zu werden. Daher ist meine Theorie, dass solche Probleme erst bekämpft werden können, wenn das World Wide Web sein Pendant in der realen Welt findet: Ein grenzenloser Planet mit Gesetzen, die überall gleichermaßen gelten – mit Menschen, deren Meinung überall gleichermaßen akzeptiert wird. Eine Welt außerhalb des Cyperspace, die der ideellen Vorstellung von John Perry Barlow gleichkommen mag. Eine grenzenlose Utopie über dessen Kontrolle dann noch immer gestritten werden würde.

Quellen
  1. Vgl. Barlow, John Perry: »A Declaration of the Independence of Cyberspace«, Stand: 8.2.1996, URL: https://www.eff.org/cyberspace-independence, Absatz 1, abgerufen am 13.4.2017.
  2. Vgl. Ebd., Absatz 2.
  3. Vgl. Ebd., Absatz 3.
  4. Vgl. Ebd.
  5. Vgl. Ebd.
  6. Ebd., Absatz 4.
  7. Vgl. Ebd., Absatz 5.
  8. Ebd., Absatz 6.
  9. Ebd., Absatz 7.
  10. Ebd., Absatz 8.
  11. Vgl. Ebd., Absatz 9.
  12. Vgl. Ebd., Absatz 10.
  13. Vgl. Ebd., Absatz 11.
  14. Vgl. Ebd., Absatz 12.
  15. Vgl. Ebd., Absatz 13.
  16. Vgl. Ebd., Absatz 14.
  17. Vgl. Ebd., Absatz 15.
  18. Vgl. Ebd., Absatz 16.
Abbildungen
  1. Titelbild: ESO/IDA/Danish 1.5 m/Gendler, R.; Ovaldsen, J-E.; Thöne, C.; Feron, C.: »Carina Nebula«, Stand: 3.12.2009, via Wikimedia Commons, abgerufen am 13.4.2017, Lizenz: CC BY-SA 4.0.

Verfassung für das digitale Zeitalter

Anlässlich des 800. Geburtstags der Magna Carta, haben 3.000 Jugendliche aus der ganzen Welt Klauseln erarbeitet, welche aus ihrer Sicht für eine Verfassung des digitalen Zeitalters wichtig sind. The British Library stellt die zehn wichtigsten Bedingungen vor, welche bei einer Abstimmung durch über 30.000 Stimmen aus letztendlich 500 Klauseln gewählt wurde.

Anlässlich des 800. Geburtstags der Magna Carta, haben 3.000 Jugendliche aus der ganzen Welt Klauseln erarbeitet, welche aus ihrer Sicht für eine Verfassung des digitalen Zeitalters wichtig sind. Wie ich in meinem vorherigen Beitrag »Digitale Magna Carta« angekündigt habe, wollte ich mich auf die Suche nach den Ergebnisse machen und sie für meine Arbeit dokumentieren.

The British Library stellt die zehn wichtigsten Bedingungen vor, welche bei einer Abstimmung durch über 30.000 Stimmen aus letztendlich 500 Klauseln gewählt wurde.1

Web We Want

Web We Want ist ein globaler Zusammenschluss aus Einzelpersonen und Gruppen, die sich für die Erhaltung des offenen Webs einsetzen dessen Feinde unter anderem Zensur und Überwachung sind. Mit dem Hintergrund des Zusammenschlusses wird die digitale Verfassung – gefolgt von den Klauseln – mit »The Web We Want Will …« eingeleitet.

Die zehn wichtigsten Klauseln

  1. Unternehmen dürfen das Web nicht kontrollieren und Regierungen nicht unser Recht auf Informationen beschränken.
  2. Es muss Redefreiheit vorherrschen.
  3. Das Web muss in allen Ländern frei von staatlichen Zensoren sein.
  4. Es darf keine Form von staatlicher Zensur zugelassen werden.
  5. Jeder, der sich Zugriff auf das Web wünscht, soll es auch nutzen können.
  6. Es muss frei von Zensur und Massenüberwachung sein.
  7. Der gleichberechtigte Zugang zu Wissen, Informationen und aktuellen News aus der Welt muss gesichert sein.
  8. Die Freiheit zu Sprechen muss gewährleistet sein.
  9. Es darf nicht durch die Regierung zensiert werden.
  10. Persönliche Informationen und Vorlieben, sollten nicht für Geld verkauft werden dürfen. Falls das doch geschieht, muss es das Unternehmen/die Website transparent kommunizieren.

Resümee

Leider tauchen Bedingungen mehrfach auf, was sicher daran liegt, dass aus 500 Einsendungen gewählt wurde. Da 3.000 Jugendliche Vorschläge eingesendet haben, müsste bereits eine Vorauswahl getroffen worden sein. Ich hätte es vorgezogen, dass hier noch präziser ausgewählt worden wäre. Somit hätte vermieden werden können, dass ganze vier Regeln von Zensur handeln, während dadurch sicher andere wichtige Inhalte verloren gingen. Vorausgesetzt, dass die doppelten Inhalte durch andere ersetzt werden, hört sich die digitale Verfassung für mich aber zunächst vernünftig an.

Quellen
  1. Vgl. The British Library: »Magna Carta for the digital age 2015«, URL: https://www.bl.uk/my-digital-rights/magna-carta-2015/, abgerufen am 4.4.2017.

Digitale Magna Carta

Durch meine bisherige Recherche bin ich auf den Artikel »An online Magna Carta: Berners-Lee calls for bill of rights for web« im The Guardian aufmerksam geworden.
Eine Online Magna Carta hält Tim Berners-Lees für notwendig, um die Unabhängigkeit des Mediums sowie der Nutzer weltweit zu schützen und zu verfestigen. Die digitale Verfassung könnte dabei von den Menschen selbst erarbeitet werden.

Durch meine bisherige Recherche bin ich auf den Artikel »An online Magna Carta: Berners-Lee calls for bill of rights for web« im The Guardian aufmerksam geworden.
Eine digitale Verfassung hält Tim Berners-Lees für notwendig, um die Unabhängigkeit des Mediums sowie der Nutzer weltweit zu schützen und zu verfestigen.1 Die digitale Verfassung könnte dabei von den Menschen selbst erarbeitet werden.2

Im begleitenden Video, weist er nachdrücklich darauf hin, dass wir nun nach 25 Jahren World Wide Web über das nächste viertel Jahrhundert nachdenken müssen. Dafür müssen wir unter anderem dafür Sorgen, dass sich die Grundsätze auf dem das Web basiert, etablieren. Darunter fallen Themen wie das Web als offenes Medium oder die Privatsphäre. Für die Demokratie ist außerdem die Frage wichtig, wie man seine Stimme erheben und seine Werte vor der Regierung vertreten kann, wenn man keinen Internetzugang hat.3

Berners-Lee ist weiter der Auffassung, dass wir keine offene Regierung, keine gute Demokratie, kein gutes Gesundheitssystem, keine vernetzten Gemeinschaften und keine kulturelle Vielfalt haben können, bevor wir kein offenes Web besitzen, bei dem wir uns keine Sorgen mehr darüber machen müssen, was an der Hintertür passiert.4 Anwälte und Politiker müssten das Programmieren verstehen, um tatsächlich zu verstehen, was mit Computern alles gemacht werden kann.5

Zudem ist er überzeugt davon, dass der Vorschlag für die Web-Verfassung auch die Auswirkungen von Urheberrechtsgesetzen und kulturell-gesellschaftlichen Themen rund um die Ethik der Technologie untersuchen sollte.6

In meinem Beitrag »Die Verformung der Gesellschaft« habe ich mich schon ansatzweise mit der Problematik auseinandergesetzt, dass das grenzenlose Web den nationalen Grenzen und Gesetzen gegenübersteht. Eine globale Verfassung könnte das Problem lösen. Bisher konnte ich mir jedoch nicht vorstellen, wie diese utopische Vorstellung aussehen könnte.
Laut Berners-Lee sei das wichtigste, dass die Leute für das Web kämpfen und begreifen, was für einen Schaden es hätte, wenn das Web zerstückelt werden würde. Nationale Gesetze bräuchten wir zwar nach wie vor, jedoch dürfen wir das Netz nicht in nationale Silos zerteilen.7
Dieser Ansatz hilft mir dabei, eine Vorstellung davon zu bekommen, wie das Problem lösbar wäre. Ich kann mir eine digitale Verfassung vorstellen, die ähnlich wie das Web selbst, als breites Netz über den nach wie vor vorherrschenden nationalen Gesetzen liegt.

Über eine weitere Suche, hab ich bereits erste Ergebnisse gefunden. Anlässlich zum 800. Geburtstag der Magna Carta, haben junge Menschen im Jahr 2015 bereits gemeinsam eine digitale Magna Carta erarbeitet. Die Öffentlichkeit konnte über die Regeln abstimmen, welche ich in einem weiteren Beitrag bearbeiten werde.

Quellen
  1. Vgl. Kiss, Jemima: »An online Magna Carta: Berners-Lee calls for bill of rights for web«, Stand: 12.3.2014, URL: https://www.theguardian.com/technology/2014/mar/12/online-magna-carta-berners-lee-web, Absatz 3, abgerufen am 27.3.2017.
  2. Vgl. Ebd., Absatz 4.
  3. Vgl. Ebd., Begleitendes Video, TC: 00:0044–00:01:14.
  4. Vgl. Ebd., Absatz 5.
  5. Vgl. Ebd., Absatz 13.
  6. Vgl. Ebd., Absatz 9.
  7. Vgl. Ebd., Absatz 18.

How much wood would a woodchuck chuck?

Als Unterstützung für meine weitere Recherche, möchte ich mich nun auf die technische Entwicklung des Webs konzentrieren. Als Grundlage dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee. In »Vision eines Visionärs« gehe ich näher auf Tim Berners-Lees Vorstellung des Webs ein, weshalb ich sie hier außen vor lassen möchte. An dieser Stelle möchte ich mich nur auf die technischen Fakten konzentrieren, welche ich im Buch finde und sie lediglich auflisten.

Als Unterstützung für meine weitere Recherche, möchte ich mich nun auf die technische Entwicklung des Webs konzentrieren. Als Grundlage dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee. In »Vision eines Visionärs« gehe ich näher auf Tim Berners-Lees Vorstellung des Webs ein, weshalb ich sie hier außen vor lassen möchte. An dieser Stelle möchte ich mich nur auf die technischen Fakten konzentrieren, welche ich im Buch finde und sie lediglich auflisten.
Eine weitere Recherchequelle ist »A Little History of the World Wide Web« vom W3C, welche zum Teil zusätzliche Punkte enthält.

1980

ENQUIRE

Software-Projekt von Tim Berners-Lee aus dem Jahr 1980, welches schon erste Ansätze des World Wide Webs beinhaltet. ENQUIRE steht für »Enquire Within upon Everything«.1 Einzelne Informationen waren als »node« – als Knoten – abgelegt; neue konnte man durch eine Verlinkung des alten Knotens erstellen. Eine Information konnte man nur dann finden, wenn man die Suche von der Startseite aus beginnt. Links waren jeweils am Ende eines Knotens. Das System enthielt bereits interne und externe Links – externe jedoch nur in eine Richtung.2 Die Programmiersprache war Pascal, welche auf dem Betriebssystem »SINTRAN-III« von Norsk Data lief.3

1984

Tangle

Nachdem Tim Berners-Lee im September 1984 ans CERN zurückkehrt, schreibt er in seiner Freizeit ein weiteres Programm namens »Tangle«, um seine Idee in Bezug auf »Verbindungen« weiterzuführen, welche in seiner Vorstellung immer besonders hohen Stellenwert hatten. In einer extremen Sicht könnte man seiner Ansicht nach die ganze Welt nur aus Verbindungen bestehend sehen. Der Computer speichert dabei Informationen nur als Sequenz von Buchstaben, so dass die Verbindung der Buchstaben das wichtige ist. Wenn sich eine bestimmte Buchstaben-Sequenz wiederholt,4 erschafft Tangle einen neuen Knoten, die für diese Sequenz steht. Sollte diese Sequenz erneut auftauchen, verlinkt Tangle nur auf den ursprünglichen Knoten, anstatt sie erneut abzuspeichern. Tim Berners-Lee hatte die Idee auf diese Art und Weise eine Enzyklopädie zu erstellen, welche Fragen auf einzelne Knoten herunterbricht und eine Antwort liefert. Während Tangle die Frage »How much wood would a woodchuck chuck« noch verarbeiten konnte, lieferte eine weitere komplexere Frage eine Endlosschleife aus »How much wood would a woodchuck chuck if a woodchuck chuck wood chuck chuck chuck wood wood chuck chuck chuck …«. Da das Debuggen unendlich kompliziert gewesen wäre, fasste Berners-Lee das Programm nie wieder an.5

ENQUIRE

Neue Version von ENQUIRE mit ausschließlich internen Links. Jedes Netz war damit limitiert. Diese Einschränkung war für ihn eine sehr wichtige Erkenntnis.6

RPC

Um die Kommunikation zwischen Computern und Netzwerken zu vereinfachen, schrieb Berners-Lee ein RPC-Programm (remote procedure call).7

Bis 1988

Hypertext-Ansatz

Ansatz, dass sein System so wenig Regeln wie möglich besitzen sollte, damit jegliche Informationen ins System fließen können, ohne dass die Entwickler ihre Arbeit grundsätzlich überarbeiten müssen. Letztendlich wählt Berners-Lee Hypertext dafür.8

1988

Proposal

Mike Sendall, Tim Berners-Lees Boss, bat ihn um eine Ausarbeitung der Idee.9

TCP/IP

Das Hauptproblem war letztendlich, eine Basis zu schaffen, auf der verschiedene Computer mit verschiedenen Betriebssystemen miteinander kommunizieren können.10

Viele Physiker nutzten das VAX/VMS-Betriebssystem und DECnet Kommunikations-Protokolle, Unix nutzte dagegen Internetprotokolle. Berners-Lee favorisiert die Protokolle TCP/IP. Die Unix-Welt nutzt sie bereits und VAX-Welt könnte sie übernehmen.11
Adaption des RPC-Adress-Schemas, um Dateien zu adressieren und abzurufen.

1989

12.3.1989: »Information Management: A Proposal«

Dokument, dass das World Wide Web als globales, non-lineares Hypertext-System innerhalb von CERN vorstellt.12 Die Vorstellung des Informationssystems zielt unter anderem darauf ab, den Verlust von Informationen innerhalb der Organisation zu verhindern. Er präsentiert das Systems als große Hypertext-Datenbank mit Links, welche automatisch analysiert werden könnten.13

Grafik aus »Information Management: A Proposal«I
Grafik aus »Information Management: A Proposal«I

1990

Keine Reaktion

Keine Reaktion auf seine Ausarbeitung bis er sie im Mai 1990 nochmal David Williams (Boss von Mike Sendall) gab und sie erneut auf Eis gelegt wurde.14

Ideen zur Namensgebung

Mesh oder Information Mesh, MOI für »Mine of Information« oder TIM für »The Information Mine«. Letztere könnten zu egozentrisch wirken und Tim Berners-Lee entschied sich für »World Wide Web«.15

HT

Auf der Suche nach einem charakteristischen Akronym entschied er sich für »HT«. Jedes Programm, das ins System involviert war, sollte mit diesen Buchstaben starten.16

European Conference on Hypertext Technology

Besucht zusammen mit Robert Cailliau, einem alten CERN-Veteran, die Konferenz, um die Idee vorzustellen. Ian Ritchie und Leute von Owl Ltd. stellten ein Produkt namens »Guide« vor. Das Original von Peter Brown, das an der Universität von Southampton entstanden ist, sah im Grunde wie Tim Berner-Lees Vision aus.17 Es brachte alle Eigenschaften mit sich, nur das Internet fehlte. Er versuchte die Zuständigen zu überreden, es an das Internet zu schließen, aber sie waren von der Idee nicht überzeugt. Auch die anderen Teilnehmer konnten nicht vom World Wide Web überzeugt werden.18

Code des World Wide Webs

Tim Berners-Lee beginnt im Oktober damit, den Code für das World Wide Web auf dem NeXT zu schreiben:
· Web Client
· Hypertext Transfer Protocol (HTTP)
· Universal Resource Identifier (URI)
· Hypertext Markup Language (HTML)
· Web Server (nxoc01.cern.ch – Next, Online Controls, 1) – Alias: info.cern.ch
· Erste Hypertext Webseite mit Spezifikationen zu HTTP, URI, HTML und alle projektbezogenen Informationen

Der Client war Mitte November fertig und hieß »WorldWideWeb«, welcher ab Dezember mit HTML funktionierte. Bis dahin jedoch nur auf dem NeXT.18 HTML wurde dabei an SGML (Standard Generalized Markup Language) angelehnt – eine Sprache, die bereits bei einigen Dokumentations-Communities bevorzugt wurde.19
Bestehende Internetprotokolle wie z. B. NNTP oder FTP waren Berners-Lee zu langsam, weshalb er HTTP entwickelte.20
Um andere Systeme mit einzuschließen wurde der kleinste gemeinsame Nenner gesucht: Alle hatten die Tastatur als Eingabegerät und konnten ASCII produzieren. Der auf das wesentliche heruntergebrochene Browser hieß »line-mode Browser« und wurde an das Terminal angelehnt, welches jeweils eine Zeile zeigt.21
Via FTP stellte Tim Berners-Lee eine Verbindung zu Nachrichtenartikel und Newsgruppen im Internet her. So waren Inhalte aus dem Internet umgehend verfügbar.22

Merry Christmas

Tim Berners-Lee und Robert Cailliau hatten jeweils den Browser/Editor WorldWideWeb auf ihrem NeXT installiert, welche am Weihnachtstag 1990 über das Internet via info.cern.ch kommunizieren konnten.23

1991

Telefonbuch von CERN

Das Web ist noch nicht weit genug, um es als ultimatives Dokumentations-System zu verbreiten. Erstes kleines Ziel: Telefonbuch von CERN.24

Dokumentation auf info.cern.ch

Fortführung der Dokumentation auf info.cern.ch. Jede technische Entscheidung basiert auf der Idee, dass es ein Informationsraum sein sollte, der alle umfasst und einschließt.25 Sprich auch von jedem Computer und Betriebssystem zugänglich sein sollte.

Veröffentlichung WorldWideWeb

Im März 1991 wurde das Program WorldWideWeb innerhalb von CERN veröffentlicht. Jedoch nur limitiert an die Nutzer von NeXT Computern.26

Hypertext at CERN

Ausarbeitung »Hypertext at CERN«.27

Veröffentlichung

Im August veröffentlich Tim Berners-Lee drei Dinge: das WorldWideWeb für NeXT, einen line-mode Browser sowie den grundlegenden Server.28

comp.infosystems.www

Start von comp.infosystems.www als Newsgruppe zum Informationsaustausch.29

Telnet-Protokoll

Öffentlicher Telnet-Server auf info.cern.ch. Telnet ist ein Protokoll, wodurch ein Nutzer eine interaktive Kommandozeilen-Session öffnen konnte. Dadurch gelangten Menschen ins Web, welche keinen Browser installieren konnten.30

WorldWideWeb-Browser in C

Der Browser WorldWideWeb wurde erneut in der Sprache C geschrieben, um den Transport zu vereinfachen.31

Libwww

Libwww als Bibliothek – Veröffentlichung des webspezifischen Codes.32

Zwei Gateways

Installation von zwei Gateways zum Support-System VAX/VMS und WAIS.33

Mailing-Liste für technische Diskussionen

Start der Online-Mailing-Liste www-talk@info.cern.ch für technische Diksussionen.34

Hypertext 91’

Hypertext 91’ im Dezember. Das Projekt wird vorgestellt, findet jedoch kaum Zuspruch.35

1992

Erwise

Im April wird der Browser »Erwise« der Helsinki University of Technology für Unix mit dem Betriebssystem X-Windows veröffentlicht.36

ViolaWWW

Im Mai wird der Browser »ViolaWWW« von Pei Wei für Unix veröffentlicht.37

Samba

Entwicklung eines Webbrowser Samba für Macintosh von Tim Berner-Lees Kollegen.38

URL

Aus URI (universal resource document) wurde URL (uniform resource locator).39

MidasWWW

Tony Johnson entwickelt den Browser »MidasWWW« für X.40

1993

Es gab etwa 50 bekannte Server und die Browser Erwise, ViolaWWW und MidasWWW waren für X-Windows verfügbar, Samba für Mac.41

Diverse Browser

Dave Raggett entwickelt den Browser »Arena«.42

Die University of Kansas schreibt einen text-basierten Hypertext-Browser namens »Lynx«, der es als screen mode Browser erlaubt, durch das Dokument zu scrollen. Lynx 2.0 wurde als Web-Browser im März veröffentlicht43 und ist der älteste Browser, der noch immer in Betrieb ist.44

Marc Andreessen veröffentlicht im Februar den Browser »Mosaic« für X.45

Tom Bruce schreibt den Browser »Cello« für Microsofts Windows, welcher im März veröffentlicht wird. Erstmals konnten Windows-Nutzer das Web in verschiedenen Farben und Schriften sehen.46

Das freie World Wide Web

Am 30.4.1993 gab CERN das Web-Protokoll und den Code zur Nutzung frei.47 Dieser Tag wird heute als Geburtstag des freien World Wide Webs angesehen.

Veröffentlichung von Mosaic für UNIX, Windows und Mac im September.48

1994

Internet in a Box

Tim O’Reilly kündigt das Produkt »Internet in a Box« an, welches das World Wide Web in Privathaushalte bringen soll. Das Produkt wird jedoch überflüssig, da nun viele Internet-Service-Provider ihre Arbeit aufnahmen.49

Navipress

Navisoft Inc. veröffentlicht einen Browser namens »Navipress« für den PC und Mac.50

Netscape Navigator 1.0

Gründung des Unternehmens Mosaic Communications Corp. –, später Netscape –51, welches im Oktober desselben Jahres den Browser »Mozilla« auf den Markt bringt.52 Die kommerzielle Version wird im Dezember über das Internet herausgegeben und zu »Netscape Navigator« umbenannt. Der Browser ist mit Windows, X Window und Macintosh kompatibel.53

Woodstock of the Web

Erste internationale WWW-Konferenz – auch »Woodstock of the Web« genannt – im Mai.54 Hier entstand das Konzept von VRML (Virtual Reality Modellen Language).

W3C

Gründung des W3C.55

1995

Hardware mit Browser

Im April kündigt Compaq an, seine PCs mit dem Navigator auszustatten. Damit wird erstmals ein Browser direkt mit der Hardware ausgeliefert.56

Java

Im Mai wird die Programmiersprache Java eingeführt. Die Sprache vereinfacht es in vielerlei Hinsicht Inhalte veröffentlichen. So wird von nun an beispielsweise weniger Arbeitsspeicher beim Endnutzer benötigt, um Inhalte anzusehen. Sie können nämlich direkt im Webbrowser angezeigt werden.57

AOLpress

AOL kauft das Unternehmen Navisoft, welches Navipress entwickelt hatte. Das Produkt heißt von nun an AOLpress.58

Internet Explorer

Der Internet Explorer wird im August zusammen mit Windows 95 veröffentlicht.59

1996

Browser kommen und gehen

Netscapes Navigator 2.0 kommt auf den Markt.60

AOLpress stirbt, während AOL nun den Internet Explorer nutzt.61

PICS

PICS (Platform for Internet Content Selection) wird im März als mögliches Filter-Werkzeug für Webinhalte veröffentlicht.62

Amaya

Das W3C entwickelt ab 1996 den experimentellen Browser »Amaya«.63

1997

RDF

Ab 1997 erste Konzeption von RDF (Resource Description Framework) mit dem letztendlichen Ziel maschinenlesbare Daten für das semantische Web zu erhalten.64

1998

Open Source Policy

Netscape veröffentlicht im Januar den kompletten Quellcode seines Browsers.65

XML

XML (Extensible Markup Language) wird im Februar vom W3C veröffentlicht, um SGML abzulösen. XML ist die Basis von Sprachen wie HTML.66

DOM

DOM (Document Object Model) wird als Standard des W3C eingeführt.67

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 1.
  2. Vgl. Ebd., S. 10.
  3. Vgl. Ebd., S. 11.
  4. Vgl. Ebd., S. 12.
  5. Vgl. Ebd., S. 13.
  6. Vgl. Ebd., S. 15.
  7. Vgl. Ebd., S. 14.
  8. Vgl. Ebd., S. 15.
  9. Vgl. Ebd., S. 17.
  10. Vgl. Ebd., S. 17.
  11. Vgl. Ebd., S. 19.
  12. Vgl. Ebd., S. 21.
  13. Vgl. Ebd.
  14. Vgl. Ebd., S. 22.
  15. Vgl. Ebd., S. 23.
  16. Vgl. Ebd.
  17. Vgl. Ebd., S. 26.
  18. Vgl. Ebd., S. 27.
  19. Vgl. Ebd., S. 29.
  20. Vgl. Ebd., S. 41.
  21. Vgl. Ebd., S. 39.
  22. Vgl. Ebd., S. 30.
  23. Vgl. Ebd.
  24. Vgl. Ebd.
  25. Vgl. Ebd., S. 32.
  26. Vgl. Ebd., S. 33.
  27. Vgl. Ebd., S. 45.
  28. Vgl. Ebd., S. 46.
  29. Vgl. Ebd.
  30. Vgl. Ebd., S. 47.
  31. Vgl. Ebd.
  32. Vgl. Ebd., S. 48.
  33. Vgl. Ebd., S. 50.
  34. Vgl. Ebd.
  35. Vgl. Ebd.
  36. Vgl. Ebd.
  37. Vgl. Ebd., S. 56.
  38. Vgl. Ebd.
  39. Vgl. Ebd., S. 58.
  40. Vgl. Ebd., S. 62.
  41. Vgl. Ebd., S. 64.
  42. Vgl. Ebd., S. 67.
  43. Vgl. Ebd.
  44. Vgl. Ebd., S. 68.
  45. Vgl. »Lynx (web browser)« in: »Wikipedia, the free encyclopedia«, Stand: 26.2.2017, URL: https://en.wikipedia.org/wiki/Lynx_(web_browser), abgerufen am 20.3.2017.
  46. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 69.
  47. Vgl. Ebd.
  48. Vgl. Ebd., S. 74.
  49. Vgl. Ebd., S. 76 f.
  50. Vgl. Ebd., S. 80.
  51. Vgl. Ebd., S. 81.
  52. Vgl. Ebd., S. 82.
  53. Vgl. Ebd., S. 96.
  54. Vgl. Ebd., S. 97.
  55. Vgl. Ebd., S. 85.
  56. Vgl. Ebd., S. 93.
  57. Vgl. Ebd., S. 103.
  58. Vgl. Ebd., S. 104.
  59. Vgl. Ebd., S. 105.
  60. Vgl. Ebd., S. 108.
  61. Vgl. Ebd., S. 112.
  62. Vgl. Ebd.
  63. Vgl. Ebd., S. 113.
  64. Vgl. Ebd., S. 119.
  65. Vgl. Ebd., S. 181.
  66. Vgl. Ebd., S. 118 f.
  67. Vgl. Ebd., S. 119.
  68. Vgl. Ebd., S. 168.
Abbildungen
  1. CERN, O‘Luanaigh, Cian: »World Wide Web born at CERN 25 years ago«, Stand: 8.4.2014, URL: https://home.cern/about/updates/2014/03/world-wide-web-born-cern-25-years-ago, abgerufen am 20.3.2017.

Die Verformung der Gesellschaft

In einem weiteren Beitrag über das Buch »Weaving the Web: The Original Design and Ultimate Destiny of the World« von Tim Berners möchte ich mich mit der gesellschaftlichen Bedeutung des World Wide Webs befassen. Dabei geht es mir momentan nicht darum, einen Einblick in sämtliche Einzelheiten zu geben, sondern grobe Eckpfeiler für meine weitere Recherche zu definieren. Die Recherche bezieht sich dabei vor allem auf die Jahre zwischen den Anfängen und der geplatzten Dotcom-Blase im Jahr 2000.

In einem weiteren Beitrag über das Buch »Weaving the Web: The Original Design and Ultimate Destiny of the World« von Tim Berners-Lee möchte ich mich mit der gesellschaftlichen Bedeutung des World Wide Webs befassen. Dabei geht es mir momentan nicht darum, einen Einblick in sämtliche Einzelheiten zu geben, sondern grobe Eckpfeiler für meine weitere Recherche zu definieren. Die Recherche bezieht sich dabei vor allem auf die Jahre zwischen den Anfängen und der geplatzten Dotcom-Blase im Jahr 2000.

Die Veröffentlichung des WorldWideWeb

Das »WorldWideWeb«-Programm (Browser) wurde im März 1991 erstmals innerhalb CERNs veröffentlicht, wobei nur Personen mit NeXT Computern Zugang hatten.1 Ursprünglich war das Web nicht für den privaten Gebrauch oder für Einzelunternehmen entwickelt. Während es zunächst für ein besseres Informationsmanagement innerhalb CERNs nützlich sein sollte, machten später auch Universitäten, Forscher und große Unternehmen davon Gebrauch.2
Meinem Eindruck nach waren die Anfänge ein regelrechter Kampf darum, die Wichtigkeit des WWW zu vermitteln. Ob schriftliche Ausarbeitungen oder die Präsentation auf einer Konferenz namens Hypertext im Dezember 1991: Durchweg schien sich die Begeisterung in Grenzen zu halten. Zum einen vermute ich, dass das Verständnis für diese Art von Informationsraum noch nicht weit genug ausgeprägt war – auch heute würde es uns schwerfallen, uns auf dem Papier ein Medium vorzustellen, das die nächsten Jahrzehnte maßgeblich verändern und umkrempeln könnte. Vor allem, wenn noch weitere nicht ausgereifte Systeme miteinander konkurrieren. Zum anderen war die Nutzung noch immer sehr beschränkt. Erst im August 1991 veröffentlicht Berners-Lee das WorldWideWeb für NeXT, einen Line-Mode Browser sowie den elementaren Server außerhalb von CERN.3 Selbst die Nutzung dieser Angebote war längst nicht intuitiv und einfach.

Erschwerter Zugang

Das Web verbreitet sich begrenzt in der Hypertext Community, doch obwohl es durch einen Telnet-Zugang grundsätzlich für Millionen von Menschen zugänglich gewesen wäre, hapert es an – aus heutiger Sicht – kleinen Problemen: Es war einfacher sich ab Oktober 1991 über das Telnet-Protokoll in die Kommandozeile eines anderen Computers innerhalb CERNs einzuwählen, als selbst einen Browser zu installieren. Nur langsam verbreitet sich das Web weiter und wird von Menschen rund um den Globus wahrgenommen. Das wichtigste war laut Berners-Lee, dass die Menschen, die das Web sahen und die unbegrenzten Möglichkeiten verstanden, damit begannen Server aufzusetzen und Informationen zu publizieren. Netterweise bekam er zu Beginn noch Nachrichten, wenn ein neuer Server aufgesetzt wurde.4

Cleverness schlägt Vermögen

Eine dringende Notwendigkeit war die Entwicklung eines tauglichen, systemübergreifenden Browsers, der nicht nur das Lesen von Informationen, sondern auch das Editieren zulässt. Ansätze lieferten 1992 die Browser Erwise (April), ViolaWWW (Mai) oder später Samba (Dezember). Letztendlich war kein Browser wirklich vollkommen oder systemunabhängig. Das führte zum Problem, dass den Menschen das Werkzeug fehlte, um wirklich gut zusammenarbeiten zu können. Das Web wurde zunehmend zu einem Medium, welches das Publizieren eher zulässt als eine vernünftige Zusammenarbeit. Das ironische, was Berners-Lee darin sah, war die Tatsache, dass unzählige Intranets entstanden. Solche zusammenzuschließen war jedoch der ursprüngliche Antrieb, welches das Bedürfnis nach einem ganzheitlichen Netz überhaupt entstehen ließ.5 Erst mit der Erscheinung von Browsern, wurden in immer kürzeren Abständen neue Server aufgesetzt. Ein Server über Rom während der Renaissance beeindruckt den Begründer dabei besonders. In Form eines virtuellen Museums inspiriert es viele weitere Webseiten – auch solch’ beeindruckende Veröffentlichungen begünstigten den Aufstieg des Webs.6

Nachdem im Februar 1993 die erste Version des Browsers Mosaic verfügbar war, gründete der Mitentwickler Marc Andreessen zusammen mit Jim Clark Mosaic Communications Corp. (später Netscape).7 Zunächst wird im Oktober 1994 der Browser Mozilla veröffentlicht8 und am 15.12.1994 die kommerzielle Version, die zwischenzeitlich zu Navigator 1.0 umbenannt wurde.

Das Besondere an der Veröffentlichung: Netscape veröffentlicht den Browser frei verfügbar über das Internet anstatt ihn einzutüten und zu verschicken. Zudem sind zwei weitere Ansätze wichtig: Zum einen ist die Veröffentlichung einer Beta-Version – an der hunderte Nutzer unentgeltlich weiterarbeiten und Verbesserungsvorschläge senden können – bis dahin nicht alltäglich. Zum anderen ist das Vermarktungs-Modell neu, etwas frei im Web anzubieten und erst nachträglich, durch z. B. andere Produkte oder Werbung auf der Startseite, Geld zu verdienen. Innerhalb weniger Monate nutzten die meisten Menschen im Web diesen Browser.9 Damit schlägt er zunächst den Internet Explorer, der erst später im August 1995 zusammen mit Windows 95 veröffentlicht wurde.10

Das Web kommt im Privaten an

Immer mehr Menschen nutzen das World Wide Web und schon zu Beginn des Jahres 1994 zeichnete sich ab, dass es zunehmend wahrgenommen wird. Allein von März bis Dezember 1993 stiegen die Webverbindungen innerhalb des Internets von 0,1 auf 2,5 %.11 Auch die Zugriffe auf info.cern.ch verzehnfachten sich in den ersten Jahren. Waren es im Sommer 1991 noch 100 pro Tag, betrug die Zahl der Aufrufe schon 10.000 im Sommer 1993.12 Im Jahr 1994 übersteigt zudem die Zahl der kommerziellen Nutzer die der wissenschaftlichen Nutzer, bei einer gesamten Zahl von rund drei Millionen Internet-Rechnern.13

Umso wichtiger war es nun, das WWW so einfach wie möglich zugänglich zu machen. Tim O’Reilly entwickelte dabei das Produkt »Internet in a Box«, welches den privaten Nutzer dabei unterstützen sollte, zu Hause Zugang zu erhalten. Es wurde jedoch überflüssig, da nun viele Internet-Service-Provider mit auf den Zug sprangen und den Eintritt als Komplettpaket ermöglichten. Dass Software und Service nun kommerzialisiert angeboten wurden, war ein bedeutender Schritt, da viele Menschen kein Interesse an der Nutzung haben würden, wenn sie nicht sicher sein konnten, dass alles Nötige von einem Unternehmen inklusive Support angeboten wird.14

Scheitern nicht ausgeschlossen

Trotz der wachsenden Zahl der Nutzer gab es schon 1993 erste Anzeichen dafür, dass das Web sich in einzelne Fraktionen aufteilt: In kommerzielle und akademische, freie und kostenpflichtige. Das würde Tim Berners-Lee ursprünglichem Ansatz widersprechen, ein universell zugängliches Hypertext-Medium für den Informationsaustausch zu sein.15 Auch 1994 hätte das Web laut ihm noch immer verschwinden oder von einem anderen System ersetzt werden können, noch immer hätte es zersplittert oder sein Wesen so sehr verändern können, dass es nicht mehr als universelles Medium existiert.16 Ein wichtiger Schritt war hier, dass Tim Berners-Lee das Web nicht sich selbst überlassen und beispielsweise mit monetärem Vorteil jeden Job seiner Wahl angenommen hat. Sondern sich weiter für seine Vision eingesetzt hat. Das W3C zu gründen und aus ihm heraus – gänzlich konzentriert auf die Sache – zu agieren, war hier ein wichtiger Schritt.17 Das Web selbst füllte sich zunehmend mit den verschiedensten Menschen, Organisationen und Unternehmen und das Konsortium würde gleichermaßen gemischt aufgestellt sein. Es sollte das »Web des Lebens« aufrechterhalten.

Money, Money, Money!

Ein weiterer entscheidender Einschnitt war der Börsengang von Netscape im August 1995. Nach nur einem Tag an der Börse war das Unternehmen 4,4 Milliarden Dollar wert und Ende 1996 verzeichnete das Unternehmen Einnahmen von 346 Millionen Dollar. Auf einen Schlag war die Botschaft klar: Das Web ist ein bedeutender Markt geworden, auf dem sich viel Geld verdienen lässt.18

Häufig wurde Tim Berners-Lee mit der Frage konfrontiert, ob ihn das sauer machen würde, dass man nun für einige Web-Angebote Geld zahlen müsste. Für ihn war die Community, die für freie Software sorge zwar fundamental und er sieht sie als Basis der Kreativität. Doch gleichermaßen sah er die partielle Kommerzialisierung als wichtigen Meilenstein für den Erfolg des Webs, ohne die das ganze Konzept nicht aufgegangen wäre. Um ein universelles Medium zu werden, musste es jede Informationen und Verlinkung zulassen. Das bedeutet, dass man kommerzielle Angebote nicht einfach ausschließen durfte.19 Zudem sieht er die Universalität auf jeder Ebene, die auch in der realen Welt existiert. Es musste auf verschiedenen Wegen mit verschiedenen Gruppen verschiedener Größen an verschiedenen Orten des täglichen Lebens funktionieren. Ob zu Hause, im Büro, Schulen, Kirchen, Ländern, Kulturen, etc. Informationen müssten jede soziale Grenze durchbrechen können.20 Dementsprechend war auch die Sorge, dass der bislang von Akademikern als offen und frei verstandene Informationsraum, von Spam-Mails und Werbung überflutet wird zwar verständlich, aber unbegründet.21

Ein Brösel des Kuchens

Während im Jahr 1996 bereits die erste Botschaft des »großen Geldes« versandt wurde, wurden die meisten Dinge noch immer von purer Aufregung und Euphorie angetrieben. Erst 1998 wurde das Web zum Schauplatz des großen Geschäfts und rückte auch in das Interesse der Regierung. Es wuchs der Wunsch das Web zu kontrollieren und jeder mischte sich ein, wo er nur konnte. Gegen Microsoft lief ein Kartellverfahren, der Wert der Internetfirmen stieg und es gab den sogenannten »Kampf der Portale« von Mammut-Webseiten wie Yahoo!, Dienstleister wie AOL oder Anbietern von Inhalten wie Disney.22 Jeder wollte das größte Stück des Kuchens abhaben. Vor allem die steigenden Marktwerte, der starke Expansionsdrang von Unternehmen und überhöhte Gewinnerwartungen führten letztlich 2000 zum Zerplatzen der großen Internetblase. Erwartungen wurden nicht erfüllt, Unternehmen waren nicht profitabel genug oder gingen bereits in Insolvenz. Während viele Kleinanleger und überschaubare Unternehmen zu viel Verluste einstrichen, steckten Teile der »New Economy« diesen Absturz jedoch weg und erreichten ganz neue Aufmerksamkeit. Dazu gehören beispielsweise amazon, eBay oder Google.

Kampf der Moral

Während die Unternehmen, um ihren Platz im Web kämpften, stemmten sich verschiedenste Gruppen – sei es mit religiösen Hintergrund oder z. B. Elterninitiativen – gegen verwerfliche oder schädliche Inhalte im Web.23
Es gab zwar verschiedene Ansätze das Problem zu lösen, doch zum einen stellte sich die Frage nach der Legitimität von Zensur.24 Zum anderen hätte eine Filterung von beispielsweisen pornographischen Inhalten teilweise auch dazu geführt, dass ungewollt andere Inhalte wie z. B. Informationen über Sexualerziehung oder Brustkrebs verbannt worden wären. Ohnehin sind Betrug und Kinder-Pornographie auch im realen Leben strafbar25 – dementsprechend müssten Gesetze nach Handlungen beschrieben werden, nicht in Bezug auf eine einzelne Technologie.26

Verformte Gesellschaft

Natürlich musste sich das Konsortium durchaus über die Auswirkungen auf die Gesellschaft, welche durch das Web geformt wird, Gedanken machen.27 So schreibt Berners-Lee, dass wir alle sicherstellen müssen, dass die Gesellschaft, die wir mit dem Web aufbauen, die von uns beabsichtigte ist. Weiter, dass sie in vielen ethischen, rechtlichen und sozialen Fragen zurückbleiben kann, wenn sich die Technologie zu schnell entwickelt.28 Letztendlich war es aber Aufgabe der Technologie bzw. des Mediums, technische Mechanismen anzubieten und nicht sozialpolitisch zu agieren. Technologie muss losgelöst davon sein, die Welt beherrschen zu wollen.29 Das betrifft unter dem Strich viele weitere Bereiche wie z. B. die Meinungsfreiheit, Privatsphäre oder geistiges Eigentum.30

Um die Gesellschaft zu schützen, sollten wir zudem vorsichtig sein, Dinge zu tun, nur weil sie möglich sind. Die Tatsache, dass es sehr kostengünstig machbar wäre, über politische Fragen im Web abzustimmen, bedeutet nicht, dass wir zwingend von einer repräsentativen zur direkten Demokratie wechseln müssen.31

Ferner hält Berners-Lee es für wichtig, dass das Web Parallelität zulässt. Das menschliche Gehirn übertrifft den Computer in seiner Parallelverarbeitung und auch die Gesellschaft löst die Probleme parallel. Jeder sollte daher in der Lage sein, Arbeiten zu veröffentlichen und zu kontrollieren, wer Zugang zu dieser erhält. Es sollte dabei keine Struktur oder Beschränkungen geben, die irgendeine Form von Idee ausschließt.32
Weiter können viele soziale Prozesse besser maschinell durchgeführt werden: Die Computer sind stets verfügbar, ohne Vorurteile und ohnehin würde keiner diese Systeme verwalten wollen.33

Abschließend ist es aus heutiger Sicht keine Überraschung, dass die Gesellschaft massiv vom World Wide Web verformt wurde. Unternehmen und Nationen wurden zuvor durch geographische Grenzen gebildet und das Web hat uns aus dem zwei-dimensionalen Raum katapultiert.34 Entfernungen sind nichtig geworden und die gesellschaftlichen Probleme sind zum Teil sicher andere geworden.
Doch obwohl wir nun von fast drei Jahrzehnten World Wide Web sprechen, scheinen viele Probleme, die Tim Berners-Lee schon 1999 beschreibt, nach wie vor zu bestehen. Noch immer herrschen riesige Diskussion über Datenschutz und Privatsphäre, noch immer landen unzählige illegale Inhalte im World Wide Web und noch immer – oder durch die Masse gerade jetzt – ist es unmöglich Inhalte zu »kuratieren«. Die weiteren Fragen, die daraus entstehen sind die, wer überhaupt das Recht hätte Inhalte zu zensieren oder wie Rechte generell durchzusetzen sind. Nimmt man Facebook als bekanntes Beispiel, wird einem bewusst, wie schwierig die Lage zu sein scheint. Grundrechte wie das »Briefgeheimnis« werden völlig missachtet und in vielen weiteren Punkten handelt Facebook entgegen dem deutschen Gesetz. Zum einen ist es ein massives Problem, dass das Web international ist, während es nichtsdestotrotz geographische Grenzen mit Gesetzen für diesen begrenzten Raum gibt. Zum anderen ist fraglich, wie solche limitierten Gesetze durchsetzbar wären. Als extremste Form könnte Facebook in Deutschland nicht verfügbar sein bis sich die Plattform an die Gesetze hält und die Rechte der Bürger anerkennt. Doch der Aufschrei wäre groß und ein Argument wäre, dass man immerhin selbst entscheiden kann, ob man Rechte abtritt – was wir immerhin tagtäglich tun. Noch immer scheint es so, als könnte man die Probleme, die im World Wide Web auftauchen, nicht in den Griff kriegen. Zudem ist es aus meiner Sicht so gut wie ausgeschlossen sämtliche Straftaten zu verhindern und auszuschließen. Immerhin ist das Web nicht mehr nur ein Spiegel der Gesellschaft, sondern ein Werkzeug, das wir nicht nur nutzen, sondern durch dass sich unser komplettes Leben verändert hat. Ein Werkzeug, das längst nicht nur ein Medium ist, in das wir bewusst eintauchen, sondern ein täglicher Begleiter. Das uns ständig umgibt und dessen Grenzen zur »realen« Welt verschwinden. Ein großer Kosmos informationeller Entitäten, dessen gesamtes Dasein grundsätzlich überdacht werden müsste.

Auf dieser Basis entstand mein ursprünglicher Titel »Digitale Primaten«. Zwar gehören auch Menschen zu den Primaten, aber im allgemeinen Sprachgebrauch klingt Primaten etwas rückständig. Aus meiner Sicht hinken wir noch immer der Technologie hinterher und sollte sie sich weiter so schnell entwickeln – was ich vermute – wird der Abstand größer und größer. Daher gilt es, so schnell wie möglich Lösungen zu finden, um das Zusammenleben zwischen Mensch und Maschine anzunähern und mit so wenig Hürden wie möglich zu gestalten.

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 4.
  2. Vgl. Ebd., S. 45.
  3. Vgl. Ebd., S. 46.
  4. Vgl. Ebd., S. 48.
  5. Vgl. Ebd., S. 56 f.
  6. Vgl. Ebd., S. 59.
  7. Vgl. Ebd., S. 82.
  8. Vgl. Ebd., S. 95.
  9. Vgl. Ebd., S. 99.
  10. Vgl. Ebd., S. 108.
  11. Vgl. Ebd., S. 80.
  12. Vgl. Ebd., S. 75.
  13. Vgl. »Chronologie des Internets« in: »Wikipedia, Die freie Enzyklopädie«, Stand: 3.3.2017, URL: https://de.wikipedia.org/w/index.php?title=Chronologie_des_Internets&oldid=173334077, abgerufen am 9.3.2017.
  14. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 80 f.
  15. Vgl. Ebd., S. 76.
  16. Vgl. Ebd., S. 83.
  17. Vgl. Ebd., S. 84 f.
  18. Vgl. Ebd., S. 106.
  19. Vgl. Ebd., S. 107.
  20. Vgl. Ebd., S. 164.
  21. Vgl. Ebd., S. 107.
  22. Vgl. Ebd., S. 124.
  23. Vgl. Ebd., S. 124.
  24. Vgl. Ebd., S. 113.
  25. Vgl. Ebd., S. 135 f.
  26. Vgl. Ebd., S. 131.
  27. Vgl. Ebd., S. 110.
  28. Vgl. Ebd., S. 123.
  29. Vgl. Ebd., S. 137.
  30. Vgl. Ebd., S. 124.
  31. Vgl. Ebd., S. 174.
  32. Vgl. Ebd., S. 203.
  33. Vgl. Ebd., S. 172.
  34. Vgl. Ebd., S. 200.
Abbildungen
  1. Titelbild: Foto von Geni: »Photo of the NeXTcube used as the first web server. The label reads ›This machine is a server. DO NOT POWER IT DOWN!!‹. On display at the science museum london.«, Stand: 13.1.2015, via Wikimedia Commons, abgerufen am 13.3.2017, Lizenz: CC BY-SA 4.0 oder GFDL.

In Pieces: Hinter den Kulissen

Bereits Mitte letzten Jahres habe ich das Projekt »In Pieces« vorgestellt. Seitdem möchte ich mich etwas näher mit dem technischen Hintergrund auseinandersetzen, da mich das Projekt nachhaltend begeistert hat und ich es sehr interessant finde, dass es basierend auf CSS umgesetzt wurde.

Bereits Mitte letztens Jahres habe ich die interaktive Ausstellung »In Pieces« von Bryan James vorgestellt. Damals hatte ich fälschlicherweise noch den Titel »Species in pieces« verwendet.
Seitdem möchte ich mich etwas näher mit dem technischen Hintergrund auseinandersetzen, da mich das Projekt nachhaltig begeistert hat und ich es sehr interessant finde, dass es basierend auf CSS umgesetzt wurde.

Neben der Dokumentation, die auf der Projektseite selbst zu finden ist, bin ich auf »The Making Of ›In Pieces‹: Designing an Interactive Exhibition With CSS Clip Paths« auf Smashing Magazine gestoßen. Hier erklärt Bryan James ausführlich seine Vorgehensweise und auf welche Probleme er während des Prozesses gestoßen ist. Da die Dokumentation sowie das Making Of sehr detailliert sind, möchte ich den technischen Hintergrund nicht einfach wiedergeben, sondern lediglich die für mich spannenden Punkte herausgreifen.

Die Outlines des Pfeilgiftfrosches in Illustrator
Die Outlines des Pfeilgiftfrosches in IllustratorI

Zunächst finde ich es erstaunlich, dass die Polygone aus denen die Tiere zusammengesetzt sind mit der CSS-Eigenschaft clip-path generiert wurden. Ich bin mehr Designerin als Entwicklerin, so dass mir das breit gefächerte Verständnis fehlt. Jedoch war meine Vermutung die, dass mit SVG-Grafiken gearbeitet wurde, die dann via Code verändert und bewegt werden. Zur Erstellung der Formen stellt Bryan James das Tool Clippy » vor. Mit dieser Browseranwendung können eigene sowie vorgefertigte Masken ausgewählt werden. Der dazugehörige Code erscheint dabei direkt am unteren Rand des Browsers. Schade finde ich, dass man den Code nicht direkt im Browser ändern kann, um die erstellte Form selbst noch einmal im Detail zu ändern. Zwar ist ein klickbares Logo von Codepen zu sehen, dessen Sinn erschließt sich mir aber leider nicht ganz, da sich nichts ändert oder öffnet. Davon abgesehen, ist es aber ein einfaches, schönes Tool, um visuell die Formen zu erstellen. Den Code kann man nachträglich immerhin selbst ändern, so dass ich das nicht als sehr großen Nachteil empfinde.

Als weitere spannende Lösung stellt James eine Funktion vor, die ermöglicht die prozentualen Werte eines Punktes auszulesen. Er nutzt eine PNG-Datei als Unterstützung und durch einen Klick wird ein Fenster mit den Daten des jeweiligen Punkts zum Kopieren ausgegeben. Die Funktion ist im Making Of zu finden.

Aus grafischer bzw. konzeptioneller Sicht finde ich es zudem überraschend, dass die 30 Tiere jeweils aus etwa 30 Polygonen bestehen. Das war mir im Vorfeld nicht bewusst bzw. habe ich nicht darauf geachtet.

Eine weitere bemerkenswerte Herangehensweise sehe ich in der Maskierung von Bildern mit Zahlen durch die Polygone als Hilfestellung. Eine simple Methode, um die Ränder der Formen hervorzuheben, um sie anschließend zueinander passend zu verändern. So können feine Linien vermieden werden, die zwischen den Gebilden entstehen, wenn sie exakt aufeinander liegen.

Visuell ansprechend finde ich außerdem den von ihm verwendeten und erwähnten Schimmer-Effekt. Generell bin ich kein Fan von Schimmern, Schatten oder beispielsweise Verläufen. Doch der Einsatz im Web kann bei dosierter Anwendung sehr reizvoll sein. Im Vergleichsbild seiner Grafiken sieht man deutlich, dass sie durch den Schimmer-Effekt sehr viel hochwertiger wirken.

Schlussendlich finde ich es großartig, dass Bryan James das Projekt und den Prozess so ausführlich dokumentiert. Einen Einblick in die Arbeitsweise und die Problemlösungen machen deutlich, wie das große Ganze Schritt für Schritt und Hürde für Hürde gewachsen ist. Dass die Arbeit beinahe wegen zu großer Probleme beendet wurde, motiviert zudem sich an mancher Stelle weiter durchzubeißen. Denn das Ergebnis finde ich nach wie vor so imposant, dass es Mut macht dem ein oder anderen Hindernis zu trotzen. Zudem inspiriert mich die interaktive Ausstellung so sehr, dass ich mich nun mit mehr technischem Verständnis, selbst an einer erstmaligen Gestaltung durch Polygone versuchen möchte.

Abbildungen
  1. James, Bryan: »The Making Of ›In Pieces‹: Designing an Interactive Exhibition With CSS Clip Paths«, Stand: 2.6.2015, URL: https://www.smashingmagazine.com/2015/06/the-making-of-in-pieces/, abgerufen am 2.3.2017.

A is for Albert

»A is for Albert» von Studio Lovelock ist ein kleines Nebenprojekt, dass alle Buchstaben des Alphabets in Form einer Buchstabiertafel darstellt. Ich finde das Projekt grafisch ansprechend, was auch der Hauptgrund dafür ist, dass es in meiner Dokumentation auftaucht

»A is for Albert« von Studio Lovelock ist ein kleines Nebenprojekt, dass alle Buchstaben des Alphabets in Form einer Buchstabiertafel darstellt. Jeder Buchstabe erhält ein passendes Wort, meiner Recherche nach jedoch unabhängig von der tatsächlichen Buchstabiertafel der englischen Sprache. Die Buchstaben werden durch grafische Grundformen dargestellt und durch eine kurze Animation zusammengebaut.

A is for Albert | Studio Lovelock
Die Buchstaben K und LII

Ich finde das Projekt grafisch ansprechend, was auch der Hauptgrund dafür ist, dass es in meiner Dokumentation auftaucht. Inhaltlich ist es selbstverständlich überschaubar und liefert – außer möglicherweise für Kinder – keinen Mehrwert. Ich finde Nebenprojekte dieser Art nichtsdestotrotz gut und wichtig. Zum einen motivieren sie beispielsweise mit Technologie und Grafik zu experimentieren. Zum anderen machen mir selbst die inhaltlich einfachsten Webseiten Freude, insofern sie ansprechend umgesetzt sind.

Abbildungen
  1. Titelbild: Eigener Screenshot; Studio Lovelock: »A is for Albert«, URL: http://www.aisforalbert.com/, abgerufen am 28.2.2017.
  2. Eigener Screenshot; Studio Lovelock: »A is for Albert«, URL: http://www.aisforalbert.com/, abgerufen am 28.2.2017.

Struktureller Aufbau des Webs und die Koexistenz von Mensch und Maschine

Nach meiner ersten Auseinandersetzung mit Tim Berners-Lees Buch, möchte ich im folgenden weiteren Gedanken nachgehen. Dabei geht es unter anderem um den Aufbau des Webs, welchen ich vor allem strukturell näher betrachten möchte. Zudem finde ich den Ansatz eines universellen Informationsraums, in dem Mensch und Maschine harmonisch koexistieren sehr faszinierend.

Nach meiner ersten Auseinandersetzung mit Tim Berners-Lees Buch (Die Vision eines Visionärs »), möchte ich im folgenden weiteren Gedanken nachgehen. Dabei geht es unter anderem um den Aufbau des Webs, welchen ich vor allem strukturell näher betrachten möchte. Zudem finde ich den Ansatz eines universellen Informationsraums, in dem Mensch und Maschine harmonisch koexistieren sehr faszinierend.

Hypertext als non-lineare Grundlage

Während das Internet grundsätzlich nur das infrastrukturelle Fundament für das World Wide Web bildet, basiert die Kernidee des World Wide Webs auf Hypertext. Laut Berners-Lee war seine Aufgabe lediglich beides zu »verheiraten«.1 Nachdem es zuvor schon ähnliche Konzepte gab, wurde der Begriff Hypertext im Jahr 1965 von Ted Nelson geprägt. Zum einen schrieb Ted Nelson von »Literarischen Maschinen«: Von Computern, die dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren.2 Zum anderen ist an dieser Stelle wichtig zu wissen, dass es sich bei Hypertext um einen dynamischen Text handelt, dessen einzelne Bestandteile durch Querverweise vernetzt sind. Dieser enzyklopädische Ansatz ist fundamental für die Entwicklung des World Wide Webs und sein non-lineares Format.

Auf Grundlage dieser Struktur, entwickelt Tim Berners-Lee den Vorläufer des World Wide Webs »Enquire«, das auf Knoten (Nodes) basiert, die – der Reihe nach – miteinander verlinkt sind. Er vergleicht das Software-Projekt mit dem menschlichen Gehirn, welches gleichermaßen netzartig funktioniert und zufällige Assoziationen zulässt.3 Dabei sind die Verbindungsmöglichkeiten unbegrenzt und zuvor nicht berücksichtigte Verbindungen können sichtbar werden.4 Diese Unbeschränktheit ist eine Voraussetzung dafür, dass das Web als universelle Resource dienen kann.5

Hyperspace

Laut Tim Berners-Lee ist das Web kein physisches »Ding«, sondern ein Raum in dem Informationen existieren können.6 An späterer Stelle nennt er diese Hypertext-Umgebung »Hyperspace«.7 Es war essenziell, dass Berners-Lee etwas schafft, das keine komplette Umstrukturierung der vorherigen Arbeit sowie Umformatierung sämtlicher Daten verlangt. Ihm war wichtig ein System zu kreieren, welches für jeden akzeptabel ist und mit so wenig wie möglich Regeln bzw. Beschränkungen auskommt.8 Denn nur dann, wenn Menschen selbst in der Lage sind Informationen einzuspeisen und Informationen zu verbinden,9 kann dieser universelle Informationsraum entstehen. Und nur was in diesem Informationsraum besteht, ist von informationellem Wert. Das »World Wide Web Consortium« selbst handelt dabei nach der Maxime, dass alles, was nicht in diesem Hyperspace – im Web – vorhanden ist, nicht exitierst.10

Das erinnert mich zum einen an Luciano Floridis Blick auf die Infosphäre (Zwischen Realität und Fiktion »), welche jedoch auch Menschen als informationelle Wesen mit in diese Sphäre aufnimmt. Zum anderen an Felix Stalders Betrachtung des raumzeitlichen Horizonts (Neuer Raum – neue Zeit: Neu denken »). Stalder beschreibt dabei, dass alles, was nicht »hier« ist, unerreichbar und alles, was nicht »jetzt« ist, verschwunden ist.
Zudem sehe ich in Bezug auf die netzartige Struktur einen Zusammenhang zu Marshall McLuhan, welcher von der Auflösung von Raum und Zeit spricht, sowie die Veränderung unserer westlich geprägten, sequentiellen Denkweise voraussagt (Das globale Dorf – Raum, Zeit und Dynamik »). Hier sehe ich vor allem das World Wide Web als einschneidendes Medium, welches als non-lineares Format unsere Gewohnheiten grundsätzlich verändert. Hier fände ich spannend, inwiefern nachfolgende Generationen non-linear geprägt werden. Meine Generation (Jahrgang 1986) ist noch sehr sequentiell aufgewachsen und in das Medium Web reingewachsen. Zudem halte ich unsere aktuelle Lebenswelt noch immer für sehr linear ausgelegt.

Human-Computer-Interaction und die Verschmelzung zu einem großen Informatiosnraum

Um das World Wide Web nicht nur als Medium zu sehen, in das man »einsteigen« kann, ist die Zugänglichkeit enorm wichtig. Für Berners-Lee war der Zugang noch sehr umständlich und so hatte er schon damals Ideen, welche für uns heute eine Selbstverständlichkeit sind. Mehrere Minuten warten bis der Computer hochgefahren ist, um sich dann über die Telefonleitung ins Netz einzuwählen, nahm einfach viel zu viel Zeit in Anspruch. Er träumte davon, dass Computerbildschirme immer erreichbar sind, wenn man sie benötigt und hatte die Idee von sofortiger und ständiger Verfügbarkeit.11 Er hat bereits damals die Vorstellung, dass der Computer ein ständiger Begleiter und gutes Werkzeug darstellt, um aufkommende Ideen sofort festzuhalten und sie nicht zu verlieren.12 Zwar gibt es noch immer Leute, die weder Smartphone noch Daten-Flat besitzen, doch im Großen und Ganzen ist genau dieser Fall eingetreten. Das Smartphone ist als kleiner Pocket-Computer ständiger Begleiter vieler, die an den meisten Orten auch durchgehend online sind. Das ist auch die Onlife-Erfahrung von der Floridi spricht (Von Loops und der Hyper-Realität »): Die Unterscheidung von on- und offline wird es zukünftig kaum noch geben.

Eine weitere Selbstverständlichkeit ist, dass Technologie heute zunehmend transparenter wird. Das sieht Berners-Lee als Voraussetzung für den intuitiven Umgang mit ihr. Er denkt diese Transparenz jedoch noch weiter: Computer und Netzwerke sollten seiner Ansicht nach völlig aus dem Weg gehen, da es letztendlich unwichtig ist, wo Information gespeichert wird. Die Daten und die Werkzeuge, um auf sie zuzugreifen sollten unabhängig voneinander sein – er nennt das das Konzept der Ortsunabhängigkeit. Ob Hypertext oder lokaler Ordner – beides sind für ihn gleichermaßen Informationen. Er ist auch der Meinung, dass Dateinamen verschwinden müssen und jede Datei eine andere Art von URL erhalten sollte.
Weiter kann er sich vorstellen, dass URLs komplett verschwinden und man nur noch Hyperlinks sieht.13

Diesen Ansatz halte ich für spannend sowie in seiner Argumentation richtig. Eine Vorstellung davon wie das aussehen könnte, habe ich jedoch nicht. Hierfür müsste sich die komplette Ordnerstruktur auflösen, an der wir in unserer analogen Denkweise festhalten. Grundsätzlich wäre dieser Ansatz genau der richtige, um Daten nicht selbst vorzusortieren, sondern diese Arbeit den »Verbindungen« und einer anderen Art der Kategorisierung zu überlassen. Jedoch stelle ich mir die Sortierung insofern schwierig vor, dass beispielsweise bei der grafischen Arbeit auf lokale Daten zugegriffen werden muss. Zum einen werden dabei nicht alle möglichen Suchergebnisse über dieses Thema oder den Kunden benötigt, zum anderen ist hier eine zeitliche Abfolge in der Dateistruktur sehr wichtig. Zudem kann ich mir vorstellen, dass sich die grafische Nutzeroberfläche, die sehr intuitiv angelegt ist, dadurch grundlegend ändert.

Der Begründer des World Wide Webs sah das Web selbst noch nicht als universellen Informationsraum an. Daten sind auf verschiedenste Art und Weise getrennt voneinander gespeichert und oft nicht in Beziehung gesetzt. Hier kommt das semantische Web ins Spiel, welches auch als Web 3.0 bezeichnet wird. Dabei geht es darum, maschinenlesbare Formate zu nutzen, um den Algorithmen zu ermöglichen, nicht nur stichwortartige, sondern auch kontextuale Zusammenhänge erschließen zu können. Als grundlegenden Baustein nennt er RDF, das Resource Description Framework, das auf XML basiert und logische Aussagen über Dinge trifft. Er nennt das Beispiel, dass durch logische Schlussfolgerungen maschinell erkannt werden kann, dass »Mittlere Tagestemperatur« dasselbe wie »Tagesdurchschnittstemperatur« bedeutet. Das Marktforschungsunternehmen Gartner vermutet in einer Präsentation aus dem Jahr 2007, dass 2017 die meisten Webseiten mit einer Form von semantischem Hypertext ausgestattet sind.14 Inwieweit das semantische Web tatsächlich da ist, kann ich momentan aber weder beurteilen noch sicher herausfinden.

Das semantische Web wird uns dabei helfen, die unzähligen Informationen aus dem World Wide Web zu filtern – ohne maschinelle Hilfe wäre das für uns Menschen zwischenzeitlich unmöglich. Tim Berners-Lee ist davon überzeugt, dass der Computer uns bei der Lösung großer analytischer Probleme helfen wird und hält es für wichtig, dass das Web den Menschen dabei unterstützt, sowohl intuitiv als auch analytisch zu sein. Unsere Gesellschaft benötigt beide Funktionen.15
Zudem ist er sich sicher, dass die Menschheit durch die Zusammenarbeit mit Maschinen nur profitieren kann. Er nennt das World Wide Web als Ort, wo Mensch und Maschine in einer idealen, kraftvollen Mischung koexistieren werden.16
Diese Ansicht teil auch Michael Dertouzos in seinem Vorwort. Er glaubt entgegen vieler Menschen, die davon überzeugt sind, dass Technologie uns entmenschlicht, dass sie ein untrennbares Kind der Menschheit ist. Mensch und Maschine müssen für echten Fortschritt Hand in Hand gehen, ohne dass einer als Diener des anderen handelt.17
Mit dieser Thematik habe ich mich bereits in »Die 4. Revolution« befasst und auch ich bin überzeugt davon, dass wir mit der richtigen Nutzung der jeweils stärkeren Potenztiale eine völlig neue Entwicklungsstufe erreichen und eine wunderbare Koexistenz von Mensch und Maschine führen können.

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 6.
  2. Vgl. Ebd., S. 5.
  3. Vgl. Ebd., S. 10.
  4. Vgl. Ebd., S. 3.
  5. Vgl. Ebd., S. 99.
  6. Vgl. Ebd., S. 36.
  7. Vgl. Ebd., S. 206.
  8. Vgl. Ebd., S. 15.
  9. Vgl. Ebd., S. 201.
  10. Vgl. Ebd., S. 163.
  11. Vgl. Ebd., S. 158 f.
  12. Vgl. Ebd., S. 159 f.
  13. Vgl. Ebd.
  14. Vgl. Gartner Report: »Finding and Exploiting Value in Semantic Web Technologies on the Web« 2007, in: Herman, Ivan: »What is being done today?«, Stand: 14.12.2009, URL: https://www.w3.org/2009/Talks/1214-Darmstadt-IH/Applications.pdf, S. 3, abgerufen am 18.2.2017.
  15. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 201.
  16. Vgl. Ebd., S. 158.
  17. Vgl. Ebd., S. IX.

Vision eines Visionärs

Zur Recherche über die Entwicklung des World Wide Webs dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee, dem Begründer höchstpersönlich. Der Name Tim Berners-Lee ist fest mit dem World Wide Web verwoben, doch wie viel Anteil er tatsächlich an der Entwicklung dieses Mediums besitzt, wird mir erst jetzt bewusst. Er ist nicht der gewürdigte Mann, der am Ende einer langen Kette von Prozessen steht. Er ist der Mann, der mit einer großartigen und weltveränderten Vision am Anfang, in der Mitte und am Ende dieser Kette Platz nimmt.

Zur Recherche über die Entwicklung des World Wide Webs dient mir »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web« von Tim Berners-Lee – dem Begründer höchstpersönlich. Der Name Tim Berners-Lee ist fest mit dem World Wide Web verwoben, doch wie viel Anteil er tatsächlich an der Entwicklung dieses Mediums besitzt, wird mir erst jetzt bewusst. Er ist nicht der gewürdigte Mann, der am Ende einer langen Kette von Prozessen steht. Er ist der Mann, der mit einer großartigen und weltveränderten Vision am Anfang, in der Mitte und am Ende dieser Kette Platz nimmt.
In seinem Idealbild eines universellen, »einzigen, globalen Informationsraums«1 ist alles potenziell mit allem verbunden.2 Er liebte die Vorstellung davon, dass »ein Stück Information wirklich nur dadurch definiert wird, womit und wie es verbunden ist«3. Aus seiner Sicht können dadurch völlig neue Relationen entstehen und Dinge zusammenkommen, die zuvor keine sichtbare Gemeinsamkeit hatten.4 Laut des Vorworts von Michael Dertouzos, dachte Tim Berners-Lee das Web als Medium, das in diesem gigantischen Informationsnetz menschliches Wissen und menschlichen Verstand kodifizieren würde.5

Generell begeistert ihn daran nicht nur die Idee, dass unzählige Informationen für jeden zugänglich sind, sondern auch, dass jeder daran teilhaben und sich selbst einbringen kann. Diese Begeisterung teilt er mit Ted Nelson, der schon zuvor von einer utopischen Gesellschaft geträumt hatte, in der alle Informationen von Leuten geteilt werden können, die sich auf Augenhöhe begegnen.6 Das Internet, das es längst vor dem World Wide Web gab, lässt zwar den Austausch von Daten zu. Für einen Laien sind die Hürden jedoch zu groß, um sich wirklich daran beteiligen zu können.7 Daher ist es für Berners-Lee eine Grundvorraussetzung, dass das Erstellen von Inhalten und Verlinkungen nicht nur machbar, sondern so einfach wie möglich ist. Zusätzlich setzt er voraus, dass das System komplett dezentralisiert aufgebaut sein muss, so dass ein Nutzer mit dem nötigen Equipment sofort und ohne Zugangserlaubnis »mitmachen« kann.8 Diese Dezentralisierung des Systems bedeutet für ihn zeitgleich, dass keine hierarchischen Strukturen vorherrschen dürfen und es niemanden gibt – weder eine Person noch eine Gruppe –, der das World Wide Web unter seine Kontrolle bringt.9

Ursprünglich dachte Berners-Lee an ein Web, dass das »reale«, nicht-virtuelle Leben widerspiegelt. Eine ungeahnte Folge ist die, dass Menschen durch das Web völlig neue Aktivitäten gefunden hatten. Sie fingen an zu schreiben oder zu malen, obwohl sie das zuvor nicht getan haben. Dadurch, dass sich das Web zum primären Raum für viele Aktivitäten etabliert hat, rät er dazu vorsichtig zu sein, um weiter eine gerechte und faire Gesellschaft zu ermöglichen.10

In seinem Buch zitiert der Begründer des Webs zudem eine Rede des südafrikanischen Vizepräsidenten, da er selbst seine Mission nicht besser in Worte fassen hätte können. Thabo Mbeki ruft dazu auf, die neue Technologie dafür zu nutzen sich selbst zu ermächtigen, sich über die Wahrheit der eigenen ökonomischen, politischen und kulturellen Situation zu informieren und sich selbst eine Stimme zu geben, die die ganze Welt hören kann.11

Diese Worte beschreiben wunderbar, wie dieses neue Medium als Werkzeug eines jeden genutzt werden kann. Zudem bin ich Tim Berners-Lee nicht einfach nur dankbar für ein Medium, das unser aller Leben bestimmt. Ich bin begeistert, wie er Schritt für Schritt das World Wide Web nach seiner Vorstellung gebaut hat. Ein Visionär, dessen damaliges finales »Werk« nicht nur das Endergebnis einer langen Evolution ist, sondern von Beginn an als Vision in seinem Kopf umherschwirrte.

Quellen
  1. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 4.
  2. Vgl. Ebd., S. 1.
  3. Ebd., S. 13.
  4. Vgl. Ebd., S. 37.
  5. Vgl. Ebd., S. VIII.
  6. Vgl. Ebd., S. 5.
  7. Vgl. Ebd., S. 18.
  8. Vgl. Ebd., S. 16.
  9. Vgl. Ebd., S. 80.
  10. Vgl. Ebd., S. 165.
  11. Vgl. Ebd., S. 102.

Technologie als Basis gestalterischer Möglichkeiten

Das World Wide Web ist noch jung und viele Technologien sind noch immer nicht ausgereift. Neue stehen dagegen schon in den Startlöchern und ich bin gespannt, wie sich einige Fragen zukünftig nochmal völlig neu stellen werden.

Innerhalb des Video-Tutorials »Learning HTML5 Video« auf lynda.com erläutert Tom Green in »A short history of web video« die Entwicklung von Videos im Web seit Mitte der 90er Jahre. Während schon nach 1995 die ersten Medienschnipsel in Form von Soundtracks oder Audio-Broadcasts ins Netz gelangten, kam das Video-Format erst zwischen 1996 und 2000 an.1 Sämtliche Unternehmen versuchten anschließend einen geeigneten Video-Player anzubieten und die für mich persönlich bekannteste Lösung war letztendlich ein Plug-In für den Adobe Flash Player.

Laut einer Statistik innerhalb des Artikels »Bye Bye Flash« von Mathias Brandt, nutzten 2011 immerhin noch 50 % aller Webseiten Flash.2

Fakten dieser Art finde ich insofern wichtig, dass ich es immer wieder erstaunlich finde, wie kurz die Geschichte des Webs ist und was tatsächlich erst in den letzten Jahren möglich wurde. Sich das immer wieder ins Gedächtnis zu rufen und seine eigene Denkweise dahingehend zu schärfen, finde ich essenziell, um ein Bewusstsein dafür zu entwickeln, wie sich das Web grafisch, inhaltlich und kulturell verändert hat und verändern könnte. Sämtliche Inhalte nehmen wir als selbstverständlich wahr, obwohl es die Technologie nach wie vor nicht zulässt, alle Inhalte völlig plattformunabhängig zu entwickeln. Je größer die technischen Möglichkeiten sind, umso befreiter kann man auch gestalten, selbst wenn dadurch kreative Umwege in den Hintergrund geraten könnten. Auf der anderen Seite werden die technischen Möglichkeiten auch auf das Bedürfnis der Schaffenden angepasst und evolviert. Daher gehe ich davon aus, dass sich das World Wide Web in den nächsten Jahren noch einmal massiv verändern wird. Zum einen kann man mit immer weniger Einschränkungen das Medium an sich noch besser nutzen, zum anderen stehen schon neue Technologien in den Startlöchern. Vor allem die Verbreitung von Voice Interfaces oder WebVR sehe ich als sehr spannend an, da sich hier die Frage nach grafischen Benutzeroberflächen nochmal völlig neu stellen könnte.

Quellen
  1. Vgl. Green, Tom: »Learning HTML5 Video«, »A short history of web video«, URL: https://www.lynda.com/HTML-tutorials/Up-Running-HTML5-Video/135356-2.html, TC: 00:00:10–00:02:30, abgerufen am 2.2.2017.
  2. Vgl. Brandt, Mathias: »Bye Bye Flash«, Infografik, URL: https://de.statista.com/infografik/3798/flash-nutzung-von-webseiten/, abgerufen am 2.2.2017.

Interaktive Karten mit Leaflet

In »Interaktive Karten« habe ich mich mit Lösungen für Karten auseinandergesetzt, die innerhalb von WordPress umsetzbar sind. In der weiteren Recherche möchte ich mich mit drei weiteren PlugIns bzw. Libraries auseinandersetzen.

In »Interaktive Karten« habe ich mich mit Lösungen für Karten auseinandergesetzt, die innerhalb von WordPress umsetzbar sind. In meiner weiteren Recherche fiel das angekündigte PlugIn »wp google maps« direkt raus, da mir die Möglichkeiten doch sehr begrenzt schienen.

Leaflet Map für WordPress sowie die ursprüngliche Library leaflet.js sind weiterhin interessant für mich. Für Leaflet spricht vor allem die Tatsache, dass es eine weit verbreitete Library ist. Das halte ich mit Blick auf den Support oder auch die Arbeit in der Community für ein sehr wichtiges Kriterium.
Zufällig bin ich bereits auf PlugIns für Leaflet.js gestoßen, die Ansätze meiner Ideen beinhalten. So z. B. Leaftlet.Instagram und Leaflet.Photo. Ersteres platziert Fotos aus dem Instagram-Stream direkt in der Karte, zweiteres platziert sie mithilfe von Geotagging. Während Smartphone-Fotos normalerweise schon getaggt sind, trifft das auf Bilder, die mit einer analogen oder digitalen Kamera ohne GPS-Empfänger gemacht wurden, nicht zu. Hier möchte ich noch recherchieren, ob die Metadaten nachträglich geändert werden können, so dass sie als getaggt zählen.

Die Informationen zu leaflet.js sowie deren Funktionen sind sehr umfangreich. Ich habe noch immer keine endgültige Wahl getroffen, jedoch möchte ich mich zwischen leaflet.js und WP Google Map Pro entscheiden. Die abschließende Entscheidung richtet sich nicht danach, wie umfangreich die Tools sind, sondern nach der Frage inwieweit meine Kompetenz ausreicht. Leaflet setzt im Vergleich sehr viele Kenntnisse voraus. An diesem Punkt stehe ich aber regelmäßig vor der Frage, inwiefern ich mich ausschließlich auf das Design konzentrieren und wie weit ich mich im Bereich Webentwicklung weiterentwickeln möchte.

Exkurs: WebSockets

Das Websocket-Protokoll dient der Kommunikation zwischen Client (Browser) und dem Server. Mit einem kurzen Exkurs möchte ich die wesentlichen Punkte verstehen. Sollte ich es innerhalb meines Masterprojekts benötigen, macht jedoch eine Kooperation aus meiner Sicht am meisten Sinn.

Das Websocket-Protokoll dient der Kommunikation zwischen Client (Browser) und dem Server. Die bidirektionale Kommunikation ermöglicht es, die Daten in Echtzeit abzurufen, da der Server nicht erst auf eine Anfrage reagiert, sondern im ständigen Austausch steht.

Durch ein Tutorial »WebSockets (using Socket.io) Tutorial #2 – Creating an Express App« versuche ich die Nutzung sowie die Funktionsweise besser zu verstehen. Die Installation über node.js wird hier zwar ausführlich erklärt, jedoch merke ich schnell, dass es mein Interesse tief in die Programmierung einzusteigen schnell übersteigt.

Ich bin grundsätzlich motiviert, das Thema auch von Entwicklerseite zu verstehen, doch möchte ich meine Prioritäten an anderer Stelle setzen. Da ich mir sicher bin, dass das nicht mein beruflicher Alltag der Zukunft sein wird, reicht es mir an dieser Stelle, die Funktionsweise von websockets im Wesentlichen zu verstehen. Sollte ich es innerhalb meines Masterprojekts benötigen, macht eine Kooperation aus meiner Sicht am meisten Sinn.

Interaktive Karten

Zur Zeit setze ich mich mit der Darstellung und Umsetzung interaktiver Karten auseinander, die man innerhalb von WordPress umsetzen kann. Dafür recherchiere ich PlugIns, die man möglicherweise verwenden kann.

Zurzeit setze ich mich mit der Darstellung und Umsetzung interaktiver Karten auseinander, die man innerhalb von WordPress umsetzen kann. Meine favorisierten PlugIns sind bisher WP Google Map Pro sowie Mapify.it.
In naher Zukunft möchte ich die Open-Source-Lösung Leaflet, wp google maps sowie Leaflet Map für WordPress genauer unter die Lupe nehmen.

Wichtig sind mir neben der individuellen Gestaltung der Karte, die Inhalte, die man bereits der Karte selbst entnehmen kann. Zum Beispiel möchte ich die Möglichkeit haben, ausgewählten Orten Bildergalerien hinzufügen zu können. Bisher habe ich keine eigenen Erfahrungen mit den PlugIns sammeln können, auf den ersten Blick scheint WP Google Map Pro aber sehr viel umfangreicher als Mapify zu sein. Zwar besitzt Mapify laut Beschreibung von Haus aus die Funktion Galerien anzuzeigen. Auf der anderen Seite kann man bei WP Google Map Pro unter anderem mit dem PlugIn ACF arbeiten, womit man theoretisch Galerien sowie unzählige andere Inhalte anzeigen lassen kann. Zudem werden Custom Post Types unterstützt, mit denen ich zur Unterscheidung der einzelnen Inhalte sehr gerne arbeite.

Die Darstellung kann bei letzterem durch snazzymaps beeinflusst werden, während man bei Mapify eigene Karten – ganz egal welcher Art – einbauen kann. Zwar besitzt WP Google Map Pro unzählige Funktionen von Routenführung über Street View bis zu den genannten Custom Post Types. Beim Testen der Demos fällt mir die Bedienung der Mapify-Karte jedoch deutlich einfacher, da sie sich mehr nach zeitgemäßen Web anfühlt. Man kann sicher auch die WP Google Map Pro mit mehr Dynamik ausstatten, jedoch möchte ich bei meiner aktuellen Recherche ausschließlich die Möglichkeiten in Betracht ziehen, die von Haus aus gegeben und in der Demo zu sehen sind.

Grundsätzlich gefällt mir das PlugIn WP Google Map Pro mit Blick auf die Funktionen deutlich besser. Einzig die Bedienbarkeit missfällt mir, so dass ich hier noch kein eindeutiges Ergebnis für mich gefunden habe. Diese Punkte werde ich im Vergleich mit den anderen oben genannten Lösungen besonders beachten und letztendlich werden mir wohl – trotz kostenpflichtiger PlugIns – nur ein Test und die eigene Erfahrung, die ich damit sammeln werde, weiterhelfen.

Abbildungen
  1. Titelbild: Eigener Screenshot; WP Google Map Pro: »Display Maps Using ACF (Advanced Custom Fields)«, URL: https://www.wpmapspro.com/example/maps-with-acf/, abgerufen am 2.1.2017.

Sketchisketch

Erst seit kurzem arbeite ich mit der SketchApp, welches bei mir – wie sicher bei vielen – Photoshop im Bereich Interface Design ablöst. Mit dem Tool arbeitet es sich nicht nur sehr viel effizienter, sondern vor allem die Webnähe sehe ich als eindeutigen Vorteil. Momentan sehe ich SketchApp klar vorne, jedoch frage ich mich, wie schnell und gut Adobe mit XD nachziehen wird.

Erst seit kurzem arbeite ich mit der SketchApp, welches bei mir – wie sicher bei vielen – Photoshop im Bereich Interface Design ablöst. Mit dem Tool arbeitet es sich nicht nur sehr viel effizienter, sondern vor allem die Webnähe sehe ich als eindeutigen Vorteil. Während man in Photoshop Ebene für Ebene anlegt, bearbeitet und im schlechtesten Fall später wieder Ebene für Ebene ändern muss, hält SketchApp einige Ansätze bereit, durch die die Arbeit sehr viel schneller zu erledigen ist.

So gibt es beispielsweise »Textstile«, die sehr nah am CSS sind. Damit kann man Stile für Elemente wie z. B. h1, h2, etc. anlegen und ihnen zuordnen. Vor allem im Hinblick auf spätere Abänderungen sieht man hier den großen Fortschritt gegenüber Photoshop.

Auffallend ist auch, dass die komplette Bearbeitungsleiste direkt auf die Arbeit im Web schließen lässt. So gibt es Borders, Shadows, Spacing oder Opacity. Alles Begriffe, die so auch im CSS auftauchen. Zwar können diese Eigenschaften auch in Photoshop angelegt werden, aber allein schon der Begriff »Kontur« anstelle von Border zeigt, dass die Software nicht primär für Interface Design entwickelt wurde, sondern nach der Ära von fireworks eher dafür missbraucht wurde.

Die Symbole sind für mich der größte Entwicklungsschritt. Man kann zentral Symbole anlegen, die zum einen dafür sorgen, dass man gewisse »Templates« für bestimmte Gestaltungselemente hat. Zum anderen können mit den Symbolen beispielsweise Zustände angelegt werden. Während man in Photoshop Zustände händisch oder maximal noch mit Ebenenstilen angelegt hatte, um sie dann umzustellen, kann man das bei SketchApp via DropDown ändern. Einmal richtig angelegt, kann ein Zustand z. B. Stück für Stück auf active oder inactive (oder jede Begrifflichkeit der Wahl) gestellt werden.

SketchApp arbeitet sehr eng mit Invision zusammen, was vor allem im Bezug auf Prototyping sehr hilfreich ist. So können die einzelnen Artboards bei Invasion hochgeladen werden und zu einem klickbaren Prototypen zusammengeschustert werden.

Insgesamt hat die Software auch eine ganze Reihe von guten PlugIns, die die Arbeit immens erleichtern. Allein schon PlugIns, die den Export für den Entwickler – inklusive assets – ermöglichen, helfen nicht nur der reibungslosen Übergabe, sondern auch dem Entwickler bei der späteren Arbeit.

Abschließend halte ich SketchApp für einen großen Fortschritt im Bereich Interface Design und bin sehr gespannt, ob Adobe XD das Ruder nochmal herumreißen kann. Im Moment scheint mir ersteres vorne zu liegen, doch bleibt es abzuwarten, was Adobe – mit sicher etwas mehr Budget – auf den Tisch zaubert.
Nach anfänglichen Umstellungsschwierigkeiten, habe ich doch sehr schnell in die Software gefunden und bin jeden Tag froh darüber, wie sehr meine Arbeit von SketchApp profitiert. Jetzt wenn man die Software kennt, fragt man sich, wieso es nicht schon viel früher diesen logischen Schritt gab.

UX Foundations: Research

Normalerweise finden Tutorials oder Kurse keinen Platz in meiner Dokumentation. Der Kurs »UX Foundations: Research auf lynda.com macht dabei eine Ausnahme, da er thematisch interessant für meinen Master sein könnte.

Normalerweise finden Tutorials oder Kurse keinen Platz in meiner Dokumentation. Der Kurs »UX Foundations: Research« auf lynda.com macht dabei eine Ausnahme, da er thematisch interessant für meinen Master sein könnte. Zu Beginn des Masters war es unsere große Aufgabe herauszufinden, was es überhaupt bedeutet zu forschen und uns selbst Methoden zu erarbeiten. Dafür habe ich mich zum einen mit dem Buch »101 Design Methods« sowie mit einzelnen Methoden im Fokus, z. B. den »Personas«, auseinandergesetzt.

Hier möchte ich nicht weiter auf bestimmte Methoden eingehen, sondern lediglich unkommentiert drei große Unterscheidungen festhalten, die Amanda Stockwell im Kurs trifft: quantitativ vs. qualitativ, Verhalten vs. Einstellung und moderiert vs. unmoderiert.

Die erste Kategorie ist sicher eine der bekannteren, da dies zwei große Unterscheidungsmerkmale in der Forschung sind. Quantitative Forschung zielt dabei auf numerische Daten, während die qualitative keine numerischen Daten hervorbringt. Beispiele für eine quantitative Vorgehensweise sind A/B-Tests oder Umfragen, die nicht meinungsbasiert sind. Die qualitative Seite fragt dabei nach dem Warum: Warum präferieren Nutzer das eine Produkt gegenüber dem anderen? Diese Art ist sehr stark von Subjektivität und Emotionen geprägt. Usability Tests oder Interviews sind Beispiele hierfür. Eine Kombination könnte in einer Umfrage stattfinden, wenn offene und geschlossene Fragen gestellt werden.1

Die zweite Unterscheidung zwischen Verhalten und Einstellung ist für mich die interessantere. Während bei ersterem Nutzer beobachtet werden und deren Verhalten bewertet wird, ist die Einstellung eine Frage der Meinung. Das bedeutet aber auch, dass Vorsätze oder Wünsche stark vom tatsächlichen Verhalten abweichen können, was wiederum keine zufriedenstellenden Ergebnisse für den Research im Bezug auf die Einstellung ergibt.
Ethnographische Studien, A/B Tests oder Eye-Tracking werden beispielsweise für das Verhalten, Umfragen oder Präferenztests für die Einstellung verwendet. Für letzteres wäre z. B. auch die Fragestellung nach den »Top XY« zuständig und wichtig. Das wäre über die Fragestellungen der Verhaltensforschung nicht abrufbar.2

Die letzte, eher uninteressante, Unterscheidung ist die zwischen moderierter und unmoderierter Forschung. Das bedeutet, wie vermutet werden kann, ob einzelne Methoden persönlich angewandt werden oder der Nutzer z. B. nur alleine einen Fragebogen ausfüllt.3

Quellen
  1. Vgl. Stockwell, Amanda: »UX Foundations: Research«, »2. Types of Research«, »Qualitative vs. quantitative research«, URL: https://www.lynda.com/User-Experience-tutorials/UX-Research-Fundamentals/439418-2.html, TC: 00:00:00–00:02:44, abgerufen am 14.12.2016.
  2. Vgl. Ebd., »Behavioral vs. attitudinal research«, TC: 00:00:00–00:01:50.
  3. Vgl. Ebd., »Moderated vs. unmoderated research«, TC: 00:00:00–00:01:38.

API – application programming interface

Zur weiteren Recherche mache ich einen kurzen Exkurs zum Thema API. Das »application programming interface« interessiert mich vor allem in Hinblick auf eine Nutzung von Daten in Medieninstallationen.

Zur weiteren Recherche mache ich einen kurzen Exkurs zum Thema API. Das »application programming interface« interessiert mich vor allem in Hinblick auf eine Nutzung von Daten in Medieninstallationen. Markus Kisons Projekt »Pulse« dient mir dabei als ursprüngliche Inspiration.

Grundsätzlich sind APIs Schnittstellen, die es ermöglichen, dass zwei Einheiten miteinander kommunizieren. Auf eine Anfrage erhält man über die API eine Antwort vom jeweiligen Server. Die Seite www.programmableweb.com gibt dabei einen guten Überblick, was APIs sind, aber auch einen ausführlichen Einblick, welche Anbieter solche Schnittstellen bereitstellen. Viele der bekannten APIs wie z. B. die Facebook oder Twitter API sind sogenannte Rest Apis – Rest steht dabei für representational state transfer.
Für mich sind vor allem Echtzeit-Daten interessant, da die Nutzung für eine Medieninstallation hier am spannensten ist. So könnten abstrakte Daten in einer Installation verständlich visualisiert werden.

Wie das im Detail funktioniert konnte ich leider noch nicht herausfinden, bin jedoch auf die weiteren Ressourcen streamdata.io, »WebSockets – Methods for Real-Time Data Streaming« und socket.io gestoßen. Ob mir das letztendlich weiterhilft, muss ich in den kommenden Wochen recherchieren und klären.

Real-Time Data Streaming

Eine weitere Möglichkeit des Real-Time Data Streaming bietet die Verwendung von WebSockets. Hier liefert Steve Schwartz einen guten, ersten Einblick.

Ein weiterer Fund in meiner Recherche bezüglich verwendbarer Technologien für eine Medieninstallation sind WebSockets. Neben der Tatsache, dass man das Wort mal gehört hat, sind mir WebSockets in ihrer Funktion gänzlich unbekannt. Eine auf den ersten Blick gute Zusammenfassung veröffentlicht Steve Schwartz auf seiner Seite, die ich zu Recherchezwecken durcharbeiten möchte: WebSockets.
Eine mögliche Engine könnte auf folgender Seite zu finden sein: socket.io.

application programming interface

Nach wie vor recherchiere ich bezüglich der Form und möglichen Technologie einer Medieninstallation . Während Markus Kisons Projekt »Pulse« unter anderem auf Processing und einer WordPress.com-API, stoße ich auch bei der Recherche regelmäßig auf die Verwendung von APIs, um Echtzeit-Daten auszulesen. Hierzu möchte ich in der kommenden Zeit weiterarbeiten und -recherchieren.

Nach wie vor recherchiere ich bezüglich der Form und möglichen Technologie einer Medieninstallation (Formsuche »). Während Markus Kisons Projekt »Pulse« unter anderem auf Processing und einer WordPress.com-API, stoße ich auch bei der Recherche regelmäßig auf die Verwendung von APIs, um Echtzeit-Daten auszulesen. Zwar ist mir die grundsätzliche Bedeutung und Nutzung von APIs bekannt, jedoch habe ich noch keine Erfahrung damit, in welcher Form sie in den eigenen Code eingearbeitet werden und in welcher Form, die Information wieder – aus technischer Sicht – ausgegeben werden kann. Aus diesem Grund möchte ich mich hier in der nächsten Zeit in die Nutzung von APIs einarbeiten, um solche möglicherweise in meinem Projekt nutzen zu können. Als erste, interessante Quelle finde ich folgende Seite, die eine kleine Übersicht über Real-Time-APIs liefert: Real Time APIs. Mit dieser Seite möchte ich mich erstmal grundsätzlich über diverse APIs informieren, um dann selbst mit den ersten zu experimentieren.

Die Sonnenfabrik

Im Rahmen eines Blockseminars waren wir mit der Hochschule in der Julia Stoschek Collection, Düsseldorf. Die aktuelle Ausstellung ist Number Thirteen.

Im Rahmen eines Blockseminars waren wir mit der Hochschule in der Julia Stoschek Collection, Düsseldorf. Die aktuelle Ausstellung ist Number Thirteen.

Obwohl ich Medieninstallationen spannend finde, überzeugt mich diese Ausstellung voller Medieninstallationen nicht. Ohne die Installationen verurteilen zu wollen, da es innerhalb von 1-2 Stunden natürlich schwierig ist einen Zugang zu den Werken zu kriegen und Hintergründe zu erfahren, fällt mein persönliches Urteil schlecht aus.
Einzig »In mere spaces all things are side by side I« von Morehshin Allahyari innerhalb des Ausstellungsteils »Missed Connections« zog mich in den Bann. Das Projekt setzt sich mit der Limitierung von Technologie in Entwicklungsländern auseinander und zeigt einen Chatverlauf, welcher das Scheitern einer Beziehung abbildet. Das Scheitern ist der schlechten Zugänglichkeit zum World Wide Web zuzuschreiben, da eine vernünftige Kommunikation unmöglich wird.
»Factory of the sun« von Hito Steyerl zeigt eine dystopische Vorstellung, bei der Menschen zukünftig tanzen, um Licht zu erzeugen. Insgesamt wurde mir dieses Werk zu groß angepriesen und der Raum unnötigerweise als Holodeck verkauft.

Möglicherweise liegt dieses Urteil an den Werken selbst, möglicherweise an meinem Verständnis bzw. teils Unverständnis für die Kunst. Ich schätze absolut Design-Arbeiten mit künstlerischem Einfluss. Jedoch missfallen mir im generellen Arbeiten, die man ohne das Lesen der Beschreibungstexte nicht mal annähernd versteht.

Ursprung der Codes: Die gesprochene Sprache

Die westliche Kultur befindet sich im großen Umbruch, ausgelöst durch die Fortschritte der Technologie. Veränderte Koden, verändern unsere Art zu denken grundlegend. Wie sieht die Zukunft aus?

In meinen vorherigen Beiträgen »Das globale Dorf – Raum, Zeit und Dynamik« sowie »Von der Kultur, die statisch wurde« setzte ich mich bereits mit der Tatsache auseinander, dass die Linearität das Denken in unserem Kulturkreis maßgeblich beeinflusst hat. Meine abschließende Erkenntnis war die, dass sich diese Linearität aufzulösen scheint und unsere Lebenswelt weniger festgezurrt und dynamischer wird.
Sicher wird die Zukunft unserer Kultur durchweg von Algorithmen bestimmt, die sehr wohl eindeutig sind. Jedoch wird das Denken des Menschen sehr viel flexibler sein und grundlegend verändert werden.

Vilém Flusser bringt in Bezug darauf beispielsweise vor, dass wir »nicht mehr Daten zu lernen haben, sondern das zweckmäßige Speichern, Abberufen und Variieren von Daten. Nicht mehr das Repertoire, sondern die Struktur von Systemen. Dieses Prozessieren von Daten, das bisher von der Notwendigkeit der Datenerwerbung gebremst war, heißt ›Kreativität‹, und es ist daher mit einer wahren Explosion der menschlichen Kreativität zu rechnen«1.

Dieser Ansatz Flussers ist vor 30 Jahren schätzungsweise revolutionär, heute im Jahr 2017 sind wir schon mitten im Umbruch. Die Denkweise in unserem Kulturkreis wird bereits auf das Verstehen von Strukturen getrimmt, während wir wissen, dass wir beispielsweise nichts mehr zwingend auswendig lernen müssen. Alles ist abrufbar, die Suchmaschine Google ist nur ein beispielhaftes Werkzeug hierfür. Man muss nicht mehr die Information selbst kennen, es genügt zu wissen, wie wir sie abrufen können. Diesen Ansatz habe ich bereits in diversen Beiträgen verfolgt und halte ihn nach wie vor für eine der grundlegendsten Veränderung unserer Zeit. Dieser Fortschritt der Technologie, unterstützt weiter die Aussage Flussers, dass jede Revolution technisch ist.2 Nicht irgendeine Ideologie, sondern die Technik veränderte unsere Lebenswelt und unser Denken in den letzten Jahrzehnten entscheidend.

Eine weitere maßgebliche Veränderung wird laut Flusser durch die Veränderung der Koden ausgelöst: »Die Veränderung wäre tiefgreifend, weil unser Denken, Fühlen, Wünschen und Handeln, ja sogar unser Wahrnehmen und Vorstellen, in hohem Grad von der Struktur jenes Codes geformt werden, in welchem wir die Welt und uns selbst erfahren. Wir sind ›westliche Menschen‹, weil unsere ›forma mentis‹ von der Linearität des alphanumerischen Codes ausgebildet wurde. Sollten unsere Kinder und Enkel die Welt und sich selbst mittels anders strukturierter Codes (etwa mittels technischer Bilder wie Fotos, Filme und Fernsehen, und mittels Digitalisation) erfahren, dann wären sie anders in der Welt als wir es sind, und als es unsere Vorfahren waren«3. Dieser Aussage möchte ich ein weiteres Zitat zur Auseinandersetzung hinzufügen: »Nun verfügen wir, seit Urzeiten, über einen Code, nämlich über die gesprochene Sprache, welcher diese Aufgabe leistet«4.

Koden dienen grundsätzlich der Kommunikation, aus meiner Sicht unabhängig davon, ob zwischen Menschen oder Menschen und Maschinen. In »Conversational User Interfaces« und »Natural User Interfaces – Die unsichtbaren Schnittstellen« sehe ich daher Ansätze, die seine Denkweise nicht nur bestätigen, sondern weit darüber hinaus gehen. Zudem werden Voice User Interfaces (VUI) immer populärer. Mit VUIs erhalten wir meiner Ansicht nach nicht nur eine zusätzliche Art der Mensch-Maschine-Kommunikation, sondern wir kommen zurück zum ursprünglichen Code – der gesprochenen Sprache.
Insgesamt drängt sich mir hier die Frage auf, wie zukünftige User Interfaces aussehen könnten, wenn sie denn überhaupt noch »aussehen«. Amazons Alexa oder Apples Siri sind nur zwei Beispiele für ein sprachgesteuertes Gerät bzw. sprachgesteuerten Assistenten. Während Siri auch visuell reagiert, existiert Alexa ausschließlich auf der auditiven Ebene. Unter dem Strich können Alexa und Siri alle Fragen gestellt werden.
Mein Problem damit ist momentan noch das, dass ich mir nicht vorstellen kann, wie eine Welt basierend auf Audio Interfaces aussehen könnte. Nach meinem Verständnis müsste man zumindest wissen, welche Informationen vorhanden sind, um die entsprechende Antwort zu erhalten. Ein reines Stöbern oder zufälliges auf Informationen stoßen wären damit ausgeschlossen. Daher stellt sich die nächste Frage, inwiefern Audio Interfaces tatsächlich andere Interfaces ersetzen und ob sie nur als zusätzliche Variante dienen könnten.

Quellen
  1. Röller, Nils; Wagnermaier, Silvia (Alle Hg.): »absolute Vilém Flusser«, Freiburg 2003, S. 171.
  2. Vgl. Ebd., S. 157.
  3. Ebd., S. 71.
  4. Ebd., S. 74.
Abbildungen
  1. Titelbild: Lecourt, Pierre: »Amazon Echo«, abgerufen am 7.11.2016, Lizenz: CC BY-NC-SA 2.0.

Gegen das Absolute

Inwieweit wird es in Zukunft noch das Absolute geben? Ist alles relativ und im stetigen Wandel? Bleibt alles ein langer Prozess?

»absolute Vielem Flusser«, herausgegeben von Nils Roller und Silvia Wagnermaier, enthält neben Essays von Villem Flusser unter anderem ein Gespräch zwischen dem Medienphilosophen und Florian Rötzer aus dem Jahr 1991. Ein Zitat Flussers halte ich dabei für besonders interessant: »Mir gefällt das Wort ›virtuell‹ gar nicht, weil es unter anderem viele Macho-Konnotationen hat. Da es keine nicht-virtuelle Realität gibt, da Realität nur ein Grenzbegriff ist, dem wir uns nähern und den wir nie erreichen können, kann ich von alternativen Weisen des Erreichen von Realität sprechen.«1

Diesen Gedanken finde ich insofern spannend, da häufig der Unterschied zwischen nicht-virtueller und virtueller Realität gemacht wird. In meinem Beitrag »Erkenntnisse und Eindrücke: Luciano Floridis Buch ›Die 4. Revolution‹« beschäftigte ich mich bereits in Bezugnahme auf Luciano Floridi mit der Unterscheidung dieser zwei Zustände. Floridi, dessen Buch jedoch grob 35 Jahre später erschien und somit eine ganz anderen Perspektive besitzt, spricht davon wie innerhalb der Infosphäre Virtuelles und Nicht-Virtuelles verschwimmen.2 Unter anderem deshalb, da die vermeintliche Wirklichkeit auch von Menschenhand geschaffen ist.3

Diese Ansicht Floridis konnte ich voll und ganz nachvollziehen. Nun erscheint mir Flussers Aussage jedoch zunehmend schlüssiger. Zwar hatte Flusser damals sicher nicht die leiseste Ahnung, was das World Wide Web und die Technologie im generellen noch mit sich bringen werden. Doch entspricht diese Ansicht viel mehr der heutigen Lebenswelt, die noch weniger als früher in schwarz und weiß aufzuteilen ist. Weiter fordert er im gleichen Gespräch, dass wir immer relative Begriffe haben und uns abgewöhnen müssen, mit absoluten Begriffen zu arbeiten.4
Dem Absoluten widerspricht auch Dr. Markus Gabriel, der in seinem Buch »Warum es die Welt nicht gibt« klar macht, dass es nicht die eine Welt gibt und sie in Sinnfelder einteilt.

Unabhängig vom World Wide Web, ist es heutzutage nicht nur möglich, sondern auch anerkannt, dass jeder Menschen seinen eigenen Lebens­entwurf verwirklicht. Jeder Mensch hat dabei seine eigenen Sinnfelder, Realitäten und Wahrnehmungen, welche er ohne Umschweife jederzeit wieder ändern oder parallel leben kann. Bei Facebook ist es nun möglich aus über 50 Geschlechtern zu wählen, was bedeutet, dass in unserer Gesellschaft selbst physische Eigenschaften relativ geworden sind. Des Weiteren richtet sich die komplette Industrie danach, den individuellen Bedürfnissen, Lebensentwürfen und Wirklichkeiten gerecht zu werden. Es gibt im Grunde nichts, was man nicht haben oder tun kann.

Es ist noch immer utopisch zu denken, dass absolut jeder alles machen und ausleben kann. Doch spielen frühere, feste Strukturen, sei es in der Familie oder bei den Themen Bildung und Beruf, eine immer kleinere Rolle. Die Strukturen werden aufgebrochen, die Welt wird relativ und das »Virtuelle« gehört genauso zu unserer Realität wie das, was wir im allgemeinen Gebrauch als Nicht-Virtuell ansehen. So gehören algorithmische Maschinen in die gleiche Lebenswelt wie die Natur an sich.

In einem weiteren Gedanken, stellt sich mir die Frage, ob es das Absolute auch im Hinblick auf Designprodukte überhaupt noch geben wird oder alles ein stetiger Prozess bleibt. Zwar sind analoge Flyer nach wie vor fertige Produkte, doch neben sich ohnehin stetig verändernden digitalen Produkten, werden schon viele analoge Produkte mit dem Nicht-Absoluten ausgestattet. Bücher enthalten Links oder Augmented Reality-Inhalte. Manche sind sogar so konzipiert, dass sie stets erweiterbar sind. Aus meiner Sicht sind das nur Hybridmedien, die irgendwann den nächsten Schritt machen werden. Dorthin, wo nichts mehr absolut und in Stein gemeißelt ist. Dieser Ansatz, dass nichts absolut und alles in Bewegung ist, wird mich sicher noch weiter in meiner Masterarbeit begleiten.

Quellen
  1. Rötzer, Florian: »Gespräch mit Florian Rötzer, München 1991« in: Röller, Nils; Wagnermaier, Silvia (Alle Hg.): »absolute Vilém Flusser«, Freiburg 2003, S. 11 f.
  2. Vgl. Floridi, Luciano: »Die 4. Revolution – Wie die Infosphäre unser Leben verändert«, Berlin 2015, S. 9.
  3. Vgl. Ebd., S. 329.
  4. Vgl. Rötzer, Florian: »Gespräch mit Florian Rötzer, München 1991« in: Röller, Nils; Wagnermaier, Silvia (Alle Hg.), »absolute Vilém Flusser«, Freiburg 2003, S. 13.

Neuer Raum – neue Zeit: Neu denken

Das Digitale definiert räumliche und zeitliche Gegebenheiten nicht nur neu, sondern stellt sie gänzlich auf den Kopf. Eine einfache Übertragung von Nicht-Virtuellem ins Virtuelle erfüllt dabei nicht alle Ansprüche. Die Virtuelle Welt muss neu erdacht werden.

In meinem Beitrag »Das globale Dorf – Raum, Zeit und Dynamik« ging es im Zusammenhang mit Marshall McLuhan bereits um die Auflösung von Raum und Zeit. Dort gehe ich schon im Detail auf seine Ausführungen ein.

Nach wie vor fällt es mir schwer, die im orientalischen und asiatischen Raum vorherrschende Denkweise nachzuvollziehen. Während ich als abendländischer und sequentiell denkender Mensch, Information strukturell einordne, führt die Prägung durch die rechte Gehirnhälfte dazu, dass dort Geschehnisse und Prozesse in gleichzeitige Beziehung gesetzt werden.

Zwar war mir durch McLuhan damals schon klar, dass Information unabhängig von Raum und Zeit transportiert werden kann und sich dadurch beide auflösen. Das Buch »Kultur der Digitalität« von Felix Stalder lässt mich jedoch erst jetzt verstehen, inwiefern sich die abendländische Denkweise an die asiatische anpassen wird und was die Auflösung von Zeit und Raum bedeuten kann.

Wörtlich schreibt Felix Stadler folgendes: »Der raumzeitliche Horizont der digitalen Kommunikation ist eine globale, das heißt ortlose Dauergegenwart. Die technische Vision der digitalen Kommunikation ist immer das Hier und Jetzt. Bei verzögerungsloser Informationsübertragung ist alles, was nicht ›hier‹ ist, unerreichbar und alles, was nicht ›jetzt‹ ist, verschwunden«1. Des Weiteren beschreibt er, dass versucht wird eine »endlose globale Gegenwart« herzustellen.2

Diesen Absatz finde ich in zweierlei Hinsicht sehr spannend. Zum einen macht es mir wie bereits erwähnt verständlicher, was die Auflösung von Zeit und Raum bedeuten kann: Zeitliche und räumliche Grenzen werden binnen Millisekunden überwunden, was unserer gewohnten Welt und Physis widerspricht. Zwar bewegen wir uns immer schneller fort, doch die Vision des Beamens, spricht einer ähnlich schnellen Überwindung von Zeit und Raum innerhalb von Millisekunden, bleibt bisher nur eine große Sci-Fi-Utopie.
Zum anderen besteht das Internet aus dem Hier und Jetzt. Neben Stalders genannten Punkten bedeutet das: Vergangene Inhalte spiegeln zwar bedingt eine zeitliche Abfolge wider, aber durch den digitalen Gedächtnisverlust – mit dem ich mich näher in »Die Hypergeschichte« auseinandersetze – bedeutet das nicht zwingend, dass das Internet eine geschichtliche Abfolge anzeigt. Im Gegenteil: Durch Datenverlust (sei es durch Löschung oder Nichtüberführung in neue Technologien), Überspeicherung und Veränderung tritt ein Zustand der Geschichtslosigkeit sowie eine immer währende Gegenwart ein. Im Gegensatz zu meiner damaligen Vermutung bin ich nun überzeugt davon, dass nachfolgende Generationen durchaus eine gewisse geschichtliche Abfolge nachvollziehen können. Damit große Ereignisse und allgemeine Errungenschaften einfach so verloren gehen, müsste sehr viel passieren. Für viel problematischer halte ich es jedoch zwischenzeitlich für Inhalte, die nicht von allgemeiner Wichtigkeit sind. Unabhängig von Content-Art, sei es Firmen-Website, Portfolio oder soziales Netzwerk sehe ich riesige Verluste, wenn diese gelöscht werden. Für uns ist es heute eine einfache Überarbeitung der Website, da man die alte nicht mehr für zeitgemäß oder schön hält. Für die Zukunft bedeutet das ein fehlendes Teil Geschichte. Wenn man bedenkt, dass für die heutige historische Forschung jede Banalität wie z. B. Essbesteck von großer Bedeutung ist, um frühere Zustände zu rekonstruieren, ist dieser Gedanke nicht zu unterschätzen und meiner Meinung nach sogar extrem wichtig.

Abschließend möchte ich noch auf die Bibliothek Europeana zu sprechen kommen, die mir bereits bekannt war und von Stalder kurz angerissen wird. Er führt aus, dass in dem Archiv Schätzungen zu Folge vierzig Millionen Objekte vorhanden sind und insgesamt in den »europäischen Archiven und Museen mehr als 220 Millionen natur- und 260 kulturgeschichtliche Objekte«3 lagern. Zum einen hält er es für problematisch, dass es »schwer festzustellen ist, ob ein bestimmtes Werk, eine entscheidende Referenz fehlen, wenn an seiner oder ihrer Stelle eine Fülle anderer gefunden wird«4. Zum anderen merkt er an, dass sich einzelne Objekte aus ihrer übergeordneten Narration lösen, die das Museum oder Archiv hergestellt haben. Dadurch werden sie zum einen bedeutungsoffener und zudem besteht der einzige Zusammenhang zwischen Suchanfrage und die durch Suchalgorithmen gefundenen Ergebnisse.5
Ersteres hinterfragt die Vollständigkeit. Wird es gelingen alle Objekte digital zugänglich zu machen? Meine persönliche Meinung: Ja. Aus meiner Sicht ist es nur eine Frage der Zeit. Für Probleme, die es in diesem Zusammenhang gibt, z. B. rechtliche Hürden, wird es langfristig eine Lösung geben. Zudem sollte es ein Anliegen aller sein, kulturelle Objekte für alle zugänglich sowie konservierbar zu machen.
Dass sich die Objekte aus ihrer Narration lösen, halte ich für ein viel größeres Problem. Sicherlich kann man einzelne, nicht-virtuelle Gegebenheiten ins Digitale bringen, doch eine komplette Übertragung halte ich für fast unmöglich. So kann man beispielsweise bestimmten Werke auch im Digitalen ihren Platz in bestimmten Sammlungen geben, bei der Übertragung von Orten bin ich jedoch sehr kritisch. Ob ein Werk im Guggenheim-Museum in Bilbao oder im Pariser Louvre steht, macht manchmal durchaus einen Unterschied. Das einfach nur zu wissen, reicht aus meiner Sicht nicht aus. Daher wird es an dieser äußerst Stelle wichtig werden, nicht nur eine einfache Digitalisierung zu vollziehen, sondern eine tatsächliche Transformation. Die Orte Museum und Archiv müssen komplett neu gedacht werden.

Insgesamt hat mich Stalders Buch nicht begeistert, da es mir trotz vorgestellter Struktur teilweise als lose Sammlung sämtlicher digitaler Themen vorkam. Dennoch konnte ich zum einen Antworten auf Fragen finden und zum anderen hat es mich in vielerlei Hinsicht zu neuen Fragen inspiriert. Allein dafür hat sich das Buch zur Recherche definitiv gelohnt.

Quellen
  1. Stalder, Felix: »Kultur der Digitalität«, Berlin 2016, S. 147.
  2. Vgl. Ebd.
  3. Ebd., S. 107.
  4. Ebd., S. 112.
  5. Vgl. Ebd., Berlin 2016, S. 115.

Mechanische GIF: Das Giphoscope

Auf der diesjährigen dmexco in Köln stellt VICE die Amazin’ GIF machine vor. Zwar verstehe ich bis heute nicht, was es damit auf sich hat, stoße bei der Recherche jedoch auf das Giphoscope. Das wiederum erinnert mich an meinen Besuch im Filmmuseum Frankfurt.

Auf der diesjährigen dmexco in Köln stellt VICE die Amazin’ GIF machine vor. Leider ist die Maschine, in der Zeit in der ich dort bin, außer Betrieb und im Internet werde ich leider auch nicht wirklich fündig. Somit weiß ich bis heute nicht, was es damit auf sich hat, stoße bei meiner Suche jedoch auf das giphoscope (the creators project ») von Alessandro Scali und Marco Calabrese. Das giphoscope ermöglicht es überall – sogar ohne Computer – GIFs zu sehen, wenn man an der Kurbel des giphoscopes dreht. Laut Zach Sokol, dem Autor des Artikels, ist es von Herman Casler’s Mutoskope inspiriert1.
Bereits in einem früheren Artikel, habe ich nach einem Besuch im Filmmuseum über frühere Technologien zur Erzeugung von Bewegtbildern berichtet (»Film und Games. Ein Wechselspiel« im Filmmuseum Frankfurt »). Hierunter fiel auch das Mutoskop sowie andere Apparaturen wie beispielsweise das Stereoskop, die der Google Cardboard sehr ähneln. Ich war angespornt mit diesen analogen Techniken zu experimentieren, was ich jedoch bis heute nicht gemacht habe. Mein Gedanke war dabei die Übertragung einer alten Technik in die heutige Zeit. Scali und Calabrese gingen mit dem giphoscope den entgegengesetzten Weg, indem sie eine heutige, digitale Technik, in eine analoge, abgewandelte Technik von früher überführen. Alles in allem finde ich das Experiment sehr spannend und inspirierend und nehme es deshalb in meine Recherchesammlung auf.

Quellen
  1. Vgl. Sokol, Zach: »The Giphoscope Allows You To Bring GIFs Anywhere You Want, Even Without Your Computer«, Stand: 18.11.2013, URL: http://thecreatorsproject.vice.com/blog/the-giphoscope, abgerufen am 28.9.2016.

»Pulse« von Markus Kison

Durch Markus Kisons Arbeit »Touched Echo« habe ich eine weitere Arbeit namens »Pulse« entdeckt. Die theoretische Grundlage bildet dabei die Emotionstheorie von Robert Plutchik aus dem Jahr 1980, welcher acht grundlegende menschlichen Emotionen beschreibt.

Durch Markus Kisons Arbeit »Touched Echo« habe ich eine weitere Arbeit namens »Pulse« entdeckt. Die theoretische Grundlage bildet dabei die Emotionstheorie von Robert Plutchik aus dem Jahr 1980, welcher acht grundlegende menschlichen Emotionen beschreibt. Dazu gehören Freude, Vertrauen, Angst, Überraschung, Trauer, Ekel, Wut und Erwartung. Mit dieser theoretischen Ausgangslage entwickelt er ein flexibles Objekt, das in 24 Bereiche aufgeteilt ist und welches auf Daten privater WordPress-Blogs zugreift und reagiert. Wenn ein Tag oder Synonym der Emotion im Netz erwähnt wird, ändert sich dementsprechend das Objekt und ist somit eine Echtzeit-Visualisierung der virtuellen Emotionswelt.

Pulse von Markus Kison
Das in 24 Bereiche aufgeteilte, flexible ObjektII

Selbst wenn ich die technische Umsetzung noch nicht durchschaut habe, halte ich das Projekt für eine beeindruckende Transferleistung, die ihren Anfang in der Theorie genommen hat. Das hilft mir vor allem bezüglich meines Masterthemas, da man an dieser Arbeit gut erkennen kann, dass die Theorie einen maßgeblichen Anteil an ihr besitzt und nicht nur als theoretische Ausschmückung innerhalb der Dokumentation dient. Zwar ist das ein bereits beschriebener Weg, den wir bestenfalls innerhalb des Masterstudios gehen sollten, dennoch fällt es mir schwer die Theorie nicht nur als Beiwerk zu sehen. Nicht weil ich die Theorie nicht schätze, sondern gerade weil ich theoretische Hintergründe sehr schätze. Die Vorstellungen davon ist meist nur sehr unkonkret und deshalb hilft mir die Arbeit sehr im Hinblick auf die Praxis.

Abbildungen
  1. Titelbild: Kison, Markus: »Pulse overall view«, abgerufen am 23.7.2016, Lizenz: CC BY-NC-SA 2.0.
  2. Kison, Markus: »pulse«, abgerufen am 23.7.2016, Lizenz: CC BY-NC-SA 2.0.

Inspiration für die Entwicklung einer Medieninstallation

Jakob Behrend stellt in seinem Buch »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter« Geräte zur Ein- und Ausgabe, sowie Verarbeitung vor. Des Weiteren legt er offen, mit welcher Hard- und Software die vorgestellten Projekte realisiert wurden.

Schon mehrmals habe ich für mich interessante Arbeiten aus dem Buch »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter« von Jakob Behrend vorgestellt. Für besonders hilfreich halte ich dabei, dass Behrends offenlegt, welche Hard- und Software für das jeweilige Projekt genutzt wird. Des Weiteren erstellt er eine Übersicht verschiedener Geräte zur Ein- und Ausgabe, sowie Verarbeitung.
Da für mich die Entwicklung einer Medieninstallation auch in Frage kommt und ich mich sehr für die Transformation digitaler Inhalte in die mechanische Welt interessiere, bildet seine Übersicht1 eine sehr gute Grundlage für weitere Recherchen. So kann ich mir beispielsweise den Einsatz von Berührungssensoren oder leitfähiger Farbe sehr gut vorstellen und ich bin motiviert erste Experimente damit durchzuführen.

Quellen
  1. Vgl. Behrends, Jakob: »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter«, Stuttgart 2015, S. 190–207.

See the World in a New Light

Für meine Recherche habe ich mich sehr auf das Buch »GUI Design : [interface, interaction, application, icon, button, typeface, themes]« von Felix Ma gefreut. Leider wurden meine Erwartungen nicht erfüllt, da sich das Buch überraschenderweise zum einen hauptsächlich aus Beispielen zusammen setzt und ich diese zum anderen überwiegend nicht einmal für gute halte.

Für meine Recherche habe ich mich sehr auf das Buch »GUI Design : [interface, interaction, application, icon, button, typeface, themes]« von Felix Ma gefreut. Leider wurden meine Erwartungen nicht erfüllt, da sich das Buch überraschenderweise zum einen hauptsächlich aus Beispielen zusammen setzt und ich diese zum anderen überwiegend nicht einmal für gute halte. Selbst der Blick auf das Erscheinungsjahr 2015 hilft mir nicht weiter. Ich hatte gehofft, dass das Buch schon ein paar Jahre älter ist und die negative Überraschung etwas gedämpft wird. Eine weitere Erklärung könnte die sein, dass das Buch in Hong Kong erschienen ist und sicherlich eine andere Art von Gestaltung als schön empfunden wird.

Nichtsdestotrotz kann ich zumindest ein Beispiel vorstellen, dass mir sehr gut gefällt. Eine iPad-App (See the World in a New Light ») der israelischen Designerin Yael Cohen zeigt uns die Wirkung des Lichts auf unserem Planeten. Ich persönlich konnte die App zwar noch nicht testen, soweit ich es jedoch verstehe, bezieht sich die App auf ausgewählte, öffentliche Räume. Dort kann man mittels der App die Gegend fotografieren und mehr Informationen über das Licht – auch bezogen auf den jeweiligen Ort und die Zeit – erhalten.

Abbildungen
  1. Einbau von Vimeo; Yael Cohen: »See the world in a new light‹«, URL: https://vimeo.com/36784613, TC: 00:00:19, abgerufen am 7.8.2016.

»Touched Echo« von Markus Kison

Durch Jakob Behrends Buch »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter« wurde ich auf Markus Kisons Arbeit »Touched Echo« aufmerksam, die sehr spannend und eindrücklich umgesetzt ist.

Durch Jakob Behrends Buch »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter« wurde ich auf Markus Kisons Arbeit »Touched Echo« aufmerksam.

Die Grundlage der Arbeit bilden Soundaufnahmen aus dem Jahr 1945, als deutsche Städte im 2. Weltkrieg nieder gebombt wurden. Das Audiomaterial wird dabei erst übertragen, wenn sich der Besucher mit den Ellenbogen auf ein mit selbstgebauten Schalleitern präpariertes Geländer abstützt und sich mit den Händen die Ohren zuhält. Technisch ist das durch eine Knochenleitung möglich, die für Hörgeräte entwickelt und verwendet wird. Wie Kison auf seiner Projektseite beschreibt, nimmt der Besucher dadurch eine natürliche Haltung ein, die die Menschen wohl auch damals unter anderem eingenommen haben: Eine gebeugte Haltung mit zugehaltenen Ohren, um sich vor der Lautstärke der Angriffe zu schützen.

Neben der technischen Umsetzung, halte ich das Gesamtkonzept für herausragend. Geschichte wird damit erlebbarer gemacht und der Besucher wird gezwungenermaßen in eine ähnliche – wenn natürlich auch unbedrohte – Situation versetzt. Ohne es selbst ausprobieren zu können, schätze ich, dass die Arbeit einen hohen Grad an Immersion mitbringt und die geschichtliche Auseinandersetzung – im Gegensatz zu ein paar Postern – tatsächlich stattfindet. Des Weiteren beeindruckt mich wie hier Medienkunst und Geschichte miteinander verschmelzen. »Touched Echo« halte ich deshalb im Bereich der digitalen Medienkunst für sehr inspirierend.

Abbildungen
  1. Kison, Markus: »Touched Echo Osnabrueck«, abgerufen am 23.7.2016, Lizenz: CC BY-NC-SA 2.0.

Generation mitten im Wandel

Im Rahmen meiner Recherche habe ich bereits wichtige Erkenntnisse des Buchs »The digital turn – Design in the Era of Interactive Technologies« festgehalten. Zwei weitere Essenzen finde ich im Essay »The end of the word as we know it» von Lustlab, sowie »Digital Culture: From open design to creating your own future« von Susanne Stauch.

Im Rahmen meiner Recherche habe ich bereits wichtige Erkenntnisse des Buchs »The digital turn – Design in the Era of Interactive Technologies« festgehalten (Empathische Interaktion »).

Zwei weitere Essenzen finde ich im Essay »The end of the word as we know it« von Lustlab, sowie »Digital Culture: From open design to creating your own future« von Susanne Stauch.

Unsere Fähigkeiten gehen durch den digitalen Wandel nicht verloren

Lustlab spricht über den aktuellen Wandel, dem vor allem auf Papier geschriebene Bücher zu Lasten fällt. Doch selbst, wenn diese nicht mehr da sein werden, wird noch immer »die Fähigkeit Geschichten aufzuzeichnen, mit geschriebener Sprache zu kommunizieren und Geschichten zu erzählen überleben«. Des Weiteren verändert sich zwar unsere Art zu lesen, doch noch »nie zuvor haben wir mehr gelesen und geschrieben als jetzt.« Zwar ist der Weg kürzer und informeller, doch pro Sekunde werden Millionen von E-Mails, Textnachrichten, Facebook-Updated oder Tweets geschrieben.1
Diese Essenz ist nicht revolutionär, doch halte ich sie für eine spannende Perspektive, die man meist nicht einnimmt. Häufig macht sich eher das schlechte Gewissen breit, nicht ausreichend (Bücher) zu lesen. Des Weiteren spricht Lustlab davon, dass unsere Erwartungen an den Wandel und die Technologie sehr zwiespältig sind: Zum einen möchten wir, dass uns Aufgaben abgenommen werden und vieles automatisiert wird, andererseits fordern wir die Fähigkeit der Individualisierung.2

Mitten im Wandel

Diese Massen-Individualisierung nimmt auch Stauch in ihrem Essay auf. Diesen Punkt erwähne ich vor allem deshalb, weil sich eine Generation und ein Zeitgeist häufig erst rückblickend sehen und verstehen lässt. Zwar kennen wir alle die Bewegungen der letzten Jahre, doch scheint das Ausmaß dieses Wandels erst aufgezählt und niedergeschrieben an Gewicht zu gewinnen.
Sie spricht davon, dass sich die kreative Avantgarde, die junge Generation, kritisch auflehnt und eine Haltung des Anti-Establishment einnimmt. Wie sie recyclebares Design entwickelt, Objekte reparieren möchte anstelle sie wegzuschmeißen. DIY und alte Handwerkskunst werden wieder beliebt, Open-Source-Projekte, Co-Working und File Sharing sind weit verbreitet. Es gibt urbane Guerilla-Aktionen, Flashmobs und vieles mehr, was uns als Designer dazu zwingt, Dinge zu überdenken, uns selbst neu zu positionieren und das wahre Potential des offenen und kritischen Denkens in unsere Arbeitsmethoden einfließen zu lassen.3
Des Weiteren spricht sie sinngemäß davon, dass die Aufgabe des Designers viel weiter geht als die des reinen »Aufhübschens«: Neben Themen wie Nachhaltigkeit (Umweltverträglichkeit, Lebenszyklen oder Materialität), reflektieren wir die Usability und Nutzerfreundlichkeit interaktiver Produkte und sollten neben dem technischen Verständnis bestenfalls noch Kenntnisse über Psychologie oder Soziologie mitbringen.4 Zwar bestand die Arbeit des Designers noch nie aus reinem Aufhübschen, doch die Themenfelder scheinen aus meiner Sicht zu wachsen und komplexer zu werden.

Stauch versucht damit die aktuelle Lage zu reflektieren, in der wir im »globalen Dorf« in einer Zeit des Teilens und der Gemeinschaft leben, selbst wenn es sich häufig nicht so anfühlt. Es ist ein Wandel im Gang und die Themengebiete der Designarbeit sind sehr komplex und unheimlich spannend. Es stehen jede Menge Möglichkeiten offen und es ist viel Platz und Bedarf für Innovationen, um diesen Wandel sowohl zu bewerkstelligen als auch weiterzutreiben.

Quellen
  1. Vgl. Lustlab: »The end of the word as we know it«, in: Junge, Barbara; Eds.: Zane, Berzina; Scheiffele, Walter; Westerveld, Wim; Zwick, Carola, »The digital turn – Design in the Era of Interactive Technologies«, Berlin 2012, S. 13.
  2. Vgl. Ebd., S. 15.
  3. Vgl. Stauch, Susanne: »Digital Culture: From open design to creating your own future«, in: Junge, Barbara; Eds.: Zane, Berzina; Scheiffele, Walter; Westerveld, Wim; Zwick, Carola, »The digital turn – Design in the Era of Interactive Technologies«, Berlin 2012, S. 263.
  4. Vgl. Ebd.

Alles nur geklaut

Das Buch »Alles nur geklaut« von Austin Kleon gehört zwar nicht konkret in die Recherche meiner Master-Arbeit. Da es jedoch viel über die generelle Arbeit als Kreativer erzählt, sollte es einen Platz in meiner Dokumentation finden.

Das Buch »Alles nur geklaut« von Austin Kleon gehört zwar nicht konkret in die Recherche meiner Master-Arbeit. Da es jedoch viel über die generelle Arbeit als Kreativer erzählt, sollte es einen Platz in meiner Dokumentation finden. Die Ideen sind zwar nicht bahnbrechend, aber bei manchen Dingen hilft es, sie einfach schwarz auf weiß zu lesen.

In 10 Kapiteln durchgeht der Autor »10 Wege zum kreativen Durchbruch«, wobei mir drei Essenzen aus dem Buch besonders hängen geblieben sind.

Die Klaukartei

Die Klaukartei ist an sich nichts Neues. Die einen nennen sie Ideenbox, die anderen ordnen sie in digitale Ordner namens »Inspiration«, wieder andere kategorisieren alles fein säuberlich auf Pinterest-Pinnwänden.
Kleon beschreibt die Klaukartei als Kartei, in der alles Platz findet, was geklaut werden muss oder einen inspiriert.1 Unter klauen versteht er jedoch nicht ein reines Klauen, sondern eher ein Ausschau halten und sich von Dingen inspirieren lassen, um sie weiterzuentwickeln.

Besonders gut gefällt mir daran die beruhigende Tatsache, die jeder kennt und dennoch im Alltag vergisst: Wir können das Rad nicht neu erfinden! Keine Design-Arbeit, keine Kunst-Arbeit – nichts entsteht aus dem Nichts.

Einfach machen

Kleon schreibt, dass er noch immer dasitzen würde, um herauszufinden, wer er ist, wenn er gewartet hätte, bis ihm klar wäre, wer oder was er ist.2
Einfach machen lautet die Devise. Wir alle haben manchmal Ängste oder sind in unserer Arbeit gehemmt. Vor allem während des Masters führe ich das darauf zurück, dass man nicht konkret weiß, worauf man hinarbeitet und ob das einen Wert hat. Es ist keine Aufgabe, die es einfach zu erledigen gilt. Die Aufgabe ist der Prozess an sich und diesen auch auszuhalten. Zwar ist die Designarbeit immer sehr prozessgerichtet und man weiß häufig nicht, was am Schluss herauskommt. Aber bei Aufgaben, wie die Gestaltung von Visitenkarten, Flyern oder ähnlichem hält sich das doch eher in Grenzen, weil das Ziel klar ist. Anders verhält es sich mit Aufgaben, die erst durch den Prozess wachsen. Obwohl man häufig erfolgreich durch solche Prozesse läuft, sei es in intensiven Arbeitsphasen, Blockseminaren oder anderen Projekten, bei denen man erstmal ins Schwammige arbeitet, fällt es immer wieder schwer sich darauf zu verlassen. Mit viel Arbeitseinsatz wird am Ende schon alles gut.

Langweiler!

Der Autor beschreibt, was für ein langweiliger Typ er ist und dass er in einer ruhigen Nachbarschaft mit der Familie lebt.3 Er beschreibt, dass man stets auf sich selbst achten soll und das halte auch ich für einen sehr wichtigen Punkt. Wir als Kreative neigen dazu viele Überstunden zu machen und in die Nacht zu arbeiten. Alles für den Spaß und schließlich ist es ja auch Hobby und Leidenschaft und ja es soll auch was gutes dabei rauskommen. Aber: Es tut manchmal auch gut ganz in geordneten Strukturen zu arbeiten, die einem Halt geben und nicht so viel Energie kosten.

Quellen
  1. Vgl. Kleon, Austin: »Alles nur geklaut – 10 Wege zum kreativen Durchbruch«, München 2013, 3. Auflage, S. 30.
  2. Vgl. Ebd., S. 35.
  3. Vgl. Ebd., S. 127.

Die Abstufungen von Interaktivität

In »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter« von stellt Jakob Behrends die Abstufungen von Interaktivität vor, die er von Goertz (2004) zitiert.

In »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter« von stellt Jakob Behrends die Abstufungen von Interaktivität vor, die er von Goertz (2004) zitiert.

Medien teilen sich auf in reaktiv, responsiv und interaktiv.
Reaktiv stellt eine sehr schwache Form von Interaktivität dar. So nennt er beispielsweise Fahrgeschäfte im Supermarkt, die auf einen Münzeinwurf reagieren und sich daraufhin in Bewegung setzen. Auf einen Schlüsselreiz folgt lediglich eine klare Aktion. Responsive Medien sind dagegen schon eine Vorstufe interaktiver Medien. So sind das beispielsweise Medien die mittels Sensoren auf die Umwelt reagieren oder Radioregler, die bestimmte Funktionen unterstützen. Der Lautstärke- oder Frequenzregler besitzen dabei feste Funktionen, die von uns nicht abänderbar sind. Als interaktiv oder auch hochgradig interaktiv sieht er Anwendungen, die es ermöglichen »mediale Inhalte zu verändern bzw. zu hinterlegen«. Des Weiteren hält er »Steuerbarkeit von Zeitpunkt, Tempo und Abfolge der Rezeption« für einen wichtigen Faktor. Als multiinteraktiv werden Medien bezeichnet, über die mehrere Nutzer gleichzeitig partizipieren können.1

Obwohl letzteres die Voraussetzung verlangt, dass Medien abänderbar sind, bin ich unschlüssig, ob das tatsächliche Interaktivität bedeutet. Damit habe ich mich in meinem Beitrag »Imitation von Interaktivität« beschäftigt.

Ich möchte der Frage nach Interaktivität weiter auf den Grund gehen, da mir die Definitionen keine ausreichende Antwort auf tatsächliche Interaktivität geben kann. Noch immer hinterfrage ich die Tatsache, dass entweder eine vorgefertigte Reaktion programmiert wurde – und damit meinem Verständnis nach nicht interaktiv ist – oder ohnehin ein Mensch auf der anderen Seite der Leitung sitzt.

Quellen
  1. Vgl. (ganzer Absatz) Behrends, Jakob: »Interreaction – Interaktive Medien und Kommunikation im Raum – eine Einführung für Gestalter«, Stuttgart 2015, S. 23.

Empathische Interaktion

In »The digital turn – Design in the Era of Interactive Technologies« spricht Björn Bertrand in seinem Essay »The Empathetic Interaction« darüber, wie durch Reize eine Verbindung zwischen Mensch und Maschine hergestellt werden kann.

In »The digital turn – Design in the Era of Interactive Technologies« spricht Björn Bertrand in seinem Essay »The Empathic Interaction« darüber, wie durch Reize eine Verbindung zwischen Mensch und Maschine hergestellt werden kann.1

Bertrand nutzt dafür das Beispiel eines langjährigen Kranfahrers, der seine Arbeit mit absoluter Routine erledigt. Jeder Handgriff sitzt, er lenkt den Kran beinahe blind und sein Körper ist mit dem Kran fast schon eins. Sie sind miteinander verbunden.
Auf der anderen Seite nutzt er das Beispiel eines Autofahrers, der wir selbst sein könnten: In einer Kurve klingt das Auto komisch und der Fahrer hält an. Das akustische Signal hat ihn davor gewarnt, dass irgendetwas nicht stimmen kann. Dass irgendetwas nicht »normal« ist, nicht wie sonst in seiner alltäglichen Routine als Autofahrer. In der Routine, in der er eins mit dem Auto ist und jede Abweichung – durch welchen Reiz auch immer – bemerkt.

Im nächsten Schritt erhält der Kranfahrer eine Fernsteuerung für seinen Kran. Er kann frei wählen, von welcher Position er ihn steuert, doch sowohl die neue Position als auch die andere Steuerung führen dazu, dass eine körperliche Distanz aufgebaut wird. Das alltägliche Gefühl der Verbundenheit ist verflogen, da er das Fahrzeug nun völlig anders steuert und die körperliche Verbindung nicht im gleichen Maß wie bisher vorhanden ist. Um diese Distanz wieder abzubauen, kann in der Fernsteuerung beispielsweise eine Vibration eingebaut werden – eine taktile Rückmeldung. Zwar bedeutet das noch immer, dass es eine Zeit der Umgewöhnung benötigt, doch der Körper lernt diese neue Routine und er kann sich wieder zunehmend in den Kran einfühlen. Das Autobeispiel zeigt, dass nicht nur taktile Reize in Frage kommen. In diesem Fall waren es akustische Warnsignale und auch andere Reize wären möglich. Bertrand schreibt, dass Empathie in der Regel aus einem komplexen Zustand der Stimulation entsteht. Durch eine empathische Interaktion kann also die Distanz zwischen Mensch und Maschine abgebaut werden, ein »Gefühl dafür« kann entstehen. Und wie Bertrand schon andeutet, dürfen wir nicht vergessen, dass der Mensch mit seinem Körper an die Umwelt gebunden ist.2

Veräußerung des menschlichen Körpers

An dieser Stelle möchte ich Marshall McLuhans Interpretation des Narziss einfließen lassen, der sein eigenes Spiegelbild im Wasser sieht. Laut McLuhan handelt die Sage nicht davon, dass er sich in sein Spiegelbild verliebte. Sie handelt primär davon, dass »Menschen sofort von jeder Ausweitung ihrer selbst in einem andern Stoff als dem menschlichen fasziniert sind«3. Dies betrifft sowohl Medien als auch beispielsweise Werkzeuge. Demnach ist eine abgebaute Distanz zu dem jeweiligen Stoff enorm wichtig, um eine tatsächliche Verbindung zwischen ihm und dem Körper herzustellen.

Rückmeldung im Web

Ich halte Bertrands Ansichten für sehr entscheidend beim Interaction als auch Interface Design. Zwar scheint es zum einen selbsterklärend und zum anderen selbstverständlich. Doch ich denke, dass das ein nicht zu unterschätzender Ansatz ist, der nach wie vor viel zu oft unbeachtet bleibt. Im Web erhält man visuelle Rückmeldungen durch z. B. Farbe beim MouseOver oder textliche Rückmeldungen beim Absenden eines Formulars. Obwohl beides meiner Ansicht nach völlig selbstverständliche Mechanismen sind, die zum Standard geworden sind, findet man noch immer unzählige Webseiten, die diese Kleinigkeiten nicht beachten.
Seit wenigen Jahren sieht man durch scroll activated animations den eigenen »Scroll-Einfluss«: Objekte bewegen sich dabei abgestimmt auf das Scroll-Verhalten. Scrollt man nach unten, kann sich beispielsweise ein Objekt aufbauen, dass sich wieder abbaut, wenn man zurück scrollt. Teilweise mag das als Spielerei und Effekthascherei abgestempelt werden, nichtsdestotrotz machen Seiten dieser Art unheimlich viel Spaß. Zusätzlich sehe ich darin eine hervorragende Möglichkeit die Distanz abzubauen und den eigenen Körper, die eigenen Tätigkeiten im Web abzubilden. Macht es gerade deshalb so viel Spaß?

Stimulation in virtuellen Realitäten

Ich denke in jedem Bereich ist bezüglich der empathischen Interaktion viel Raum nach oben. Zwar sind die Beispiele Bertrands eher im Bereich Arbeit und alltäglicher Routine angesiedelt. Ich denke dabei eher an graphische Benutzeroberflächen oder Welten, die via Virtual Reality betreten werden können. Vor allem bei letzterem darf nicht vergessen werden, dass der Körper in die Umwelt eingebunden ist. Meine ersten Gehversuche mit der Google Cardboard (Erste Gehversuche mit der Google Cardboard ») habe ich im privaten Raum gemacht. Ich habe dabei auf Kopfhörer verzichtet, so dass lediglich der visuelle Reiz vollständig übrig blieb, der Sound kam dabei aus den Handy-Boxen. Obwohl ich nur auf visueller Ebene in die virtuelle Realität eingetaucht bin, war die Immersion immens und es war schwierig sich im realen Raum zu orientieren. In anderen Beispielen, wie im Labor des Fachbereichs Medien der Hochschule Düsseldorf, werden noch zusätzliche Reize, wie beispielsweise ein Ventilator für die Windsimulation eingesetzt.
Durch Stimulation wie diese werden aus meiner Sicht Raum und Zeit aufgelöst, der Körper geht in der virtuellen Realität auf. Ich finde es dabei immer wieder spannend, wie wenig Stimulation nötig ist, um das Gehirn auszutricksen. Zwar bietet Virtual Reality momentan gerade diesen Anreiz in einer virtuellen Realität abzutauchen und sich aufzulösen. Langfristig stellt sich mir jedoch die Frage, wie es möglich ist, seinen Körper und die Umgebung so gut als möglich einzubinden, sprich eine Verbindung herzustellen. Vor allem bin ich mir zur Zeit unsicher, ob Reize wie der Wind dafür sorgen, dass man sich noch mehr in der virtuellen Umgebung auflöst oder ob man gerade dadurch seinen Körper noch mehr in einer Verbindung spürt. Beides kann viel Spaß bereiten, aber unabhängig davon wie ich beide Möglichkeiten bewerte, halte ich es für essentiell sich dieser Wege bewusst zu sein.

Den Beitrag und die Erkenntnisse von Bertrand halte ich bisher für einen der spannendsten Ansätze für mein Master-Thema. Sicherlich ließe sich das auch mit der Frage nach Interaktivität, die ich als mögliche neue Richtung festgehalten habe, verbinden.

Quellen
  1. Vgl. Betrand, Björn: »The empathetic Interaction«, in: Junge, Barbara; Eds.: Berzina, Zane; Scheiffele, Walter; Westerveld, Wim; Zwick, Carola, »The digital turn – Design in the Era of Interactive Technologies«, Berlin 2012, S. 138–143.
  2. Vgl. Ebd.
  3. Baltes, Martin; Böhler, Fritz; Höltschl, Rainer; Reuß, Jürgen (Alle Hg.): »Medien verstehen – Der McLuhan-Reader«, Mannheim 1997, S. 120.

For better coffee

»For better Coffee« » verrät fünf essentielle Tipps für besseren Kaffee. Die Seite der finnländischen Freese Coffee Company zeigt parallel zu den Tipps illustrativ den Prozess von der Kaffeebohne bishin zum heißen und duftenden Kaffee. Wie »Kaipo Che!« » wird die Story mit Unterstützung von scroll activated animations erzählt.

»For better Coffee« verrät fünf essentielle Tipps für besseren Kaffee. Die Seite der finnischen Freese Coffee Company zeigt parallel zu den Tipps illustrativ den Prozess von der Kaffeebohne bis hin zum heißen und duftenden Kaffee. Wie »Kaipo Che!« wird die Story mit Unterstützung von scroll activated animations erzählt.

Screenshot »For better Coffee«: Die Bohne wandert Richtung Mahlmaschine
Screenshot »For better Coffee«: Die Bohne wandert Richtung MahlmaschineII
Screenshot »For better Coffee«: Der fertige Kaffee wird ausgegossen
Screenshot »For better Coffee«: Der fertige Kaffee wird ausgegossenIII

Bis zu Regel #1 wandert die ganze Bohne mit durch den Bildschirm, bevor sie vor Regel #2 gemahlen wird. Als Nächstes verschwindet das gemahlene Pulver in einem Filter und wird kurz vor der vierten in einer Kanne aufgebrüht. Der fertige Kaffee fließt beim weiteren Scrollen durch die vierte Regel bis zu der letzten, um direkt in einer Tasse zu landen mit dem Tipp »Drink it fresh«. Jede Regel wird ergänzt durch die Frage »Why is this so important?«, die bei einem Klick auf die Frage in einem überlagerten Bildschirm weiß auf schwarz beantwortet wird.

Screenshot: For better Coffee: Why is this so important?
Screenshot von »For better Coffee«: Why is this so important?IV

Die Website finde ich nicht nur aus dem Grund empfehlenswert, weil ich persönlich Seiten mit scroll activated animations durch die man die Grafik spielerisch beeinflussen kann. Ich halte »For better Coffee« vor allem deshalb für eine empfehlenswerte Erzählung, da sie das Thema an sich sowohl mit der visuell-ästhetischen als auch mit der technologischen Ebene hervorragend verbindet. So einleuchtend wie diese Verbindung zu sein scheint, so selten findet man sie jedoch im World Wide Web.

Abbildungen
  1. Eigene Screenshot; Freese Coffee Company: »For better coffee«, URL: forbetter.coffee/, abgerufen am 29.6.2016.
  2. Ebd.
  3. Ebd.
  4. Ebd.

Species in Pieces: Eine interaktive Ausstellung 

»Species in Pieces« von Bryan James, zeigt gefährdete Tierarten in einer ästhetisch hochwertigen interaktiven Ausstellung.

»Species in Pieces« von Bryan James, welches sich selbst als »interaktive Ausstellung« beschreibt, zeigt gefährdete Tierarten.
Das Löwenäffchen, der goldene Giftfrosch, die Waldeule und 27 andere sind sehr abstrakt durch die Zusammensetzung unterschiedlich eingefärbter Dreiecke dargestellt. Sie besitzen eine, aus meiner Sicht, sehr starke Formsprache und die »Gesamterfahrung« der Seite ist beeindruckend. Sie ist insgesamt sehr reduziert und ästhetisch schön gestaltet. Klassische Hintergrundmusik unterstützt die einzelnen Formen, die sich langsam durch den Raum bewegen, um sich zum jeweiligen Tier zusammenzusetzen. Sie unterstreicht den leichten, fast schon schwerelosen, Eindruck, der einen beinahe meditativ in diesem Projekt versinken lässt.

Species in Pieces | 30. Drill
Dynamischer Zusammenbau | Species in Pieces | 30. DrillII

Weiterführende Informationen

Für jedes Tier sind zusätzlich Informationen bereitgestellt: das Vorkommen, die Art der Gefährdung, statistische Werte, weiterführende Links oder ein Video.

Zusatzinformation | Species in Pieces | 30. DrillII
Zusatzinformation | Species in Pieces | 30. DrillIII
Beispielhaftes Video | Species in Pieces | 30. DrillIII
Beispielhaftes Video | Species in Pieces | 30. DrillIV

CSS-basierte Entwicklung

Neben der Ausstellungs-Erfahrung und der grafisch hochwertigen Darstellung, ist für mich auch die technische Seite interessant und gleichzeitig beeindruckend. Da ich zunächst davon ausging, dass es ein durch WebGL unterstütztes Projekt handelt, überrascht es mich umso mehr, dass es eine rein CSS-basierte Seite ist. Das dokumentiert der Entwickler Bryan James ausführlich auf der Seite.

Dokumentation des ProjektsIV
Dokumentation des ProjektsV

Ich halte »Species in Pieces« für ein großartiges Projekt, in dem Technologie und Design erfolgreich zusammengeführt werden. Sie werten sich wechselseitig auf, anstatt das Gegenüber zu Kompromissen zu zwingen. Das Projekt zeigt mir erneut, dass interaktive Erzählungen im Web auch ohne Einsatz tausend verschiedener Medien funktionieren kann. Zwar setzt Bryan James neben Text und Grafik z. B. auch Videos ein. Diese sind jedoch so dezent verpackt und eingestreut, dass sie sich nicht aufdrängen. Ein Mindestmaß an Information auf jeder Seite sorgt dafür, dass man sich gänzlich auf die inhaltlichen Aspekte fokussieren und konzentrieren kann.

Abschließend habe ich nach diesem Projekt selbst Lust, die grafischen Möglichkeiten mittels CSS weiter auszuloten als bisher. Bisher hat sich der Einsatz meist auf das Bauen von unzähligen Layouts, die Einbindung künstlerischer oder grafischer Arbeiten oder die Entwicklung eines Webprojekts durch den Zusammenbau einzelner medialer Elemente beschränkt. Eine grafische Arbeit entwickelt durch den Code selbst wäre an dieser Stelle eine neue Herausforderung.

Abbildungen
  1. Titelbild: Eigener Screenshot; James, Bryan: »Species in pieces«, URL: www.species-in-pieces.com, abgerufen am 17.6.2016.
  2. Ebd.
  3. Ebd.
  4. Ebd.
  5. Ebd.

Portfolios: Geschichten über sich. 

Die Portfolios von Valentin Marmonier und Cody Brendan James Ellingham erzählen Geschichten über die Gestalter selbst. Gleichermaßen zeigen sie ihre Kompetenzen treffend innerhalb der Umsetzung.

Die Portfolios von Valentin Marmonier und Cody Brendan James Ellingham erzählen Geschichten über die Gestalter selbst. Gleichermaßen zeigen sie ihre Kompetenzen treffend innerhalb der Umsetzung.

Valentin Marmonier ist ein in Amsterdam ansässiger Front-End Entwickler. Auf seiner Seite, die er selbst nicht direkt als sein Portfolio bezeichnet, scrollt man durch ein grafisches Weltall, in dem Seite für Seite seine persönlichen Ambitionen und Visionen zu lesen sind. So z. B. »Keep trying« oder »Keep learning«. Unterstützt werden die Texte durch animierten 3D-Grafiken, die via WebGL eingebunden sind. Im Gesamtpaket unterstreicht er mit dieser Webseite vor allem eins: Er ist Front-End Entwickler und das kann er gut. Und das ist eine hervorragende Art über sich selbst zu Erzählen. Und zwar genau auf den Punkt.

Der Designer Cody Brendan James Ellingham lebt in Tokyo und beschäftigt sich vor allem mit Sound, Motion und Interaction. Mit einer Reise durch einen Kiefernwald zeigt er seine Spezialgebiete, die er in seiner Web-Erzählung gelungen inszeniert. Er schreibt von der Inspiration, die er im Kiefernwald gefunden hat und der Nutzer kann die Töne der Vögel und eines Hirsches hören. Im Bereich »Motion« sieht man eine filmische Nahaufnahme eines aus der Schneeschmelze entstandenen Bächleins, das sich sanft bewegt. Auch Ellingham ist es gelungen mit seiner Seite genau das zu zeigen, was er kann. Etwas Wichtigeres gibt es im Portfolio wohl nicht.

Besonders beeindruckend finde ich an den Portfolios, dass der Aufbau und die Art und Weise der Inszenierung genau das auf den Punkt bringen, was die Designer können. Häufig sieht man ähnliche Portfolios, die je nach Jahr massenhaft im Magazin-Style oder mit Fullscreen-Fotos/Videos entstehen. Unabhängig davon, ob es Designer mit dem Schwerpunkt Fotografie, Editorial, Corporate Design oder Screendesign sind. Auf der anderen Seite ist das natürlich nachvollziehbar. Obwohl man sich für die eigene Sache Zeit nehmen sollte, ist das genau das Gebiet, das man häufig monate- oder jahrelang vor sich herschiebt. Am Ende ist man doch nie zufrieden mit den Entwürfen und es muss eine improvisierte »Schnelllösung« her. Und was »kurz improvisiert« ist, währt meist am längsten.

Abbildungen
  1. Eigener Screenshot, URL: http://vaalentin.github.io/2015/, abgerufen am 23.5.2016.

Personas: Wer verbirgt sich hinter dem »Nutzer«?

Neben bekannten Methoden der Zielgruppenanalyse wie beispielsweise das »Sinus-Modell« stellt Marco Spies in »Branded Interactions – digitale Markenerlebnisse planen und gestalten« die mir unbekannte Methode der »Personas« vor. Diese Methode der Zielgruppenanalyse halte ich für sehr einleuchtend und naheliegend und möchte deshalb bei Gelegenheit selbst Personas erstellen.

Neben bekannten Methoden der Zielgruppenanalyse wie beispielsweise das »Sinus-Modell« stellt Marco Spies in »Branded Interactions – digitale Markenerlebnisse planen und gestalten« die mir unbekannte Methode der »Personas« vor.

Bei Personas handelt es sich laut Spies um die Beschreibung »typischer Vertreter einer Zielgruppe oder eines speziellen Zielgruppensegments«.1 Genauer definiert er sie als hypothetisch, archetypisch und spezifisch. Das heißt sie sind zum einen keine realen Personen und stellen keinen Durchschnittsnutzer, sondern einzelne Individuen dar. Diese besitzen besondere Eigenschaften, Erfahrungen und Verhaltensweisen.2

Bei den Personas geht es demnach nicht darum, Nutzer in allgemeine Modelle einzuordnen und die ganze Gruppe zu betrachten, sondern um die Vorstellung einzelner Personen, die auf unterschiedlichste Art und Weise mit dem Medium in Berührung kommen.

Daten einer Persona

Zum einen gehört dazu Spies’ Cousin Felix, der die Nintendo DS und Wii nutzt, zum anderen gehört auch seine Tante in die Zielgruppe, da sie die Spiele für den noch jungen Cousin kauft.3 Um sich diese Personen genau vorzustellen und deren Wünsche und Bedürfnisse einordnen zu können, werden Personas erstellt, durch die versucht wird die Zielperson genau zu charakterisieren. Das geschieht zum einen durch Personalisierungsdaten (Name, Foto), soziodemographische Daten (Alter, Geschlecht, Beruf, …), psychografische Daten (Wünsche, Werte, Lebensstil, Hobbys, …), technografische Daten (technische Aussattung, Nutzungsverhalten, …) und geographische Daten (Wohnort, Land, Kultur, …).4

Personas helfen dabei, sich in den Nutzer hineinzuversetzen und sie stets vor Augen zu haben, sollte es Unklarheiten innerhalb der Entwicklung des Konzepts geben. Mit »Persona Moodboards« werden die Zielpersonen visualisiert und geben ein klares Bild darüber ab, wer letztendlich der Nutzer der Anwendung sein könnte. Ich halte Personas für eine sehr spannende Methode der Zielgruppenanalyse. Durch die Analyse erhält man keine abstrakten Mileu-Zuordnungen wie beispielsweise das »Traditionelle Milieu« oder das »Hedonistische Mileu«, sondern eine sehr konkrete Vorstellung darüber, wer die Anwendung letztendlich nutzen könnte und wie die jeweiligen Anforderungen sind. Jeder besitzt im Verwandten- und Bekanntenkreis Menschen aus sämtlichen Zielgruppen. Dabei haben die Großeltern andere Anforderungen als die Eltern, die wiederum andere als Kinder oder Freunde. Durch die konkrete Vorstellung der jeweiligen Person werden die Bedürfnisse sehr deutlich und vereinfachen den Entwicklungsprozess immens. Da ich diese Methode so einleuchtend finde, möchte ich bei Gelegenheit selbst Personas erstellen, um mögliche Zielgruppen meines Masterprojekts darzustellen.

Quellen
  1. Spies, Marco: »Branded interactions: digitale Markenerlebnisse planen und gestalten«, Mainz 2012, S. 81.
  2. Vgl. Ebd.
  3. Vgl. Ebd., S. 82.
  4. Vgl. Ebd.

Natural User Interfaces – Die unsichtbaren Schnittstellen

Marco Spies erwähnt in seinem Buch »Branded interactions : digitale Markenerlebnisse planen und gestalten« das Natural User Interface (NUI), durch das Eingabegeräte wie z. B. die Maus oder Tastatur überflüssig werden. NUI bezieht sich dabei auf die »Art der Nutzung, nicht auf das Interface selbst.« Welche neuen Möglichkeiten eröffnen sich und welche Potentiale können genutzt werden?

Marco Spies erwähnt in seinem Buch »Branded Interactions: digitale Markenerlebnisse planen und gestalten« das Natural User Interface (NUI), durch das Eingabegeräte wie z. B. die Maus oder Tastatur überflüssig werden. NUI bezieht sich dabei auf die »Art der Nutzung, nicht auf das Interface selbst«1.
Luciano Floridi erwähnt bereits, dass Schnittstellen immer transparenter werden (Erkenntnisse und Eindrücke zu Luciano Floridis Buch»Die 4. Revolution« ») und Spies beschreibt, dass Interfaces nicht automatisch »Natural« sind, wenn z. B. an bekannten Mouse-Interaktions-Mustern festgehalten wird. Des Weiteren empfiehlt er, dass sich Gestalter von bekannten click-and-point Design Pattern frei machen sollten.2

Veränderung der Strukturen digitaler Inhalte

Diese Tatsache bringt viele neue Herausforderungen für den Gestalter mit sich. Auch wenn sich das NUI eher auf die Art und Weise der Interaktion bezieht, stellen sich Fragen inhaltlicher und gestalterischer Natur. Aus meiner Sicht könnten sich sämtliche Strukturen digitaler Inhalte verändern. Steht die Art der Eingabe erstmal fest, sei es beispielsweise via Spracheingabe oder via freier Gesten durch Hardware wie der Microsoft Kinect, müssen sämtliche bisherige Pattern (Interaktionsmöglichkeiten) überdacht werden. Benötigt man auf Webseiten noch Navigationshilfen wie beispielsweise »Zurück-Buttons« oder Breadcrumbs, wenn man sich auch durch Gesten wie beispielsweise Swipen behelfen kann? Benötigt man generell noch eine Navigation wie bisher oder könnte auch hier eine völlig neue Art gefunden werden? Wie sieht eine Suchfunktion aus, die nicht mehr zwingend grafisch sein müsste, sondern ähnlich wie »Google Now« funktionieren könnte?

Verschmelzung der virtuellen und analogen Welt

Ich sehe hier viel Potential, digitale Inhalte noch spezieller auf digitale Medien zuzuschneiden. Viele Inhalte sind bisher nach wie vor der analogen Welt entrissen, so haben beispielsweise eBooks noch immer Seitenzahlen, die aus meiner Sicht völlig überflüssig sind. Andererseits sehe ich noch viel Raum für Annäherungen zwischen der virtuellen und analogen Welt, welche durch Natural User Interfaces bereits enger aneinander rücken. In den Bestrebungen Innovation zu schaffen, sehe ich häufig ein übergeordnetes Ziel: Die Verschmelzung der virtuellen und analogen Welt. Wie können Muster der analogen Welt noch mehr im Virtuellen eingesetzt werden, so dass sie einerseits nicht einfach stupide überführt werden, jedoch bekannte Interaktionsmuster von Menschen abgerufen werden können? Da sich Menschen mit der Technologie verändern und an sie anpassen, stellt sich die weitere Frage, welche Muster es überhaupt wert sind wieder aufgegriffen zu werden und welche man getrost fallen lassen kann.

Natural User Interfaces wird definitiv ein Thema sein, das meinen Master begleiten wird. Hier sehe ich sowohl im technischen als auch im gestalterischen Bereich sehr viel Potential für gestalterische Experimente und Innovationen.

Quellen
  1. Spies, Marco: »Branded interactions: digitale Markenerlebnisse planen und gestalten«, Mainz 2012, S. 223.
  2. Vgl. Ebd.

Interaktives Schenken: Eine kommerzielle Web-Erzählung

Als Beispiel für eine kommerzielle Web-Erzählung habe ich ausgewählt. Der Däne Georg Arthur Jensen war Silberschmied, Designer und Künstler und so findet man auf www.georgjensen.com erstmal eine übliche Produktseite. Auf der Subdomain findet man dagegen ausgewählte Produkte in einer Erzählung präsentiert.

Als Beispiel für eine kommerzielle Web-Erzählung habe ich »gift of giving« ausgewählt. Der Däne Georg Arthur Jensen war Silberschmied, Designer und Künstler und so findet man auf www.georgjensen.com erstmal eine übliche Produktseite.
Auf der Subdomain findet man dagegen ausgewählte Produkte in einer Erzählung präsentiert. Man folgt in einzelnen Filmsequenzen verschiedenen Protagonisten auf einer Feier und kann bei Vier-Augen-Gesprächen auswählen, was dem Gegenüber geschenkt werden soll. Hat man ein Geschenk ausgewählt, folgt die nächste Sequenz, in der die Geschenkübergabe abgespielt wird. Anschließend wird das Produkt am Rande weiter angezeigt, so dass man bei Bedarf durch einen Klick weitere Details einsehen kann.

Screenshot: Gift of giving
Eine beschenkte FrauII

Auch wenn mich persönlich Web-Erzählungen, die rein für das Bewerben von Produkten gedacht sind, grundsätzlich nicht sonderlich interessieren, halte ich die Seite giving.georgjensen.com für gelungen. Die Möglichkeit einzelne Filmsequenzen mit interaktiven Momenten zu mischen, die den Verlauf ändern, finde ich spannend. Vor allem als Produktpräsentation, die nach wie vor sehr häufig langweilig inszeniert sind, halte ich das für einen wichtigen Schritt in die richtige Richtung.

Abbildungen
  1. Titelbild: Eigener Screenshot, Georg Jensen A/S, »gift of giving«, URL: www.giving.georgjensen.com/, abgerufen am 4.5.2016.
  2. Ebd.

Mit Hilfe von McLuhans Tetrade neue Trends entdecken

Mit der Tetrade entwickelt Marshall McLuhan ein Werkzeug, mit dem zum einen die Effekte von Medien auf die Gesellschaft dargestellt werden können. Zum anderen bringt die Tetrade die Möglichkeit mit sich, neue Trends zu erkennen. Mit ihrer Hilfe »lässt sich verstehen, daß jede Technologie, wenn vollständig entwickelt und in allen Bereichen eingesetzt, umschlägt und ihrer eigentlichen Intention entgegenwirkt.«

Mit der Tetrade entwickelt Marshall McLuhan ein Werkzeug, mit dem zum einen die Effekte von Medien auf die Gesellschaft dargestellt werden können. Zum anderen bringt die Tetrade die Möglichkeit mit sich, neue Trends zu erkennen. Mit ihrer Hilfe »lässt sich verstehen, daß jede Technologie, wenn vollständig entwickelt und in allen Bereichen eingesetzt, umschlägt und ihrer eigentlichen Intention entgegenwirkt.« Des Weiteren beschreibt McLuhan, dass eine vollständige Untersuchung nur mit gleichzeitiger Darstellung von Grund und Figur geschehen kann. Innerhalb der Tetrade werden beide erkennbar.1

Sie setzt sich aus vier verschiedenen Bereichen zusammen, jeweils zwei stellen die Qualitäten von Figur (links) und Grund (rechts) dar. Das für mich verständlichste Beispiel, war McLuhans Tetrade zum Automobil, die er in Global Village vorstellt.2

Die Tetrade nach Marshall McLuhan
Die Tetrade nach Marshall McLuhanI

Die Tetrade des Automobils

Das Automobil verstärkt und erweitert demnach die Fähigkeit, Entfernungen schneller überwinden zu können sowie »bis zu einer technisch bedingten Grenze Frachten zu transportieren«.
Gleichermaßen lässt es jedoch Formen gesellschaftlicher Organisationen veralten, die »ihre Wurzeln in der Tradition des Laufens und Reitens hatten«. Nachbarschaften brachen zusammen, die Menschlichkeit innerhalb von Städten »fiel ihrem Aufbau zum Opfer«, Zentren waren wie leer gefegt und der wegsanierte Lebensraum entstand in den Vorstädten.
Des Weiteren sorgt das Automobil für eine Wiedergewinnung (»zurücknehmend« in der Grafik) privater Identität und des Unabhängigkeitsgefühls.
In seiner Umkehrung wird die Technologie bis ins Extreme getrieben und richtet sich gegen den Menschen: Die Städte sind voller Staus und Abgase, mit der Folge, dass zum einen beispielsweise die Entwicklung elektrischer Mini-Autos beginnt (oben erwähnter, vorhersehbarer Trend). Zum anderen eine Wiedergewinnung im zweiten Artefakt stattfindet: Die körperliche und natürliche Aktivität der Menschen wird in der Form von Spazieren, Joggen oder Radfahren erneut gefördert.3

Dieses Werkzeug halte ich für uns Kommunikationsdesigner für besonders spannend, da es eine gute Unterstützung in der Generierung von Innovationen sein kann. Was passiert, wenn Technologien wie Smartphones oder Drohnen ins Extreme getrieben werden? Wo findet eine Wiedergewinnung statt und wann kehren sich diese gegen uns? Zeitnah möchte ich gerne verschiedene Technologien mit der Tetrade untersuchen. Das könnte zum einen sehr spannend und zum anderen sehr hilfreich sein, falls ich in meinem Masterthema beispielsweise eine Dystopie entwickeln möchte.

Quellen
  1. Vgl. McLuhan, Marshall; Powers, Bruce; Leonhardt, Claus-Peter: »The global village: der Weg der Mediengesellschaft in das 21. Jahrhundert«, Paderborn 1995, S. 15.
  2. Vgl. Ebd., S. 34.
  3. Vgl. Ebd.
Abbildungen
  1. Rittervomnie Merosonox (Eigene Arbeit), »Tetrade nach McLuhan zu Wirkung der Medien«, Stand: 7.9.2011, via Wikimedia Commons, abgerufen am 3.3.2016, Lizenz: CC BY-SA 3.0 oder GFDL.

Web-Erzählungen mit scroll activated animations

»Kaipo Che!« ist mehr Informationsseite über ein Kite Festival in Goa als eine tatsächliche Web-Erzählung. Dennoch möchte ich es als Beispiel zeigen, da es den Umgang mit den seit 1–2 Jahren häufig verwendeten scroll activated animations zeigt. Dabei werden, wie der Name schon ahnen lässt, Animationen durch das Scrollen beeinflusst.

»Kaipo Che!« ist mehr Informationsseite über ein Kite Festival in Goa als eine tatsächliche Web-Erzählung. Dennoch möchte ich es als Beispiel zeigen, da es den Umgang mit den seit 1–2 Jahren häufig verwendeten scroll activated animations zeigt. Dabei werden, wie der Name schon ahnen lässt, Animationen durch das Scrollen beeinflusst. Die Animationen werden dabei nicht einfach ausgelöst, sondern der Nutzer kann durch die Scrollgeschwindigkeit selbst Einfluss auf die Geschwindigkeit der Animationen nehmen.
Die Website zeigt zunächst das Logo von Kaipo Che!, sowie ein Schiff, das auf dem Wasser schwimmt. Scrollt man nach unten, zerbricht das Schiff durch einen Wal der nach oben springt. So verändert sich das Bild fortlaufend, wenn man weiter nach unten scrollt. Häuser mit fliegenden Drachen zoomen ein und wieder aus, später sieht man Menschen, die die Drachen halten. Des Weiteren erhält man Einblick in die Wohnhäuser, die offen gezeigt werden. Zwischendurch erhält der Nutzer die Information über das Kite Festival mit dem Datum und dem Ort, sowie genauere Informationen am Ende der Seite, die sich auf das Wesentliche konzentrieren.

Eindruck der Website

Grundsätzlich halte ich die Website für eine schöne Idee, ein Kite Festival zu bewerben. Die Illustrationen ergeben ein einheitliches Gesamtbild und es macht Spaß durch die Seite zu scrollen, um zu sehen, was als nächstes passiert. Dennoch ist innerhalb des illustrierten Parts nur eine einzige Information zu finden, nämlich dass es sich um das Goa Kite Festival handelt und wann und wo es stattfindet. Zwar bin ich Fan davon, Dinge nicht zu überladen und nur die nötigsten Informationen aufzunehmen, aber für diese eine Information scheint mir die Seite trotz minimalistischer Grafik etwas zu aufwändig und aufgebläht. Das Projekt zeigt jedoch, wie erwähnt, die scroll activated animations und findet daher einen Platz in meiner Auswahl.

Veranstaltungsseite für das Goa Kite Flying Festival 2016 auf www.kaipoche.co/II
Veranstaltungsseite für das Goa Kite Flying Festival 2016 auf www.kaipoche.coII

Zwischen Usability und User Experience

Die scroll activated animations finden sich zwischenzeitlich in unzähligen Webseiten, um eine spannende interaktive Komponente mit einzubringen. Ich persönlich mag Webseiten mit solchen Animationen sehr, da es Spaß macht, selbst das Bild der Seite zu verändern. Dennoch war bei Kaipo Che! schon bei Google der Hinweis, dass sie leider nicht auf Smartphones und Tablet funktioniert. Hier stellt sich mir die Frage, wie sehr die Usability eingeschränkt werden sollte, nur um eine tolle User Experience zu schaffen. In diesem Fall gibt es eine gute, alternative Lösung: Eine Illustration sowie alle Informationen kurz und knapp aufgelistet.
In anderen Fällen drängt sich die Frage nach Usability und User Experience jedoch auf. Dabei geht es nicht nur um Animationen dieser Art, sondern auch um multimediale Erzählungen oder anderen Seiten, die z. B. durch fehlerhafte Funktionsweise oder lange Ladezeiten zu Frustration beim Nutzer führen kann.
Letztere Fragestellung will ich weiter verfolgen, da ich das für ein wichtiges Thema halte, bei dem auch der Gestalter aufgefordert ist, umsetzbare Lösungen anzubieten.

Abbildungen
  1. Titelbild: Eigener Screenshot, Beard Design, »Kaipoche«, URL: www.kaipoche.co, abgerufen am 26.4.2016.
  2. Eigener Screenshot, Beard Design, »Kaipoche«, URL: www.kaipoche.co, abgerufen am 26.4.2016.

Linius – Ein Tool für digitales Storytelling

Für eine Exkursion nach Tarifa, habe ich mich in das Linius Storytelling-Tool eingearbeitet. Das Tool ist dafür gedacht, multimediale Stories einfach umsetzen zu können.

Für eine Exkursion mit Britta Wandaogo, Prof. Dr. phil. Stefan Asmus und Dr. phil. habil. Hyun Kang Kim nach Tarifa, habe ich mich in das Linius Storytelling-Tool eingearbeitet. Als wissenschaftliche Hilfskraft wird es später meine Aufgabe sein, die Geschichten der einzelnen Gruppen im Web technisch aufzubereiten. Die Exkursion findet Anfang Juni für fünf Tage statt.

Das Tool

Das Tool ist dafür gedacht, multimediale Stories einfach umsetzen zu können. Neben gewöhnlichen Artikeln oder Bildergalerien können zum Beispiel Hotspots oder eine Lupe eingebaut werden, wodurch Details erst auf den zweiten Blick sichtbar werden. Des Weiteren gibt es die Möglichkeit ein Intro zu erstellen oder einen Zähler auf der Seite zu integrieren, der nach vorheriger Dateneingabe das mitzählt, was man mitzählen möchte. Beispiel: Seit Sie auf dieser Seite sind, wurden xy Plastikbeutel im Meer versenkt.
Eine seitliche Navigation bietet einen schönen Überblick über die einzelnen Kapitel oder Inhalte.

Tools des Linius Storytelling-ToolsI
Tools des Linius Storytelling-ToolsI

Beispiele

Die Projekte Diyarbakir – Belagerte Stadt und Das Oktoberfest-Attentat sind zwei schöne Beispiele, die mit Linius entwickelt wurden. Beide Projekte zeigen den Umgang mit der Kombination aus Videos, Fotos sowie Bildergalerien, die teilweise grafisch genutzt werden.

Nicht sonderlich spektakulär

Zwar werde ich erst im Verlauf des Projekts weitere Einblicke in das Tool erhalten, auf den ersten Blick scheint es jedoch ein solides Tool zu sein, das einfach zu bedienen ist. Auffallend ist, dass einzelne Elemente wie die Hotspots scheinbar nicht responsive sind. Das werde ich im Prozess noch einmal testen. Sollte es jedoch tatsächlich so sein, fände ich das für ein bezahltes Tool, das wohl aus öffentlichen Geldern finanziert ist, keine gute Werbung. Den Anspruch als Tool, das sich in erster Linie an Menschen richtet, die Webseiten nicht selbst umsetzen können und ein einfach zu handhabendes Werkzeug benötigen, um Geschichten zu erzählen, kann es allemal erfüllen. Insgesamt sind jedoch die möglichen Beitragsarten wie z. B. Artikel, Audio, Vimeo- und YouTube-Embedding, Video oder Bildergalerie nicht sonderlich spektakulär.

Abbildungen
  1. Eigener Screenshot, URL: http://linius-storytelling.de/wp/, abgerufen am 7.4.2016.

Von Sternenhimmeln und Midi-Dateien

Olia Lialina nimmt sich der einzelnen Elemente an, die in den 90er Jahren populär und massenhaft im World Wide Web zu finden waren. Das Web ist noch nicht alt, die Menschen in Aufbruchstimmung und die Utopie, dass es dort einen wirklich freien und geschützten Raum für alle gäbe.

»Digital Folklore – To computer users, with love and respect« von Olia Lialina und Dragan Espenschied (Ed.) beschäftigt sich so wie die gesamte Arbeit der Medien- bzw. Netzkünstler mit der Webkultur der 90er Jahre.

Olia Lialina nimmt sich der einzelnen Elemente an, die in den 90er Jahren populär und massenhaft im World Wide Web zu finden waren. Dazu gehören die Under Construction-Schilder, Sternenhimmel als Hintergründe, Freie Kollektionen von Webelementen, Links sowie Linksammlungen, Midi-Lieder, die noch heute im Ohr nachklingen, Frames, das Tilde-Zeichen, die »Welcome to my Homepage«-Seite sowie große »Mail Me«-Buttons.1 Das alles steht für die 90er: Das Web ist noch nicht alt, die Menschen in Aufbruchstimmung und es gibt noch die Utopie, dass es dort einen wirklich freien und geschützten Raum für alle gäbe.

Mein 90er-Web

Ich persönlich war begeistert vom Web der 90er. Ich war häufiger online, als ich es tatsächlich sein sollte. Verglichen zu heute war die monatliche AOL-Flatrate von 30 Stunden aber natürlich lachhaft. Mit 14 (2000) habe ich meine erste Webseite bei geocities online gestellt und es war toll mit ersten Gästebüchern oder Foren eine Online-Plattform für meine Klasse schaffen zu können. Nichtsdestotrotz waren mir die Anfänge damals natürlich nicht vollends klar. Wie für die meisten Menschen war das WWW ein großer Spielplatz für mich. Ich war enthusiastisch und habe das Internet geliebt. Dennoch war mir mit 13/14 Jahren natürlich nicht der kulturelle Wert bewusst. Ich musste keine alternativen Nischen für meine Kunst finden oder viele Denkweisen meines bisherigen Lebens überdenken. Ich wuchs im Internet auf und konnte es so sehr schnell als Normalität annehmen.
Obwohl ich diesen Hype nicht als erwachsener Mensch wahrgenommen habe, war ich ein kleiner Teil davon und spüre noch heute, dass das Web der 90er eine gewisse Anziehungskraft ausstrahlt. Vielleicht mag es nostalgisch sein, doch ich erinnere mich gern an erste Experimente mit Frames, an erste geklaute Bildchen, die man hochladen konnte oder den Klang der Midi-Sounds.

Always under construction

Das Web wuchs weiter und die Under Construction-Schilder wandelten sich in Sätze wie »Always under construction«. Das Zeichen für ständige Aktualität bis im Web 2.0 die Beta-Versionen zum Standard nicht vollendeter Versionen war.2
Dieser Wandel ist für mich ein Zeichen dafür, wie sehr wir noch in der Gutenberg-Welt leben. Das Internet stellt keinen Anspruch auf Vollständigkeit, da dessen Eigenschaft daraus besteht, dass es ständig anwächst. Ein fortlaufendes Wachstum, ein täglich wandelbarer Raum, der von dieser Veränderung lebt und der ohne dessen Aktualität beinahe unbedeutend für uns wäre. Wir nutzen das Medium nicht überwiegend aus dem Grund, festgeschriebene und vollständige Informationen abzurufen. Das mag wichtig sein beim Recherchieren und natürlich suchen wir häufig nach Informationen, die uns weiterhelfen. Natürlich nutzen wir das Web auch als Tool für Flugbuchungen und Restaurantbewertungen. Doch der tägliche Umgang besteht wohl darin, die Veränderungen – die Neuigkeiten – abzugreifen. Neue Nachrichten der Welt, neue Trends bei Twitter, neue Posts bei Facebook oder neue Trends in der Designwelt. Das dürfte zumindest aus meiner Sicht den Großteil ausmachen.

Ein Hinweis dafür, wie sehr wir noch in der Welt ohne Internet und Computer leben, gibt auch Olia Lialina. Sie wundert sich darüber, wie viele Präfixe es gibt, nur um klar zu machen, dass etwas mit dem Computer hergestellt wurde oder über ein Computer Interface angesteuert werden kann: Net, web, media, computer oder digital.3 Wir scheinen noch großen Wert darauf zu liegen, diese Auswüchse klar zu kennzeichnen. Welcher Sinn steckt hinter Pendants wie Buch-Erzählung oder Literatur-Story?
Zugegeben verwende ich selbst häufig Präfixe dieser Art. Es ist das Bedürfnis genau zu definieren, um was es sich handelt und eine Unterscheidung zu treffen. Dennoch bräuchte man diese Präfixe spätestens dann nicht mehr, wenn man sich schon im Web bewegt.

Digital Folklore

Das Buch »Digital Folklore« ist ein wertvolles Buch, welches sich lohnt zu lesen. Projekte von Studenten der Merz Akademie Stuttgart zeigen einen experimentellen Umgang mit dem World Wide Web, Texte über Internet-Trends wie z. B. Lolcats, geben einen Einblick in die Internet-Kultur und Olia Lialina kann mich mit ihren Recherchen und Analysen zu der Kultur der 90er Jahre ohnehin stets neu begeistern.

Quellen
  1. Vgl. Lialina, Olia; Espenschied, Dragan: »Digital Folklore«, Stuttgart 2009, S. 20–33.
  2. Vgl. Ebd., S. 20f.
  3. Vgl. Ebd., S. 9.

Der Verlust der 90er Jahre

»Digital Folklore – To computer users, with love and respect« von Olia Lialina und Dragan Espenschied beschäftigt sich so wie die gesamte Arbeit der Medien- bzw. Netzkünstler mit der Webkultur der 90er Jahre.
Mit ihrer Arbeit »One Terabyte of Kilobyte Age« archivieren und analysieren sie Geocities-Webseiten, die kurz vor der Schließung des Webseiten-Dienstes, gesichert werden konnten. Auch in ihrem Buch weisen sie erneut darauf hin, dass unsere Inhalte auf MySpace, Facebook und Co. eines Tages gelöscht und vergessen werden könnten.

»Digital Folklore – To computer users, with love and respect« von Olia Lialina und Dragan Espenschied beschäftigt sich so wie die gesamte Arbeit der Medien- bzw. Netzkünstler mit der Webkultur der 90er Jahre.
Mit ihrer Arbeit »One Terabyte of Kilobyte Age« archivieren und analysieren sie Geocities-Webseiten, die kurz vor der Schließung des Webseiten-Dienstes, gesichert werden konnten. Auch in ihrem Buch weisen sie erneut darauf hin, dass unsere Inhalte auf MySpace, Facebook und Co. eines Tages gelöscht und vergessen werden könnten.1

Auch Luciano Floridi (Von der Kultur, die statisch wurde ») sieht das als problematisch an. Er spricht dabei vom digitalen Gedächtnisverlust, der z. B. durch veraltete Technologien zu Stande kommt, da diese nicht mehr nutzbar sind (z. B. Diskette) oder die Inhalte nicht von einer alten Technologie in eine neue übertragen werden (z. B. von der Diskette auf CD).2 Durch die Überspeicherung von Webseiten werden Dokumente in einen Zustand der Geschichtslosigkeit geführt und damit flüchtig wie die mündliche Kultur.3

Die Arbeit der zwei Künstler findet primär im Bereich Web statt und sie greifen vergangene Trends sowie die Aufbruchstimmung zu Beginn des Webs auf. Hier wird mir erneut bewusst, wie viel kulturelle Eigenheiten und Phasen durch die Löschung von Daten verloren geht. Schon jetzt ist es schwierig, die 90er Jahre im Web zu »finden«. Zwar ist es insgesamt noch ein leichtes, da viele der jetzigen Nutzer schon damals online waren und die Ästhetik und Stimmung des damaligen Web 1.0 kennen. Zudem gibt es schon erste Retrotrends, die die 90er imitieren. Dennoch werden die Webseiten dieses Jahrzehnts – bis auf die, die bewusst gespeichert werden – in naher Zukunft sicherlich verschwunden sein.

Unabhängig davon, ob es erste Firmenwebseiten oder Seiten für das eigene Haustier sind: Wie ist es möglich, die Daten und damit ein Teil der Kultur und Geschichte zu konservieren? Gibt es Parallelen zu Büchern, welche sicher auch nicht vollständig die Zeit überdauert haben? Und wie wichtig ist es überhaupt, dass möglichst alles noch in 20 Jahren auffindbar ist? Wie vermessen wäre es denn, das alles nicht zu speichern, wenn wir doch generell die Möglichkeit haben vieles zu speichern?

Ich denke, dass es in den nächsten Jahren enorm wichtig sein wird, auf diese Fragen eine Antwort und eine gute Lösung zu finden. Vielleicht ist es schon ein Anfang, wenn wir zumindest mit unseren eigenen Daten sorgfältiger umgehen.

Abschließend noch ein Hoffnungsschimmer: Zumindest mit der waybackmachine kann man sich 498 Milliarden Webseiten ansehen, viele von ihnen reichen bis in die 90er Jahre.

Quellen
  1. Vgl. Lialina, Olia; Espenschied Dragan: »Digital Folklore«, Stuttgart 2009, S.8.
  2. Vgl. Floridi, Luciano: »Die 4. Revolution – Wie die Infosphäre unser Leben verändert«, Berlin 2015, S. 36.
  3. Vgl. Ebd., S. 37.

Die Dynamik der Medien richtig nutzen

In »Medien verstehen – Der McLuhan-Reader«, herausgegeben von Martin Baltes, Fritz Böhler, Rainer Höltschl und Jürgen Reuß, findet man Marshall McLuhans Untersuchung »Die mechanische Braut: Volkskultur der industriellen Menschen«. Hier beschreibt er, wie sich ihm fortwährend Edgar Allan Poes »Sturz in den Malstrom« ins Bewusstsein drängt.

In »Medien verstehen – Der McLuhan-Reader«, herausgegeben von Martin Baltes, Fritz Böhler, Rainer Höltschl und Jürgen Reuß, findet man Marshall McLuhans Untersuchung »Die mechanische Braut: Volkskultur der industriellen Menschen«. Hier beschreibt er, wie sich ihm fortwährend Edgar Allan Poes »Sturz in den Malstrom« ins Bewusstsein drängt. Die Hauptessenz ist dabei, nicht »gegen die beachtlichen Strömungs- und Druckkräfte anzukämpfen, die sich durch die mechanischen Einwirkungen von Presse, Radio, Kino und Werbung um uns herum aufgebaut haben«, sondern ihre Abläufe genau zu studieren und deren Dynamik zu nutzen.1 Diese Essenz halte ich vor allem für uns Kommunikationsdesigner – als Vermittler von Informationen – für sehr essentiell.

Während der letzten Jahre macht sich eine Angst vor den digitalen Medien, sowie Unwissenheit und Unsicherheit breit. Dystopien sagen uns unsere »schwarze Zukunft« mit ganzheitlicher Überwachung, Transparenz und Kontrolle voraus. Ein Beispiel hierfür ist z. B. der Roman »Der Circle« von Dave Eggers (Der unvollkommene Kreis »). Doch während wir uns heutzutage noch vermeintlich schützen können, indem wir offline gehen oder uns mit einem alten Nokia 3210 zufrieden geben, wird es in der nahen Zukunft kaum mehr Möglichkeiten geben, uns aus der medialen Welt zurückzuziehen.
Man könnte sich sämtlichen Innovationen verschließen, jedoch wird es zum einen immer häufiger erzwungene Berührungspunkte mit der Technologie geben. Zum anderen bleibt man auf der Strecke, wenn man sich stets dem Neuen verweigert.

Umso wichtiger ist es, einen angemessenen Umgang mit diesem medialen Wandel zu finden. Hierfür halte ich McLuhans Überlegung, den medialen Strom zu nutzen, für sehr wichtig. Anstatt ständig gegen ihn anzukämpfen, sollten wir den Strom dafür nutzen, Lösungen zu finden und zu verbreiten, die uns den Umgang entweder erleichtern oder überhaupt erlernen lassen. An dieser Stelle halte ich auch das Stichwort Medienkompetenz, die ich schon an anderer Stelle hinterfragt habe (Der digitale Wahn – Zwischen Medienkompetenz und Chaoskopf »), für wichtig. Die Kompetenz mit Medien umgehen zu können wird immer wichtiger, fällt jedoch nachfolgenden Generationen, die schon in der Infosphäre aufwachsen, sicherlich von Grund auf leichter.

Quellen
  1. Baltes, Martin; Böhler, Fritz; Höltschl Rainer; Reuß Jürgen (Alle Hg.): »Medien verstehen – Der McLuhan-Reader«, Mannheim 1997, S. 29.

Digitales Storytelling – Eine lose Sammlung

Wie können Erzählungen im und mit dem digitalen Bereich aufgebaut werden? Zwei Beispiele für digitale Erzählungen sowie einer »immersive documentary«.

Im Rahmen meiner Recherche bezüglich des Projekts mit Eye Tracking (Storytelling mit Hilfe von Eye-Tracking ») bin ich auf die folgenden Beispiele gestoßen, die ich nur als lose Sammlung auflisten möchte. Es lohnt sich diese Erzählungen selbst durchzuklicken, letzteres (»Door in the dark«) wird auch als »immersive documentary« bezeichnet.

»Firestorm« von The Guardian (Jon Henley & Laurence Topham): Schauen und Klicken
»Snow Fall« von der New York Times (John Branch): Schauen
»Door in the dark« von Robert Frost: Trailer

Von Loops und der Hyper-Realität

Das Buch »Expanded Narration« vereint Essays zur B3 Biennale des Bewegten Bildes, die sich ganz dem Geschichten erzählen im digitalen Zeitalter widmet. Besonders spannend ist für mich dabei der Essay »Loop Narration und hyper-überlagerte Narrative« von Eva Paulitsch und Uta Weyrich.

Das Buch »Expanded Narration. Das Neue Erzählen« von Bernd Kracke und Marc Ries (Hg.) vereint Essays zur B3 Biennale des Bewegten Bildes, die sich ganz dem Geschichten erzählen im digitalen Zeitalter widmet.

Besonders spannend ist für mich dabei der Essay »Loop Narration und hyper-überlagerte Narrative« von Eva Paulitsch und Uta Weyrich.
Da ich bereits darüber nachdenke, Erzählungen mit animierten GIFs oder Cinemagraphs zu entwickeln, deren Eigenschaft u. a. die Wiederholung ist, interessiert mich vor allem ein Part des Essays, der sich mit der Erzählung durch Loops beschäftigt: »Lange #Loops nehmen den Verstand mit auf eine Reise. Ein langer Loop fördert die Generierung vieler Assoziationen, wohingegen ein kurzer Loop durch schnell abfolgende #Wiederholungen eher eine spezifische Idee kultiviert. Jedoch ist auch eine kurze Loop-Sequenz aufgrund ihrer hypnotisierenden Wiederholungen imstande, den Geist des Betrachters auf neue assoziative Handlungswege zu führen.«1
Und weiter: »Ein Loop löst die Wichtigkeit der Positionierung auf, lässt somit jedes Ereignis auf einer unsichtbaren #zirkulären Zeitleiste mehrdeutig werden.«2

Zum einen finde ich dabei die Einteilung von kurzen und langen Loops sehr interessant, da ich mich nie so spezifisch damit auseinandergesetzt habe. Bei meinen eigenen Gedanken spielte bisher eher die generelle Frage nach erzählerischer Logik und dem Gesamtzusammenhang der einzelnen Loops eine Rolle.
Zum anderen halte ich die Auflösung der Wichtigkeit der Positionierung für essentiell. Nachdem ich überzeugt bin, dass es eine Rückbesinnung auf eine natürliche Art der Erzählung gibt, habe ich mich näher mit Marshall McLuhan beschäftigt (Das globale Dorf – Raum, Zeit und Dynamik »). Er spricht davon, dass wir zunehmend in einer Welt der Gleichzeitigkeit leben und die Zeit aufgehört und der Raum verschwunden ist. Während vor allem die asiatische und orientalische Welt längst in dieser Welt lebt.
Die Vorstellung von Gleichzeitigkeit ist für mich als sequentiell denkender und visuell geprägter Mensch – wie wir es im Westen nun mal sind – unvorstellbar.
Obwohl ich den Ansatz sehr spannend finde und sehr lange über ihn nachgedacht habe, bin ich nie zu einem konkreten Punkt gekommen, der mir in meinem Masterthema weiter hilft. Es motiviert mich lediglich, eine Erzählung zu schaffen, die in ihrer Gleichzeitigkeit aufgeht.
Aus diesem Grund finde ich die Idee des Loops, der sich in seiner Zeitlichkeit auflöst besonders spannend. Das könnte meine Überlegungen bezüglich einer Erzählung mittels animierter GIFs oder Cinemagraphs weiter anreichern.
Eine erste Idee hierzu ist eine Rauminstallation mit vielen Bildschirmen, auf denen einzelne Clips abgespielt werden. Jedes Video, GIF oder Cinemagraph würde dabei einen Teil der Erzählung darstellen, die sich dem Zuschauer nach und nach erschließen würde. Dabei wäre es zu vernachlässigen, eine lineare Ordnung zu schaffen. Wichtiger wäre es, einen Mikrokosmos der Erzählung zu entwickeln, in den man gänzlich eintauchen kann.

Eva Paulitsch und Uta Weyrich erwähnen passend dazu, dass es für den Aufbau interpretierbarer Narrative essentiell ist, Kausalitäten zu vermeiden. Des Weiteren sollte der Betrachter »nur so viel an Informationen erhalten, um sich seine eigene Bedeutung zu kreieren.«3
Diese Punkte sind auch aus meiner Sicht besonders wichtig. Vor allem die Möglichkeit, dass der Betrachter selbst die Welt erschließt und in ihm das Gefühl entsteht, die Geschichte selbst entdeckt zu haben, halte ich für einen bedeutsamen Faktor heutiger Erzählungen.

Abschließend möchte ich noch ein Aussage von Parker Ito übernehmen, die im selben Essay zitiert wurde. Er erwähnt, dass wir in einer hybriden Realität leben, in der es einen fließenden Übergang zwischen dem physischen und virtuellen Raum gibt und es die Option der 90er Jahre, sich nämlich einfach auszuloggen, nicht mehr gibt. Er hält den Übergang der Welten zwar für flüssig, jedoch nicht für nahtlos.4 Diesen Gedanken halte ich deshalb für spannend, weil sich auch Luciano Floridi (Erkenntnisse und Eindrücke zu Luciano Floridis Buch »Die 4. Revolution« ») mit diesem Thema auseinandersetzt. Zwar spricht auch er davon, dass es eine Onlife-Erfahrung geben wird, in der die Unterscheidung zwischen on- und offline nichtig ist. Jedoch sieht Floridi keine zwei Welten, sondern eine einzige Infosphäre, in der es kein außen und innen mehr geben wird.

Quellen
  1. Kracke, Bernd, Ries, Marc (Hg.): »Expanded Narration. Das neue Erzählen«, Bielefeld 2013, S. 163.
  2. Ebd.
  3. Ebd., S. 164.
  4. Vgl. Ebd., S. 163.

Zwischen narrativem Wissen und additiven Informationen

Byung-Chul Han beschäftigt sich in seinem Buch »Die Errettung des Schönen« erneut mit der Frage nach der Zeitlichkeit und seiner narrativen Strukturen gegenüber punktueller Abfolgen von Ereignissen. Für ihn sind Informationen eine reine Addition, die nichts erzählen und die Narration verdrängen. Wissen besitzt dagegen eine Innerlichkeit und verbindet durch eine andere Zeitstruktur die Vergangenheit mit der Zukunft.

Byung-Chul Han beschäftigt sich in seinem Buch »Die Errettung des Schönen« erneut mit der Frage nach der Zeitlichkeit und seiner narrativen Strukturen gegenüber punktueller Abfolgen von Ereignissen.
Für ihn sind Informationen eine reine Addition, die nichts erzählen und die Narration verdrängen.1 Wissen besitzt dagegen eine Innerlichkeit und verbindet durch eine andere Zeitstruktur die Vergangenheit mit der Zukunft.2 Informationen weisen jede Metapher von sich, sind transparent und sprechen geradeaus, während sich das Wissen geheimnisvoll zurückziehen kann.3 Des Weiteren lassen sich laut ihm zwar Informationen aus dem »Daten-Haufen« herausfiltern, »sie generieren jedoch weder Erkenntnis noch Wahrheit.«4 Zusätzlich wohnt der Wahrheit »eine Vertikalität inne. Daten und Informationen bewohnen dagegen das Horizontale.«5

Narration trotz Informationen

In meinem Beitrag »Das globale Dorf – Raum, Zeit und Dynamik« beschreibe ich meine Überlegungen, eine Narration zu erstellen, die letztendlich durch Daten – und damit Informationen – dynamisch veränderbar ist. An dieser Stelle komme ich in den Zwiespalt, ob das tatsächlich eine Erzählung sein kann, der die grundlegende Eigenschaft von Dauer innewohnen kann, über die Han auch schon in anderen Büchern schreibt. Aus meiner Sicht könnte es dem Anspruch einer Narration gerecht werden, wenn die eigentliche Erzählung von Menschenhand – damit durch Wissen und nicht durch reine Information – entwickelt ist und lediglich die Bildwelt mit genau festgelegten Kriterien durch Information erschaffen wird. Generell müsste man diesem Ansatz jedoch als Experiment sehen, da es durchaus sein kann, dass die Bildwelt trotz exakter Kriterien eher additiv und zufällig entsteht und die eigentliche Erzählung nicht transportiert wird. Andererseits wäre hier Raum für unvorhersehbare Zufälligkeiten, die ihr einen neuen Reiz zusprechen könnte.

Mit Loops zum Moment der Dauer

Han führt zudem aus, dass kinematographische Bilder im Gegensatz zu Photogrammen aufgrund ihrer Zeitlichkeit kein punctum besitzen. »Die Sprache des punctum ist ein Traumprotokoll der Imagination« und man kann die Augen nicht schließen, weil beim Öffnen ein anderes Bild zu sehen ist. Man ist zu ständiger Gefräßigkeit gezwungen und vor allem die Nachdenklichkeit würde hier auf der Strecke bleiben.6 Hier stelle ich mir die Frage, ob meine Idee, Erzählungen mit Loops zu schaffen (Von Loops und der Hyper-Realität »), dieses Problem lösen kann. Man hätte immer wieder auf ein Neues Zeit, in sich zu gehen und die Loops auf sich wirken zu lassen. Zusätzlich gäbe es keinen konkreten Anfang und kein konkretes Ende, was grundsätzlich einen Moment der Dauer hervorrufen könnte. Mit dieser Fragestellung möchte ich mich weiterhin beschäftigen, da ich momentan davon überzeugt bin, dass es eine Lösung geben könnte, die beide Welten von Information und Wissen vereint.

Quellen
  1. Vgl. Han, Byung-Chul: »Die Errettung des Schönen«, Frankfurt am Main 2015, 3. Auflage, S. 90.
  2. Vgl. Ebd., S. 19.
  3. Vgl. Ebd., S. 42.
  4. Ebd., S. 71.
  5. Ebd.
  6. Vgl. Ebd., S. 49.

Shoppen oder Sitzenbleiben während Kinofilmen

Im Essay »Keine Eile, keine Zeit. Zur Frage der richtigen Dauer eines Films« beschreibt Vinzenz Hediger unter anderem, dass Filme früher »in Loops als Dauerschleife« im Kino liefen. Daher gab es in Hollywood-Filmen häufig Redundanzen, um auch den Zuschauern, die mitten im Film ins Kino kamen, die Gelegenheit zu geben, die Erzählung zu verstehen.

Das Buch »Expanded Narration. Das Neue Erzählen« von Bernd Kracke und Marc Ries (Hg.) vereint Essays zur B3 Biennale des Bewegten Bildes, die sich ganz dem Geschichten erzählen im digitalen Zeitalter widmet.

Im Essay »Keine Eile, keine Zeit. Zur Frage der richtigen Dauer eines Films« beschreibt Vinzenz Hediger unter anderem, dass Filme früher »in Loops als Dauerschleife« im Kino liefen. Daher gab es in Hollywood-Filmen häufig Redundanzen, um auch den Zuschauern, die mitten im Film ins Kino kamen, die Gelegenheit zu geben, die Erzählung zu verstehen. Lediglich Hitchcock begann mit der Forderung, dass man Psycho »am besten von Anfang an schaut«.1

Andy Warhol schaffte dagegen mit »Empire« einen 8-stündigen Film, weil er zum einen gegen das Sitzenbleiben rebellieren wollte und zum anderen sollte man die Möglichkeit haben, während des Films raus zu gehen, um z. B. einzukaufen.2
»Inception« oder »The Sixth Sense« werden als aktuelle Beispiele genannt, in denen es den Versuch gibt, Geschichten in Fragmenten zu erzählen.3

Wie man sieht, ist unsere heutige Film- und Kinokultur, bei der man Filme bestenfalls von der ersten Sekunde an schaut, gar nicht so alt. Der naheliegende Gedanke ist, dass so auch weitaus kompliziertere Geschichten erzählt werden können, wenn nicht ständig Redundanzen auftauchen und das Level nicht auf einem »Ich kann immer einsteigen und verstehe es dennoch«-Level bleibt. Zwar möchte ich nicht behaupten, dass man zeitgenössische Beispiele wie »Inception« und »The Sixth Sense« unabhängig vom Einstieg versteht, dennoch zeigen die Filme einen hohen Grad an Komplexität.
Hedigers Essay bringt mich in meinem Masterthema in meinen Überlegungen zu gleichzeitigen Erzählungen weiter. Ich habe mich mit Marshall McLuhan beschäftigt (Das globale Dorf – Raum, Zeit und Dynamik »), der davon spricht, dass wir zunehmend in einer gleichzeitigen Welt leben. Als westlicher Mensch – und damit als sequentiell denkender und visuell geprägter Mensch – fällt mir die Vorstellung von Gleichzeitigkeit schwer. Obwohl ich seinen Ansatz sehr spannend finde, befürchte ich ihn nicht im Detail zu verstehen. Dennoch motiviert er mich, eine Erzählung zu entwickeln, die sich in ihrer Gleichzeitigkeit auflöst. Ich finde es interessant, dass nur vor wenigen Jahrzehnten Filme im Loop gezeigt wurden. Momentan überlege ich, eine Erzählung mit animierten GIFs oder Cinemagraphs zu schaffen, welche für mich die Grundeigenschaft der Wiederholung in sich tragen. Zwar bedeutet animierte GIFs nicht gleichermaßen, dass sie eine Wiederholung in sich tragen. So wie sie jedoch heute in sozialen Netzwerken verwendet werden, wird ihnen diese Eigenschaft aufgesetzt. Ich kann mir vorstellen, dass in einer Rauminstallation mit mehreren Bildschirmen Loops gezeigt werden und sich der Betrachter selbst die Erzählung erschließt. Doch bis dahin ist es noch ein langes Vorhaben.

Quellen
  1. Kracke, Bernd; Ries, Marc (Hg.): »Expanded Narration. Das neue Erzählen«, Bielefeld 2013, S. 202.
  2. Vgl. Ebd.
  3. Vgl. Ebd., S. 203

Das globale Dorf – Raum, Zeit und Dynamik

Marshall McLuhan beschreibt in seinem Buch »Global Village«, dass das elektrische Zeitalter ein neues Kommunikationsmodell benötigt. Durch dieses Zeitalter, dass die »Gutenberg-Galaxis« ablöst, lösen sich Raum und Zeit auf, da Informationen unabhängig von Raum und Zeit transportiert werden können.

Marshall McLuhan beschreibt in seinem Buch »Global Village«, dass das elektrische Zeitalter ein neues Kommunikationsmodell benötigt.1 Durch dieses Zeitalter, dass die »Gutenberg-Galaxis« ablöst, lösen sich Raum und Zeit auf, da Informationen unabhängig von Raum und Zeit transportiert werden können. Ein mehrfach erwähntes Beispiel ist dabei eine Anekdote eines Apollo-Astronauten. Als es die ersten TV-Übertragungen von Raumfahrten gab, war der Mensch gleichzeitig auf der Erde als auch im Weltall, Raum und Zeit lösten sich damit auf und das globale Dorf entsteht.2

Die unterschiedliche Nutzung der linken und rechten Gehirnhälfte

Während die Bevölkerung im orientalischen und asiatischen Raum sehr von der rechten Hemisphäre des Gehirns geprägt ist, erhält die linke Hemisphäre in der westlichen Welt den Vorzug.3 Die linke Hirnhälfte arbeitet sehr sequentiell und kausal. Alle Geschehnisse werden eingeordnet, Fähigkeiten wie das Lesen oder Schreiben sind hier beheimatet. Die rechte dagegen besitzt qualitative Fähigkeiten oder auch beispielsweise musikalische und akustische.4 Während die orientalischen Fähigkeiten darin liegen, dass das Leben »mit allen Sinnen gleich erfasst und im Gleichgewicht keine ordnenden Schwerpunkte kennt«, ist die abendländische Denkweise an eine unbewegliche Sicht mit dem Bedürfnis nach Hierarchien gekettet.5 Sie ordnet Informationen strukturell in den visuellen Raum ein, in dem die Dinge in zeitlicher Folge miteinander verbunden sind. Beispiele sind hierfür Gemälde oder die Fotografie.6 Auf der anderen Seite werden in der rechten Hemisphähre des Hirns Geschehnisse und Prozesse in gleichzeitige Beziehung gesetzt. Überall befinden sich – ohne Abgrenzung – Zentren und Fokusse, was unserer heutigen Informationswelt an Komplexität sehr nahe kommt. Ein Beispiel hierfür ist die auditive Welt, wie z. B. die Klangwelt einer Symphonie.7
In seiner Theorie vom Wechselspiel von Grund und Figur bringt er ein, dass orientalische Kulturen den Grund sehen, während die westliche Welt sehr stark an den Figuren orientiert ist.8 Da alle elektronischen Medien jedoch die rechte Hirnhälfte betonen9, wird zukünftig zunehmend ein neues Kommunikationsmodell und eine Orientierung an der rechten Hälfte wichtig werden.

Die Linearität des Buchdrucks, die unser westliches Denken stark beeinflusst, wird dadurch abgelöst, dass elektromagnetische Wellen einen Raum der Gleichzeitigkeit entstehen lassen, in dem die Informationen, die sich mit Lichtgeschwindigkeit bewegen, nicht linear-sequentiell, sondern gleichzeitig auf uns einprasseln.10 Entscheidend ist, dass nicht die Inhalte, sondern das Medium selbst unser Denken prägt und formt. So wird unsere Denkweise stark durch das Buch – mit seiner linearen und sequentiellen Form – beeinflusst. Eine emotional reduzierte Form und Vereinheitlichung der Sprache entsteht durch die Schrift.

Zurück zu dynamischen Erzählungen

Neben der Gleichzeitigkeit und Auflösung des Raums, spielt in der heutigen Gesellschaft vor allem die Dynamik eine große Rolle. Schon im November habe ich mich dem Wechselspiel von Statik und Dynamik auseinandergesetzt (Von der Kultur, die statisch wurde »). Diesen Ansatz wollte ich nun mit den Theorien von McLuhan weiterverfolgen. Meine damalige Überlegung war, dass erst durch die Schrift Erzählungen festgeschrieben wurden. Zuvor waren sie dynamisch und wurden – wie man es auch heute bei mündlichen Erzählungen kennt – verändert überliefert. Jede Besonderheit der Sprache sowie die Emotionalität des Erzählers wurden ausgemerzt, da für jeden ersichtlich Wort für Wort gleichermaßen niedergeschrieben war. Eine festgeschriebene Erzählung in einem Buch ist in Köln dieselbe wie in Stuttgart. Dort dieselbe wie in Berlin.
Zwar hat das natürlich – geschichtlich gesehen – den Vorteil, dass Überlieferungen richtig und nachvollziehbar sind. Dennoch verlieren sie aus meiner Sicht an auratischer Ausstrahlung, was wohl kein essentieller, aber auch nicht unwichtiger Faktor ist.

Des Weiteren wurde ich auf das Buch aufmerksam, da ich davon überzeugt bin, dass es eine Rückbesinnung auf eine natürliche Art der Erzählung gibt (Rückbesinnung auf eine natürliche Art der Erzählung »). Erzählungen werden wieder dynamisch und beeinflussbar durch user-generated content oder interaktive Abhandlungen. Interaktive Geschichten oder Spiele führen dazu, dass unterschiedliche Erzählstränge gewählt werden können, die den Inhalt für jeden Betrachter anders darstellen. Zwar sind die Stränge an sich nach wie vor linear, dennoch ist eine Auflösung der bisher eindeutig linearen Stränge ersichtlich. Momentan denke ich darüber nach, wie sich Geschichten vollständig verändern lassen, indem es z. B. eine ständige, automatische Veränderung und Erneuerung der Bildwelt geben könnte, die nach einer Grundauswahl zufällig ist oder sogar ohne Grundauswahl mit Daten aus dem Netz funktionieren könnte. Diese Überlegung halte ich nur mit einer Daten-Anknüpfung an das World Wide Web für umsetzbar, da ich ein System, das z. B. auf eine Vorauswahl auf dem Computer zurückgreift, nicht für dynamisch und umfassend genug halte.

Im Weiteren werde ich diese Gedanken vertiefen und mich über weiteres Recherchematerial informieren. Der Zusammenhang aus McLuhans Theorien, der Entwicklung der Gesellschaft in Bezug auf Medien sowie der Erzählungen an sich, ist für mich momentan ein schwer verständliches, aber gleichzeitig äußerst spannendes Themenfeld.

Quellen
  1. Vgl. McLuhan, Marshall; Powers, Bruce; Leonhardt, Claus-Peter: »The global village: der Weg der Mediengesellschaft in das 21. Jahrhundert«, Paderborn 1995, S. 25.
  2. Vgl. Ebd., S. 12.
  3. Vgl. Ebd., S. 17.
  4. Vgl. Ebd., S. 77.
  5. Ebd., S. 87.
  6. Vgl. Ebd., S. 31.
  7. Vgl. Ebd.
  8. Vgl. Ebd., S. 87.
  9. Vgl. Ebd., S. 95.
  10. Vgl. Ebd., S. 25.

Zwischen Spam, Darknet und Datenvisualisierung

Auszug einiger Projekte, die im ZKM Karlsruhe während der Ausstellung »Globale Digitale« gezeigt wurden.

Die Ausstellung Globale Digitale im ZKM Karlsruhe »thematisiert die kulturellen Effekte der Globalisierung und Digitalisierung, welche das Leben auf unserem Planeten verändern.«1

Neben vielen spannenden Projekten und tollen Ideen, kann ich nur wenige Arbeiten in meine Recherche aufnehmen oder sie sind zum Teil schon in meinem Rechercheblog zu finden, wie z. B. das großartige Projekt »Grosse Fatigue« von Camille Henrot (In the beginning everything was dead. »).

Was ich bei meiner Auswahl erneut merke: Kommunikationsdesign, das sich rein mit der strategischen Ausrichtung von Marken, Unternehmen oder ähnlichem beschäftigen, um nach getaner konzeptioneller Arbeit, ein Design zu entwickeln, finde ich leider mehr als uninteressant. Ich schätze Projekte mit künstlerischem Einfluss gespickt mit Inhalten, die sich mit gesellschaftlich relevanten Themen beschäftigen. Inhalte, die Kritik üben, humoristisch Möglichkeiten und Grenzen ausloten oder Visualisierungen, die Unsichtbares, das jeder kennt, sichtbar machen.

Das Sichtbarmachen des Unsichtbaren

Sowohl das Projekt »Diary« von Philipp Schaerer als auch »bit.code« von Julius Popp nutzen das Sichtbarmachen des Unüberschaubaren oder Unsichtbaren zumindest als Methode ihrer Arbeit.
Philip Schaerer legt sämtliche Dokumente wie Fotografien, Grafiken oder Pläne offen, die sich seit 1998 auf seinen Festplatten angesammelt haben und sowohl systematisch benannt als auch mit Stichworten versehen sind. Diese visualisierte Datenflut gibt in der Gesamtheit einen Überblick über die Datenmengen, die sich in unserem täglichen Leben ansammeln und verraten im Detail mehr über das alltägliche Leben. Laut der Projektbeschreibung, die im ZKM zu finden ist, schlägt die Arbeit »einen anderen Zugang zum angesammelten Datenmaterial vor und versucht über die optische Wahrnehmung die Gesamtheit der Datenmenge als Bild erfahrbar zu machen«.

ZKM Karlsruhe | Diary
Diary von Philipp SchaererII

Julius Popp zeigt mit seiner Visualisierung von Bits, die kleinste Daten- oder Informationseinheit, die unendlichen Möglichkeiten zur Kombination von Bits bei einer endlichen Zahl von Bits. Auf Ketten, die sich bewegen sind die einzelnen Bits in schwarz und weiß aufgezogen. Die Ketten und einzelnen Bits werden so kombiniert, dass lesbare Worte auftauchen, die nach kurzer Zeit wieder verschwinden. Die Worte stammen dabei aus einer Reihe von Nachrichtenwebseiten, die nach den häufigsten Begriffen durchforstet werden. Damit ist bit.code auch gesellschaftlicher Spiegel in Bezug darauf, welche Themen gerade wichtig oder relevant sind.

ZKM Karlsruhe bit.code
bit.code von Julius PoppIII

Abgründe des WWW

Die Arbeiten »Scambaiters« von Mishka Henner und »Random Darknet Shopper – The Bot’s Collection« von der Mediengruppe Bitnik bedienen sich, aus meiner Sicht, auch einer ähnlichen »Methode« für die Entwicklung ihrer Projekte: Einfach mal etwas nahe liegendes machen, das man normal nicht tut und gerade deshalb seinen Reiz ausmacht.
Hinter jeder E-Mail steckt irgendwo ein Mensch und deshalb dachte sich Mishka Henner, er könnte ja mal auf Spam-Mails antworten. In »Scambaiters« sammelt und reproduziert Henner Bilder und Texte, die er aus dem Mail-Verkehr mit diesen »Spam-Mail-Schreibern« hat. Er zeigt die spannende Dynamik, die dabei entsteht, wenn Menschen – meist aus Nigeria oder Ghana – via Spammail eine glaubhafte Version für Zahlungen oder ähnliches erfinden, um Menschen in Nordamerika oder Europa davon zu überzeugen, Zahlungen zu tätigen. Auf der anderen Seite stehen diese Nordamerikaner und Europäer und wollen glaubhafte Beweise und Fotos für die erfundenen Geschichten.

ZKM Karlsruhe Scrambaiters
Scrambaiters von Mishka HennerIV

Für die »Random Darknet Shopper – The Bot’s Collection« wurde im Darknet geshoppt. Der clevere Schachzug: Nicht die Mediengruppe selbst hat fleißig eingekauft, sondern eine programmierte Software, die 100 $ in Bitcoins zur Verfügung hatte. Die Einkäufe reichten dabei von nachgemachten Schuhen über Ecstasy-Pillen bis hin zu einem eingescannten Pass. Nachdem die Objekte in St. Gallen ausgestellt waren, wurden sie beschlagnahmt. Aber nun: Kann die Gruppe dahinter belangt werden, wenn eine Software die Einkäufe getätigt hatte?

ZKM Karlsruhe Random Darknet Shopper
Random Darknet Shopper – The Bot’s collection von der Mediengruppe BitnikV

Interessant fand ich abschließend bei allen aufgeführten Projekten, dass sie sich alltäglicher Phänomene bedienen und ungewöhnliche oder andere Zugänge zu den jeweiligen Themen finden. Des Weiteren haben sie alle eine Relevanz für die Allgemeinheit. Selbst »Diary«, das zunächst nur einem Tagebuch ähnelt, zeigt ein Abbild einer ganzen Generation oder Zeit, die sich im Wandel und im Zusammenspiel mit der digitalen Welt befindet.

Quellen
  1. Vgl. ZKM Karlsruhe, Programm: GLOBALE, URL: http://zkm.de/event/2015/06/globale-programm, abgerufen am 13.2.2016.
  2. Die Informationen über die Projekte, habe ich über die Projektbeschreibungen innerhalb des ZKM bei den jeweiligen Arbeiten erhalten. Es scheint als wären die Texte von den Künstlern selbst.

Abbildungen
  • Titelbild, II.–V. Eigene Fotografien – die jeweiligen Urheber/Künstler sind in der Bildunterschrift zu finden.

Von der Frage nach dem tatsächlich Existenten

Woher wissen wir, was tatsächlich existiert? Diese Frage stellt Douglas Davis 2001 in einem Interview im Zusammenhang mit dem Internet. Wie steht es heute damit?

In meinem vorherigen Post (Imitation der Interaktivität ») beschreibe ich bereits eine interessante Ansicht des Medienkünstlers Douglas Davis, die sich darum dreht, ob es echte Interaktion überhaupt gibt. Davis liefert einen weiteren, wichtigen Anstoß mit der Frage, woher wir wissen »daß das, was wir sehen, tatsächlich existiert, wenn es durch einen technischen Apparat vermittelt wird und uns die direkte Erfahrung fehlt?«1. Er vergleicht die Tatsache, dass wir nicht wissen, was im Internet tatsächlich existiert mit Platons Höhlengleichnis, bei dem der »Betrachter nicht weiß, ob das, was er sieht, wirklich wahr ist«2.
Obwohl heutzutage ein viel größeres Verständnis für das Internet gegeben ist, da es kein »neues Kommunikationsmedium« mehr ist, sondern viel mehr alltäglicher Begleiter, stellt sich noch immer die Frage, woher wir wissen, was tatsächlich existiert.

Wie echt sind entmaterialisierte Objekte und Stellvertreter des Realen?

Als ich mich mit Floridi auseinander gesetzt habe (Erkennnisse und Eindrücke zu Luciano Floridis »Die 4. Revolution« »), ging es bei der Frage nach Existenz eher um die Frage, ob z. B. Virtuelles echt ist. Die Frage wurde dabei mit einem deutlichen Ja beantwortet. Douglas Davis bezieht sich mehr auf die inhaltliche Komponente, nämlich ob es z. B. echt ist, wenn via Webcams Leute bei der Arbeit gezeigt werden. Obwohl man diese Frage nie eindeutig beantworten wird, werden aus meiner Sicht solche Fragen heutzutage nicht mehr gestellt. Sie haben an Relevanz verloren. Doch auch wenn das World Wide Web kein Fremdkörper mehr ist und es an Vertrauen gewonnen hat, bereitet uns diese Entmaterialisierung der Dinge sowie die Kultur der Stellvertreter noch immer große Probleme. Musik oder Filme gewinnen nach vielen Jahren der Schwarzkonsumiererei erst wieder an Wert. Man ist sich nun bewusst, dass MP3-Dateien wie Lieder auf einer CD die Produkte langer Arbeit sind – auch wenn der Wert noch immer nicht gleich bemessen wird und insgesamt natürlich verloren hat. Zudem macht uns die Kultur der Stellvertreter – z. B. Profile als Stellvertreter der Person, »Gefällt mir« als Stellvertreter für Zustimmung – noch immer zu schaffen. Auch hier können wir nicht immer klar beantworten, ob die Personen (oder eher die Stellvertreter) »echt« sind, aber auch hier nähern wir uns langsam einer Vertrauensbasis an. Die Beispiele zeigen, dass wir nach 25 Jahren World Wide Web das »neue Virtuelle« noch immer nicht gänzlich angenommen haben. Die Frage danach, was tatsächlich existiert, unterstreicht das zudem.

Leben in der virtuellen Sphäre

Obwohl wir in der Infosphäre wohnen, von Informationen abhängig sind und das World Wide Web uns sämtliche Dienste erbringt – unabhängig davon, ob z. B. Kommunikation, Information oder Unterhaltung – scheinen wir das World Wide Web und das Virtuelle an sich noch immer nicht als weitere, feste Schicht unserer Sphäre – die nicht nur der physische Raum ist – anerkannt zu haben.

Quellen
  1. Baumgärtel, Tilman: »net.art 2.0 – Neue Materialien zur Netzkunst«, Nürnberg 2001, S.81.
  2. Ebd.

Imitation von Interaktivität

Wie interaktiv kann das World Wide Web tatsächlich sein? Ist vollständige Interaktivität erst mit Künstlicher Intelligenz möglich?

Tilmann Baumgärtel vereint in »net.art 2.0 – Neue Materialien zur Netzkunst« Interviews mit Künstlern aus diversen Sparten, die mindestens am Rande mit Netzkunst in Berührung kommen. Wichtig zu wissen ist, dass das Buch aus dem Jahr 2001 stammt. Sprich: In der Entstehung war man wahrscheinlich mitten im Höhepunkt der Dotcom-Blase, dennoch war das World Wide Web lange nicht so einflussreich und weitreichend wie heute. Douglas Davis, amerikanischer Medienkünstler, äußert in seinem Interview, dass er nicht glaubt »daß das Web in punkto Interaktivität viel zu bieten hat. Es ist eher so eine Art ›Multiple choice‹, eine Kinderversion von Interaktivität.«1 Mit Interaktivität ist an dieser Stelle sehr wahrscheinlich nicht die Interaktion zweier Menschen via E-Mail, Chat oder Ähnlichem gemeint, sondern zwischen Mensch und Maschine. Oder Mensch und dem bestehenden »Kunstwerk«. Zwar sind wir nun im Jahr 2016 technologisch einen großen Schritt weiter und Interaktivität ist einer der großen Begriffe, doch diese Aussage warf viele Fragen bei mir auf, da dieser Satz in keiner Weise veraltet zu sein scheint. Ich frage mich z. B., ob ähnlich wie im Museum eine tatsächliche Wechselwirkung zwischen Kunstwerk und Rezipient entstehen kann. Wie tiefgreifend ist diese Wechselwirkung? Wie abhängig vom Ort, wenn er kein physischer Raum ist? Ist das Kunstwerk und die Beziehung zu ihm nicht noch wechselhafter? Welche Schritte könnten generell die nächsten sein, um eine größtmögliche Interaktivität in Kunstwerken oder Erzählungen zu erreichen? Wird Interaktivität jemals aus ihren Kinderschuhen heraus wachsen? Aber unabhängig davon, ob interaktive Erzählungen/Filme, ob Technologien wie VR-Brillen, Eye-Tracking oder Bewegungssensoren: Alles, was sich dort verändert, bewegt, tut, also interagiert, ist keine wirkliche Interaktivität, sondern ein Auslösen eines Events durch einen bestimmten Startmechanismus. Schon im Voraus bis ins Äußerste durchdacht und geplant. Unter Umständen spielt hier auch die KI eine große Rolle, ohne die all’ die Versuche Interaktives zu entwickeln, nur eine Imitation ist. Eine Imitation von Interaktivität.

Quellen
  1. Baumgärtel, Tilman: »net.art 2.0 – Neue Materialien zur Netzkunst«, Nürnberg 2001, S.87.

Erkenntnisse und Eindrücke: Luciano Floridis Buch »Die 4. Revolution«

In einem Vortrag mit Sabrina Calvagna und Vernice Collet stellten wir im Kurs »Digitale Welt und neuer Realismus« von Prof. Dr. Stefan Asmus im WS 2015/2016 unsere Erkenntnisse des Buchs »Die 4. Revolution« von Luciano Floridi vor. Im folgenden sammele ich meine persönlichen Eindrücke, welche auh für meine Master-Arbeit von Bedeutung sind.

Luciano Floridi wagt einen Versuch erste Ansätze für eine neue Informationsphilosophie zu entwickeln, um dem rasanten Wandel, dem unsere Zeit unterliegt, gerecht zu werden. Neben den Inhalten selbst, halte ich den Gedanken, den richtigen Umgang mit diesen Veränderungen zu finden, für besonders wichtig.1 Während der letzten Jahre häuft sich die Kritik an den Informations- und Kommunikationstechnologien und nicht selten sagen uns Dystopien unsere »schwarze Zukunft« voraus – Angst, Unwissenheit und Unsicherheit als wahrscheinlichster Auslöser. Doch während wir uns heutzutage noch vor sämtlichen »Ängsten« (z. B. Datenschutz, Überwachung, …) vermeintlich schützen können, indem wir offline gehen oder uns mit einem alten Nokia 3210 zufrieden geben, bleibt diese Möglichkeit zukünftig wohl aus. Zwar könnte man sich sämtlichem Neuen verschließen, was aus meiner Sicht zum einen nicht absolut möglich sein wird, da es immer – erzwungene – Berührungspunkte mit der neuen Technologie geben wird. Zum anderen bleibt man langfristig – traurigerweise – auf der Strecke, wenn man sich stets dem Neuen verweigert.

Dynamik der Strömung nutzen

Wichtiger wäre es, einen angemessenen Umgang mit diesem Wandel zu finden, anstatt sich vor ihm zu verschließen.
Als eine wichtige Verbindung und einen wichtigen Anstoß halte ich hier auch McLuhans Essay »Die mechanische Braut«, in dem er beschreibt, wie sich ihm fortwährend Edgar Allan Poes »Sturz in den Malstrom« ins Bewusstsein drängt. Die Hauptessenz ist dabei, nicht »gegen die beachtlichen Strömungs- und Druckkräfte anzukämpfen, die sich durch die mechanischen Einwirkungen von Presse, Radio, Kino und Werbung um uns herum aufgebaut haben«, sondern ihre Abläufe genau zu studieren und deren Dynamik zu nutzen2. Genau diese Aufgabe wird sich auch uns als Kommunikationsdesigner – als Vermittler von Informationen – zunehmend aufdrängen.

Die virtuelle Wirklichkeit

Für eine weitere interessante Ansicht Floridis, halte ich sein Verständnis von Wirklichkeit. Er beschreibt wie Virtuelles und Nicht-Virtuelles zunehmend verschwimmen und es kein »außerhalb« und »innerhalb« der Infosphäre mehr geben wird.3 Laut ihm wird es eine informationelle Auffassung von Wirklichkeit geben. Das heißt, alle Existenz- und Verhaltensformen sind authentisch und echt, unabhängig davon, ob es künstliche, hybride, synthetische, … Formen sind.4
Dafür spricht für ihn, dass auch das vermeintlich »Echte« von Menschenhand geschaffen ist und es schwierig bis unmöglich ist, etwas völlig unangetastetes, ursprüngliches auf der Erde zu finden. Zum anderen wird beispielsweise unser soziales Selbst durch Soziale Medien geformt und unsere Identität beeinflusst.5 Das scheinbar »Unechte« beeinflusst unsere Wirklichkeit, was die Frage nach einem Wirklichkeitsanspruch aus meiner Sicht absolut beantworten kann.

Bedeutung für meine Arbeit

Diese Auffassung halte ich vor allem mit Blick auf mein Master-Thema für sehr spannend. Innerhalb dessen, befasse ich mich mit interaktivem bzw. auch transmedialem Storytelling, sowie der Grenze zwischen Wirklichkeit und Fiktion. Da das Wirkliche und Virtuelle zunehmend verschwimmen, wird meinem Empfinden nach, auch die Grenze zwischen Wirklichkeit und Fiktion immer schwieriger zu erkennen sein. Zwar ist das nicht prinzipiell von Vorteil und es sollte zukünftig noch mehr Wert auf Medienkompetenz gelegt werden, um die Fähigkeit, diese Unterschiede zu erkennen, auszubilden. Dennoch sehe ich es als große Chance für Gestalter, Filmemacher, Konzepter oder ähnliche, mit dieser Grenze zu spielen und sie bewusst zu überschreiten oder unsichtbar zu machen. Dass Schnittstellen, wie es Floridi erwähnt, immer transparenter werden, kann an dieser Stelle zusätzlich an Bedeutung gewinnen.

Resümierend halte ich nicht jedes Thema, das Floridi innerhalb des Buchs behandelt, für mich und meine Themenwahl äußerst spannend. Das kann jedoch an seiner sehr allumfassenden Auswahl liegen. Umso wichtiger und treffender finde ich seine Ansätze, in den Bereichen, die für mich von Interesse sind. Dass er diese Ansätze auch für einen Laien gut und verständlich artikuliert und Bezüge zur Vergangenheit und unserer generellen Einordnung auf der Zeitachse herstellt, finde ich besonders wichtig, um seiner Argumentation folgen zu können. Er gibt einen großen Einblick in mögliche, relevante Themen der zukünftigen Informationsphilosophie, die sicher erst am Anfang der Entwicklung steht und noch große Aufgaben für uns bereit hält.

Quellen
  1. Vgl. Floridi, Luciano: »Die 4. Revolution – Wie die Infosphäre unser Leben verändert«, Berlin 2015, S. 9.
  2. Baltes, Martin; Böhler, Fritz; Höltschl, Rainer; Reuß, Jürgen (Alle Hg.): »Medien verstehen – Der McLuhan-Reader«, Mannheim 1997, S. 29.
  3. Vgl. Floridi, Luciano: »Die 4. Revolution – Wie die Infosphäre unser Leben verändert«, Berlin 2015, S. 329.
  4. Vgl. Ebd., S. 285 f.
  5. Vgl. Ebd., S. 92.

»Film und Games. Ein Wechselspiel« im Filmmuseum Frankfurt

Die Ausstellung »Film und Games. Ein Wechselspiel« war vom 1.7.2015–31.1.2016 im Filmmuseum Frankfurt zu sehen. Neben verschiedener Einblicke in das Wechselspiel von Filmen und Games seit den 80er Jahren, waren besonders die technischen Aspekte spannend, wie im 18., 19. und Anfang des 20. Jahrhunderts versucht wurde, Bewegtbilder und die Illusion einer anderen Wirklichkeit herzustellen. Diese wurden in der permanenten Ausstellung gezeigt.

In der digitalen Erzählung wird die Verschmelzung von Filmen und Games immer bedeutender und das Game teilweise schon als zukünftiges Leitmedium angesehen (Die Hybridform aus Game und Film »).

Aus diesem Grund habe ich die Ausstellung »Film und Games. Ein Wechselspiel« besucht, die vom 1.7.2015–31.1.2016 im Filmmuseum Frankfurt zu sehen war und von Andreas Rauscher und Kokurator Wolfger Stumpfe kuratiert wurde.

Grundsätzlich ging es dabei um die Annäherung und Beeinflussung von Film und Games seit den 80er Jahren. Bis in die 90er Jahre war diese Annäherung nur einseitig. Spiele griffen Filmszenen auf, seit Beginn der 90er ist das Verhältnis jedoch wechselseitig und Spiele beeinflussen auch Filme. So konnte in dem Spiel Indiana Jones mit 8-Bit-Ästhetik von 1989 schon die Filmhandlung nachvollzogen werden. Ein hervorragendes Beispiel für die entgegengesetzte Richtung ist beispielsweise Tomb Raider mit der Figur Lara Croft. Aus der Spielreihe, die 1996 ihren Anfang nahm, wurde 2001 eine Verfilmung und rund um den Charakter wurde eine transmediale Welt aufgebaut. So taucht Lara Croft nicht nur im Spiel oder Film auf, sondern auch u. a. in Romanen und Comics. Die Story ist dabei offen, wird stets weiterentwickelt und noch immer werden Tomb Raider-Spiele auf den Markt gebracht.

Bewegungsabläufe mit Motion Capture

Sehr spannend war die Ausstellung für mich jedoch besonders aus technischer Sicht. Das Spiel »Ryse: Son of Rome« kann zum einen u. a. mit der Kinect und Sprachsteuerung gesteuert werden. Zum anderen war das interessanteste die Entwicklung der Bewegungsabläufe der Charaktere. Mit Motion Capture und Schauspielern wurden die Bewegungsabläufe digital erfasst und auf die Spielcharaktere übertragen. Das macht die Bewegungen, allen voran die Mimik, besonders realistisch. Des Weiteren möchte ich weiter über Art Games recherchieren, die vor allem in Hinblick auf Ästhetik und Inhalt spannend sind.

Thaumtrop, Wundertrommel und Co.

Außerhalb der Ausstellung gab es im Filmmuseum noch feste Räume mit permanenten Ausstellungen. Hier fiel mir besonders die Art und Weise auf, wie im 18., 19. und Anfang des 20. Jahrhunderts versucht wurde Bewegtbilder und die Illusion einer anderen Wirklichkeit herzustellen. So z. B. mit Hilfe von Guckkästen, dem Thaumatrop, dem Stereoskop, der Wundertrommel, Mutoskopen oder Kinetoskopen. Teilweise erinnern die Techniken schon an aktuelle Techniken, so ist das Prinzip des Stereoskops ähnlich der Google Cardboard (Erste Gehversuche mit der Google Cardboard »).
Letztendlich war die stetige Ausstellung der interessanteste Part für mich, da es mich anspornt mit analogen Techniken zu experimentieren, die heute wieder in einen völlig anderen Kontext gesetzt werden können.

Abbildungen
  1. Titelbild: Eigener Screenshot der Webseite iamag.co, URL: https://www.iamag.co/features/making-of-ryse-son-of-rome/ryse-son-of-rome-2-2, abgerufen am 25.1.2016.

Die Hybridform aus Game und Film

In »Digitales Erzählen – Die Dramaturgie der Neuen Medien« gibt der Autor Dennis Eick einen Überblick über die Möglichkeiten Erzählungen im Zeitalter des Internets und der Digitalisierung zu entwickeln.

In »Digitales Erzählen – Die Dramaturgie der Neuen Medien« gibt der Autor Dennis Eick einen Überblick über die Möglichkeiten Erzählungen im Zeitalter des Internets und der Digitalisierung zu entwickeln. Dabei hinterfragt er kritisch die momentane Übergangsphase, in der häufig »neue Medien mit Inhalten alter Medien gefüllt«1werden, wie er Marcus Bösch zitiert.

Ein Fokus des Buchs liegt auf den Bewegtbildmedien Game und Film, welche sich zunehmend gegenseitig beeinflussen und zu hybriden Formen verschmelzen. Diesbezüglich äußert Gundolf Freyermuth, dass Hybridität »in der Geschichte der Medien ja fast immer eine Übergangsphase«2 ist. Er sieht das Game, wenn es das nicht schon ist, sogar als zukünftiges Leitmedium3 und zählt sogleich die Vorteile transmedialer Games auf: Sie »bieten nämlich alles, was Filme bieten: dieselbe Vielfalt – plus Interaktivität und Non-Linearität«.4

Unterschiede und Parallelen

Doch wo liegen die grundlegenden Parallelen und Unterschiede? Inga von Staden nennt als Parallelen beispielsweise die narrativen Strukturen oder Cutscenes, die das Spiel unterstützen.5 Cutscenes, Filmsequenzen, die zwischen einzelnen Sequenzen eingeblendet werden, sind nun erstmal keine neue Errungenschaft. Schon in den 90er Jahren sieht man das häufig u. a. bei Konsolenspielen wie Super Mario oder Zelda für den Nintendo 64. Die Szenen unterstützen die Erzählung und den Aufbau der Spielwelt, in der wir uns bewegen und Aufgaben erfüllen. Jedoch werden sie natürlich zunehmend zum einen grafisch anspruchsvoller, zum anderen nimmt der Anteil in vielen Games zu. So gibt es zwischenzeitlich sogar schon »Game Movies«, die mehr einem interaktiven Film als einem einfachen Game mit »etwas zusätzlicher Geschichte« entsprechen. Hier sind aktuell Heavy Rain oder Beyond: Two Souls zu nennen, welche für die PlayStation am 1.3.2016 erscheinen werden.

Veränderung narrativer Strukturen

Die Cutscenes bzw. die generelle Entwicklung von Game Movies verändert sich weiter in ihren narrativen Strukturen. Das Game besteht üblicherweise fast ausschließlich aus dem wichtigen Hauptteil, während Einleitung und Schluss nur kleine Parts des Ganzen sind.6 Das ist auch eine grundlegende Unterscheidung zum Film. Dem Spiel werden zwischenzeitlich durch Cutscenes nicht nur begleitend narrative Elemente hinzufügt, sondern der komplette Game Movie ist ein Wechselspiel zwischen Game und Film, so dass sich zum einen der Anteil der einzelnen Parts verändert und zum anderen je nach Entscheidung ein völlig anderer Plot entsteht. Frank Raki erklärt das schön mit dem »Patchwork einzelner Elemente«, die während dem Spiel aufgesammelt werden und keine feste Kette von Ereignissen sind.7 Durch die Tatsache, dass »wir« die Erzähl-Elemente aufsammeln und nicht der Schauspieler, dem wir lediglich zuschauen, entsteht natürlich auch eine höhere Immersion.
Durch Anpassung der Musik, Kamera, dynamischen Farbschemen oder das Lösen von Rätseln mittels Schwarmintelligenz wird diese Immersion deutlich erhöht.8

Insgesamt ist es ohnehin schon eine große Herausforderung, eine funktionierende Spielwelt aufzubauen, in der »Fehlverhalten«9 verhindert wird. Dass nun Unmengen an Erzählung hinzukommt, macht die Entwicklung aus meiner Sicht nicht einfacher. Die Frustrationsschwelle ist hier sicher etwas niedriger, da der Nutzer, dessen Fokus automatisch verstärkt auf die Erzählung gelenkt wird, schnell merkt, wenn die Geschichte keinen Sinn macht.

Ich halte es für eine gute Möglichkeit, Erzählungen in dieser Form zu entwickeln und den Immersionsgrad somit zu steigern. Die Geschichten können selbst entdeckt und erlebt werden, man wird Teil der Erzählung. Ich frage mich jedoch, welche Alternativen es für Spieler gibt, die nicht an großen Erzählsträngen interessiert sind, sondern »einfach nur zocken« wollen. Nicht für abwegig halte ich jedoch tatsächlich, dass Games das neue Leitmedium werden können. Alles wird spielerischer, der große Prozess der »Gamification« ist längst angebrochen. Selbst in Bereichen der Arbeitswelt wird dieser Belohnungsmechanismus angewandt und man kann unter anderem schon in Zeiterfassungsprogrammen für bestimmte Ziele Batches erhalten.

Quellen
  1. Eick, Dennis: »Digitales Erzählen – Die Dramaturgie der neuen Medien«, Konstanz und München: UVK Verlagsgesellschaft mbH, 2014, 1. Auflage, S.227
  2. Ebd., S.106
  3. Vgl. Ebd., S.93
  4. Ebd., S.123
  5. Vgl. Ebd., S.93
  6. Vgl. Ebd., S.113
  7. Vgl. Ebd., S.110
  8. Vgl. Ebd., S.124
  9. Ebd., S.115
Abbildungen
  1. Eigener Screenshot von YouTube, silenig: »Indiana Jones and the Last Crusade (PC Deutsch) Preview Video«, URL: https://www.youtube.com/watch?v=9ivNLD75rAU, TC: 00:04:16, abgerufen am 24.1.2016.
  2. Ebd.

Selbstbestimmungstheorie

Die Selbstbestimmungstheorie nach Edward K. Deci und Richard M. Ryan hebt unter anderem die drei grundlegenden psychologische Bedürfnisse des Menschen offen. Darunter fallen die Bedürfnisse nach Kompetenz oder Wirksamkeit, Selbstbestimmung und sozialer Zugehörigkeit.
Dennis Eick bringt in seinem Buch »Digitales Erzählen« diese Theorie, die sich unter anderem auch mit den Themen Motivation und dem davon abhängigen Verhalten auseinandersetzt, in Zusammenhang mit Erzählungen.

Die Selbstbestimmungstheorie nach Edward K. Deci und Richard M. Ryan hebt unter anderem die drei grundlegenden psychologische Bedürfnisse des Menschen offen. Darunter fallen die Bedürfnisse nach Kompetenz oder Wirksamkeit, Selbstbestimmung und sozialer Zugehörigkeit.1
Dennis Eick bringt in seinem Buch »Digitales Erzählen« diese Theorie, die sich unter anderem auch mit den Themen Motivation und dem davon abhängigen Verhalten auseinandersetzt, in Zusammenhang mit Erzählungen. Er führt aus, dass traditionelle Medien Unterhaltung ansprechen, während transmediale Erzählungen genau diese drei Bedürfnisse ansteuern können.2

Zwar führen Deci und Ryan ihre Theorie sehr detailliert aus, ich möchte dabei jedoch nicht in die Tiefe gehen. Im momentanen Status reicht es für meine Recherchearbeit aus, an der Oberfläche zu kratzen.
Grundsätzlich besitzt jeder Mensch das Bedürfnis nach sozialer Zugehörigkeit. Nach einem Umfeld, in das er fest eingebettet ist und in dem er selbst wirken kann. Diese Wirksamkeit möchte der Mensch aus eigenem Willen erreichen. Er möchte zu Nichts gezwungen werden, sondern aus seiner Autonomie heraus über sein Handeln entscheiden.3

Wie in einem vorherigen Beitrag über die natürliche Art der Erzählung erwähnt (Eigenschaften neuer Erzähl-Formate ») halte ich die soziale Komponente für eine sehr wichtige neuer Erzählungen. Menschen wollen sich in einem sozialen Umfeld einfinden und verbunden sein. Auch die zwei weiteren Bedürfnisse sind aus meiner Sicht Teil der neuen Erzähl-Formate. So halte ich zum einen Interaktivität für eine wichtige Komponente, die sich in beiden, der Wirksamkeit und der Selbstbestimmung, niederschlägt. Zum anderen können Social Media Konzepte wie bei About:Kate (About: Kate ›Wann haben Sie bemerkt, dass Sie nicht mehr wissen, wer Sie sind‹ ») zumindest auf kurze Dauer interessant sein. Meine persönliche Einschätzung ist, dass dieses Konzept nicht für mehrere Jahre trägt, da sich Menschen in ihrer Selbstbestimmung sicher angegriffen fühlen werden, wenn sie merken, dass ihnen etwas unbewusst aufgedrängt wird.

Ich persönlich halte die Selbstbestimmungstheorie für eine für Gestalter interessante Theorie, da es auch für uns interessant ist, diese drei Grundbedürfnisse des Menschen zu befriedigen. Daher möchte ich mich an anderer Stelle noch einmal detaillierter damit auseinandersetzen.

Quellen
  1. Vgl. Deci, Edward L.; Ryan, Richard M.: »Die Selbstbestimmungstheorie der Motivation und ihre Bedeutung für die Pädagogik«, 1993, URL: https://www.phil-fak.uni-duesseldorf.de/fileadmin/Redaktion/Institute/Allgemeine_Sprachwissenschaft/Dokumente/Bilder/1993_DeciRyan_DieSelbstbestimmungstheoriederMotivation-German.pdf, S. 2, abgerufen am 15.2.2016.
  2. Vgl. Eick, Dennis: »Digitales Erzählen – Die Dramaturgie der neuen Medien«, Konstanz und München 2014, S. 103.
  3. Vgl. Deci, Edward L.; Ryan, Richard M.: »Die Selbstbestimmungstheorie der Motivation und ihre Bedeutung für die Pädagogik«, 1993, URL: https://www.phil-fak.uni-duesseldorf.de/fileadmin/Redaktion/Institute/Allgemeine_Sprachwissenschaft/Dokumente/Bilder/1993_DeciRyan_DieSelbstbestimmungstheoriederMotivation-German.pdf, S. 3, abgerufen am 15.2.2016.

In the beginning everything was dead.

Mit »Grosse Fatigue« hat sich Camille Henrot der kleinen Herausforderung gestellt, in einem 13-Minütigen Video das Universum zu erklären. Und das ziemlich exzellent.

Beim Besuch in der Ausstellung »GLOBALE: Exo-Evolution« im ZKM Karlsruhe fiel mir Camille Henrots Projekt »Grosse Fatigue» nicht nur besonders auf, sondern ich fand es sowohl beeindruckend als auch fesselnd. Zum einen weil sie sich die kleine Aufgabe gesetzt hat, sämtliche Schöpfungsmythen dieser Welt – von den Sioux, Navajo, Inuit bishin zum Hinduismus, Christentum, Judentum – in eine Story zu packen. Zum anderen, weil das aus meiner Sicht auch noch großartig umgesetzt ist.

Das 13-minütige Video zeigt ein Sammelsurium an Videos – jeweils eingebettet in einem einzelnen Browserfenster. Die Fenster öffnen und schließen sich, sind ständig anders angeordnet, von unterschiedlicher Größe, überlagern sich und so wird die Story Stück für Stück weiter erzählt und die Inhalte verknüpft. Die Videos zeigen – gefühlt – alles. Videos von anthropologischen Fundstücken, Büchern, Zeichnungen, Wikipedia-Einträgen bishin zu Tieren, Fossilien und unzähligen anderen Objekten und Vorgängen. Durch die Vielfalt an einzelnen Broswerfenstern, hält die Künstlerin das Projekt auch für kein Video, das man z. B. in klein am Laptop schauen kann. So zumindest in ihrem Interview auf Vimeo. Die Bildwelt wird zudem durch ein gesprochenes Gedicht verknüpft und erklärt. Die Art der Sprechweise und des Sounds orientiert sich am Spoken Word, wo auch der Ursprung des Hip Hops liegt. Der Beat und das Gesprochene erinnern auch sehr stark an Hip Hop, die unterschiedlichen Rhythmen des gesprochenen Textes erinnern an Poetry Slam, der auch verwandt ist. Diese Kombination zieht in den Bann und man möchte es nochmal und nochmal sehen.
Um einen Eindruck zu bekommen, sollte man sich das Ganze definitiv anschauen. Bestenfalls in einem Museum mit dunklem Raum, Leinwand und gutem Sound. Am Laptop wirkt es leider lang nicht so großartig, aber gibt zumindest einen ersten Eindruck. Leider konnte ich im Netz keine vollständige Version finden, unter folgenden Links gibt es jedoch Ausschnitte zu sehen:


Camille Henrots »Grosse Fatigue«I auf Vimeo »

Camille Henrot Grosse Fatigue (Ausschnitt) WKV Münster auf YouTube

Soundausschnitt auf audioboom

Neben den Hintergründen und der Erzählung selbst, finde ich die Erzählweise von »Grosse Fatigue« großartig. Es dient mir als hervorragendes Beispiel, Material aus sämtlichen Richtungen, das scheinbar nicht zusammen passt, zu verbinden. Das Poem selbst, ist eine Collage sämtlicher Sätze aus Schöpfungsgeschichten, die offensichtlich erst keine zusammenhängende Logik haben. Dennoch bildet die Collage eine einheitlich wirkende Erzählung und besitzt eine Struktur, so dass die Erzählung eine enorme Eigendynamik entwickelt.

Abschließend ein kleiner textlicher Auszug, der das noch deutlicher zeigen kann. Das Gedicht hat Camille Henrot zusammen mit Jacob Bromberg, einem amerikanischen Dichter, entwickelt:
In the beginning there was no earth, no water – nothing. There was a single hill called Nunne Chaha.
In the beginning everything was dead.
In the beginning there was nothing; nothing at all. No light, no life, no movement, no breath.
In the beginning there was an immense unit of energy.
In the beginning there was nothing but shadow and only darkness and water and the great god Bumba.1

Quellen
  1. Vgl. Henrot, Camille: »Grosse Fatigue«, Kurzfilm, 13 Minuten, Frankreich 2013, TC: Nicht exakt nachvollziehbar, jedoch ist das der Beginn des Gedichts.
Abbildungen
  1. Einbau von Vimeo, Collectif Combo: »Camille Henrot›Grosse Fatigue‹«, URL: https://vimeo.com/86174818, abgerufen am 14.1.2016.

Essenzen aus meinem Interview mit Dr. Christoph Schwitzer

Essenzen eines Skype-Interviews mit dem Primatologen Dr. Christoph Schwitzer vom 8.1.2016.

Die Quelle dieser Essenzen ist ein Skype-Interview mit dem Primatologen Dr. Christoph Schwitzer vom 8.1.2016. Das vollständige Interview kann man an dieser Stelle nachlesen: Interview mit dem Primatlogen Dr. Christoph Schwitzer.

Forschung
Dr. Christoph Schwitzer definiert Forschen als »systematische Aufnahme von Daten zu einem bestimmten Thema mit dem Endziel mehr über dieses bestimmte Thema zu wissen.«
Des Weiteren ist es zum einen sehr wichtig, seine Ergebnisse öffentlich zugänglich zu machen. Zum anderen, dass die Forschung wirklich systematisch abläuft. Die Methode muss exakt erklärbar sein, so dass jeder mit den gleichen Voraussetzungen das gleiche oder ein zumindest sehr ähnliches Ergebnis erhält.

Forschung als Grundlage weiterer Forschung

Vergangene Forschungsprojekte dienen als Grundlage für kommende Forschungsprojekte. So beschreibt mir der Primatologe, wie sich Forschungsfragen teilweise über Jahrzehnte evolvieren bis dann »irgendwer auf den Trichter kommt« und die Fragestellung lösen kann. Da die Forschungen aufeinander aufbauen ist es umso wichtiger exakt zu dokumentieren, mögliche Fehlerquellen zu nennen, sowie Empfehlungen für weitere Forschungen auszusprechen.

Die Dokumentation und der Umgang mit Fehlerquellen
Die Dokumentation ist ein sehr wichtiger Bestandteil der Forschung. Zum einen sollten – wie oben erwähnt – Methoden so genau dokumentiert sein, dass immer die gleichen/ähnlichen Ergebnisse zu Stande kommen und dass auf vorangegangene Forschung stetig aufgebaut werden kann. So können andere Labore beispielsweise auch einzelne Komponenten austauschen und dennoch verlässliche Vergleiche treffen.

Zum Anderen ist die Dokumentation und das Offenlegen von möglichen Fehlerquellen ein wesentlicher Teil. Fehler und Fehlerquellen gehören zwar zur Forschung dazu, sollten aber genannt und gut dokumentiert werden. Wenn in einem besonders warmen Dezember Früchte zur Analyse gesammelt werden, kann das eine mögliche Fehlerquelle sein. Bei genauer Dokumentation weiß man, dass dieser Dezember möglicherweise – je nach Gebiet – nicht besonders repräsentativ ist.

Die Limitierung der eigenen Arbeit
Diese Auseinandersetzung mit Fehlerquellen, setzt den kritischen Umgang mit der eigenen Arbeit voraus. Man sollte lernen sich selbst und seine Arbeit zu hinterfragen und vor allem verstehen, wo die Limitierung der eigenen Arbeit ist.

Verschiedene Ansätze je nach Disziplin
Eine weitere spannende Erkenntnis ist, dass die Ansätze je nach Disziplin unterschiedlich sind und eine Hypothese keine zwingende Voraussetzung der Forschung ist. Während z. B. in der Biologie nach gründlicher wochen-, monate- oder jahrelanger theoretischer Recherche eine Hypothese sowie Erwartungen aufgestellt werden, kann es in anderen Disziplinen freiere Ansätze geben. In der Physik kommt es z. B. vor, dass ohne Hypothese »gebastelt«, getestet, verworfen und neu gebastelt wird. In der Anthropologie und Ethnologie gibt es laut Dr. Christoph Schwitzer andere Vorgehensweisen, die noch freier sind. Ein Ansatz könnte hier beispielsweise sein, in einem fremden Land in einem Dorf zu leben und dann »mal zu schauen«, was interessant sein könnte. Dieser Ansatz wird stellenweise – wohl auch leicht zynisch – »flappy approach« genannt.

Wesentlich ist, dass sich – wenn aufgestellt – sowohl die Hypothese als auch die Erwartungen, u.a. auch als Schutzmechanismus vor subjektiver Interpretation der Daten, nicht verändern. Sie können höchstens bestätigt oder widerlegt werden. Die Fragestellung wird im nächsten Schritt operationalisiert. Das heißt: Man überlegt, was zur Beantwortung der Frage benötigt wird. Beispielsweise muss man – um das herauszufinden – an den Ort XYZ gehen und dort Proben nehmen, das Verhalten anschauen und so weiter.

Das besonders Interessante bei den verschiedenen Ansätzen ist für mich die überraschende Parallele zwischen den Disziplinen Physik und Kommunikationsdesign. Beide haben auf den ersten Blick nicht viel gemein. Dennoch erinnert mich der forschende Prozess aus der Physik an einen Gestaltungsprozess, bei dem auch ein ständiger Kreislauf aus »basteln«, testen, vergleichen, verwerfen und verbessern die Arbeit bestimmt.

Vergleich als Methode
Auch in der Biologie/Primatologie ist der Vergleich eine bedeutende Methode. Man vergleicht Tiere untereinander im Zoo, oder die Tiere im Zoo mit der gesamten Zoopopulation. Man vergleicht Zoopopulationen mit Freilandpopulationen und man vergleicht zwischen dem was vorne an Futter rein kommt mit dem was hinten wieder raus kommt. Auf diese Art kann man Unterschiede oder Gemeinsamkeiten gut erkennen und analysieren.

Zwischen Spezialisierung und Weitblick
Dr. Christoph Schwitzer erklärt mir, wie wichtig es ist zu verstehen, wie das ganze System funktioniert. Nur so versteht man, wieso ein Teil davon nicht mehr funktioniert. Das kann z. B. im Artenschutz sehr hilfreich sein. Eine einfache Lösung für das Aussterben von Tieren kann die Schuld des Menschen sein. Manchmal sind die Gründe jedoch nicht so offensichtlich. Hier muss das gesamte System, das Habitat, verstanden werden, um die Art tatsächlich schützen zu können. So kann es auch an veränderten Witterungsverhältnissen, Pflanzenarten oder viel komplexeren Problemen liegen.

Auch im Kommunikationsdesign und seinen Unterdisziplinen ist das interdisziplinäre Arbeiten aus meiner Sicht grundlegend. Für die Forschung ist ein fundiertes Wissen auf dem eigenen Gebiet sicher eine Grundvoraussetzung. Doch ohne Weitblick versteht man nur einen kleinen Teil und hat keinen Einblick in ein komplexes und interdisziplinäres System. Da die Prozesse immer komplexer und spezialisierter werden, wird es meiner Meinung nach immer schwieriger als einzelner selbstständig zu arbeiten. Während vor einigen Jahren vieles wohl nicht ganz so komplex war, gilt es heute sich in Netzwerke/Kollektive oder generell in Unternehmen zu organisieren, um ganzheitlich gut arbeiten zu können. Einer allein kann – wenn dann nur sehr selten – kein Spezialist für beispielsweise Konzeption, Webdesign, Webprogrammierung, SEO-Optimierung, kleine animierte, aber hochkomplexe SVGs und noch zehn andere Kompetenzen sein. Dennoch ist ein ganzheitlicher Blick bedeutend für reibungslose Workflows.

Recherche und die richtige Auswahl
Heutzutage wird es nach Dr. Christoph auch immer wichtiger, die richtige Auswahl an Recherchematerial zu treffen. Während man früher von Bibliothek zu Bibliothek fahren musste, gibt es nun vieles sofort online abrufbar. Um sich nicht endlos im Materialdschungel zu verlieren, sollte man sich deutlich einschränken und gut auswählen, was wichtig und relevant ist.

Und zum Schluss: Leidenschaft
In der Forschung gibt es häufig Durststrecken zu überbrücken. Deshalb: Themen wählen, die einem am Herzen liegen!

Interview mit dem Primatologen Dr. Christoph Schwitzer

Skype-Interview mit dem Kölner Primatologen Dr. Christoph Schwitzer. Seit vielen Jahren liebt er Lemuren und forscht überwiegend in den Bereichen Ernährungs- und Naturschutzökologie.
Auf Grund eines Audio-Fehlers kann das Interview leider nicht als Video gezeigt werden.

Was verstehst Du unter Forschung?

Das ist ne gute und schwierig zu beantwortende Frage, da müsste ich jetzt in die Wissenschaftstheorie gehen, das ist zu lange her (lacht). Was ist Forschung? Ich würde sagen die systematische Aufnahme von Daten zu einem bestimmten Thema mit dem Endziel mehr über dieses bestimmte Thema zu wissen. Und das nicht nur selber zu wissen, sondern das auch der internationalen Forschungsgemeinschaft, aber auch dem generellen Publikum zu Verfügung zu stellen. Mit der Betonung auf systematisch. Denn alle möglichen Leute sagen immer, sie machen Forschung und im Endeffekt, wenn man das nicht systematisch macht, so dass man die Methode, die man benutzt, erklären kann und dass die Methode auch von anderen benutzt wird, um zu dem gleichen oder zumindest zu einem sehr ähnlichen Ergebnis kommen, dann ist es nicht richtig Forschen.

Wenn Du schon die Methoden ansprichst: Gibt es bestimmte Methoden mit denen Du ständig arbeitest oder ist das von Fall zu Fall sehr verschieden?

Das kommt darauf an, was wir machen. Wir machen hier ja eine ganze Menge von verschiedenen Sachen.

Einerseits machen wir Forschung hier im Zoo. Wir haben zwei Zoos: Bristol Zoo und das Wild Place Project. Das sind zwei sehr unterschiedliche Zoos. Bristol Zoo ist ein sehr kleiner Zoo. Der fünftälteste Zoo der Welt von 1836, also älter als jeder deutsche Zoo und wir haben weniger als 5 ha Fläche mitten in der Stadt. Das heißt wir können hier keine besonders großen Tiere zeigen und auch keine großen Herden von Wildtieren und solche Dinge.
Auf der anderen Seite haben wir das Wild Place Project. Das hat 55 ha – ist also elf mal so groß als unser kleiner Zoo hier – vor den Toren der Stadt und das haben wir erst vor fast drei Jahren eröffnet. In unserem neuen Zoo – im Gegensatz zum kleinen Zoo hier – können wir da natürlich sehr viel größere Anlagen bauen, größere Herden zeigen und auch größere Tiere generell. Zum Beispiel arbeiten wir daran eine neue Giraffenanlage im Giraffenhaus zu bauen und das können wir hier auf der kleinen Fläche nicht machen.

Von daher ergeben sich natürlich sehr viel verschiedene Möglichkeiten Forschung zu betreiben und wir haben auch verschiedene Schwerpunkte, die sehr gebunden sind an die Mitarbeiter, die wir haben. Das heißt wir machen nicht einfach irgendwas wiliwili, sondern die Leute, die wir einstellen kommen schon mit Interessensschwerpunkten. Sie kommen von verschiedenen Universitäten, von verschiedenen anderen Institutionen und bringen dann teilweise ihre eigenen Forschungsgebiete mit. Wir haben natürlich nicht nur Forscher, wir haben auch eine große Anzahl von Tierpflegern und allem möglichen anderen Professionen, die hier arbeiten. Vom Parkwächter bis zum Schreiner und Elektriker.

Aber die Forschungsabteilung an sich besteht momentan aus acht Mitarbeitern, aus einer Abteilungsleiterin und sieben Leute, die wir lecturer – conservation science nennen. Der Titel kommt daher, dass sie hauptsächlich oder den großen Teil ihrer Zeit Lehre machen. Das heißt wie in der Universität, unterrichten wir hier Studenten und wir geben verschiedene Kurse. Wir haben einen Bachelor-Kurs, zwei Masters und zwei sogenannte foundation degree-Kurse, die wir hier in Zusammenarbeit mit drei verschiedenen Universitäten anbieten. Zwei davon in Bristol und eine weiter draußen. Zum Teil werden die Kurse komplett hier im Zoo unterrichtet, das heißt die Studenten sind drei Jahre hier im Zoo und haben ihren Campus bei uns. Dann müssen sie sozusagen gar nicht raus gehen und gehen nur sehr selten an ihre eigentliche Uni. Andere von diesen Kursen werden so unterrichtet, dass wir hier z. B. die Hälfte unterrichten und die andere Hälfte wird in der Uni gemacht. Das heißt den großen Teil der Zeit sind diese lecturers damit beschäftigt Lehre zu machen und den Rest der Zeit machen sie Forschung, wie Universitätsmitarbeiter auch. Wir haben im Prinzip alles, angefangen vom Primatologen, ich bin auch Primatologe, bis zu Evolutionsgenetikern, Verhaltensforschern und so weiter. Wir haben versucht uns ein möglichst breites Spektrum anzulegen bei der Einstellung von Mitarbeitern, so dass wir diese Lehre auch breit anlegen können, aber auch die Forschung so, dass wir da nicht limitiert sind auf einem bestimmten Gebiet. Viele Zoos machen ja hauptsächlich Verhaltensforschung, wir können das hier etwas breiter machen. Zum Beispiel sind Zoos ja sehr involviert in internationale Zuchtprogramme. Das heißt wir haben nicht nur unsere eigenen Tiere hier, sondern die meisten dieser Tiere sind Teil von international gemanagten Zuchtprogrammen. In irgendeinem Zoo sitzt ein Koordinator und sagt uns dann, wenn wir hier Jungtiere haben, die müssen nach Paris gehen oder nach London oder sonst wohin. Und dieser Koordinator weiß immer Bescheid über die Genetik und die Demographie der Population und setzt eben Zuchtpaare so zusammen, dass es passt und dass der Inzuchtkoeffizient möglichst klein bleibt von der Gesamtpopulation und die sogenannten Mean Kinship values möglichst klein bleiben.
Das versuchen wir dann hier wissenschaftlich zu begleiten. Wir haben auch EEPs (European Endangered Species Programmes) und ESBs (European Studbooks),
die wir koordinieren. Da versuchen wir nicht nur die Genetik theoretisch anzugucken, wie man das normalerweise macht für diese Zuchtprogramme, sondern auch praktisch. Eben genetische Analysen zu machen mit unseren beiden Genetikern und so weiter. Von daher versuchen wir einen Teil dieser Forschung mit praktischer Anwendung zu machen, so dass wir die hier in den zwei Zoos so nutzen können.
Auf der anderen Seite: Was hier wir viel machen ist, weil wir eben hier die Tiere hier möglichst gut halten möchten und sehr stolz sind auf unsere Tierhaltung und Zucht … versuchen wir das immer zu optimieren. Das heißt, wir gucken uns zum Beispiel an, was unsere Tiere fressen und machen eine ganze Menge Ernährungsforschung. Einfach aus dem Zusammenhang, dass über viele Zootiere sehr wenig bekannt ist, über deren Ernährung und deren Bedürfnisse.

Dazu hattest Du auch deine Doktorarbeit gemacht, hatte ich gelesen?

Ja, über Fettleibigkeit bei Lemuren und das ist immer ein Problem gewesen in Zoos. Und so gibt es viele Sachen, die noch nicht hinreichend erforscht sind in der Zooviehernährung. Von daher haben wir das immer etwas als Schwerpunkt hier gehabt, weil wir unsere eigenen Tiere möglichst gut ernähren wollen, so dass sie eben nicht fettleibig oder zu dünn sind und dass sie möglichst gute Zuchterfolge zeigen. Das ist ein Teil.
Dann generell, wie man die Tiere am besten hält. So Sachen wie enrichment, da machen wir einiges dazu, Zuchtprogramme … oder wir hatten gerade eine Studie laufen, wo wir bei verschiedenen Arten von Großkatzen geguckt haben, wie bei handaufgezogenen Tieren im Vergleich zu naturaufgezogenen Tieren die Zuchterfolge sind, wie deren Langlebigkeit ist und so weiter. Wir gucken uns nicht nur unsere eigenen Tiere an – oftmals –, sondern gucken auch die gesamten Zoopopulationen an und machen auch oft Vergleiche mit Freilandpopulationen. Das ist die andere Seite unserer Forschung, unserer Forschungsschwerpunkte. Also einerseits im Zoo, auf der anderen Seite gehen wir auch ins Feld und haben viele Studenten, die zum Beispiel in Madagaskar arbeiten. Gerade in Madagaskar sind wir sehr aktiv, auch im Naturschutz von Lemuren hauptsächlich. Wir schicken dementsprechend auch Doktoranden und Masterstudenten nach Madagaskar, um mit freilebenden Lemurenpopulationen zu arbeiten. Aber auch mit anderen Sachen: Wir haben Projekte zu Vögeln gemacht, Reptilien, Amphibien, Fledermäusen … Wir haben auch Studenten in Südafrika, die mit Pinguinen arbeiten und wir arbeiten daran, dass wir in verschiedenen anderen unserer Naturschutz-Freilandprojekte auch Forschung machen können demnächst. Wir arbeiten im Moment daran, jemanden nach Kamerun zu schicken, um Giraffen Surveys zu machen. Wir wollen wahrscheinlich dieses Jahr, vielleicht nächstes Jahr, jemanden auf die Philippinen schicken, um da eine bestimmte Art von Tauben zu suchen, die wir noch nicht gefunden haben. Wir wissen, dass sie irgendwo da sind, aber wir wissen nicht wo.

Woher weiß man das dann?

Das weiß man, weil es jemanden gibt, der Taubengeschrei aufgezeichnet hat und diese Art ist beschrieben worden von dieser Insel. Die Insel heißt Negros und da gibt es nicht mehr viel Wald, das meiste sind eben Plantagen und menschliche Siedlungen. Aber man weiß, dass es diese Art gibt, es gibt auch ein paar auf der Insel in Gefangenschaft, so fünf oder sechs Tiere. Das heißt die müssen irgendwo sein, aber man weiß nicht wo. Und um die Art schützen zu können im Freiland, muss man natürlich wissen, wo die vorkommen. Von daher werden wir demnächst ein Team runterschicken und systematisch Surveys machen, um zu gucken, wo die denn herkommen. Solche Sachen machen wir auch.

Ihr habt viele Schwerpunkte. Hast Du persönlich ein Forschungsprojekt oder sind das dann verschiedene Schwerpunkte, an denen Du weiter arbeitest?

Ja, also ich war sieben Jahre hier Leiter der Forschungsabteilung und bin vor 1 1/2 Jahren quasi »befördert« worden zum Director of Conservation. Das bedeutet bei uns, dass ich zuständig bin für den gesamten zoologischen Bereich: Für den Tierbestand beider Zoos, die Tierpflege, die Veterinärabteilung, die Forschungsabteilung, Naturschutzabteilung und die Zooschulabteilung, was ihrerseits auch noch beinhaltet: die Grafikabteilung und die Voluntär-Koordination und noch andere Sachen.

Das heißt, Du machst jetzt mehr Organisation als Forschung?

Ich kann eigentlich nicht mehr viel Forschung selber machen, leider. Ich hab immer noch ein paar Doktoranden. Das rührt einfach daher, dass ich die natürlich nicht, als ich meinen Job innerhalb der Organisation gewechselt hab, einfach raus schmeißen konnte und sagen »Ihr könnt jetzt machen was ihr wollt!«. Das heißt die werde ich auch noch bis zu ihrer Viva wie sich das hier nennt, betreuen. Und im Moment hab ich auch eine undergraduate Studentin, einfach, weil ich ihr schon vor drei Jahren versprochen hab sie zu einem bestimmten Thema zu betreuen. Aber irgendwann wird das auslaufen und dann wird das leider nur noch … mal sehen, vielleicht werde ich dann immer noch einen Doktoranden pro Jahr oder sowas übernehmen. Aber die Abteilungsleitung hab ich dann wem anders übergeben und mache das jetzt hauptsächlich.

Mein Schwerpunkt ist, wie Du sicher auf der Website gelesen hast, Primatologie und speziell conservation ecology und eben Madagaskar. Ich hab selber mit Lemuren eine ganze Weile gearbeitet. Bevor ich hier im Zoo in Bristol angefangen hab, war ich in Madagaskar. Ich habe da zwei Jahre im Wald gelebt und bin Lemuren hinterher gestiegen. Der Schwerpunkt da war für mich immer die Ernährungsökologie, aber auch Naturschutzökologie mit Fragestellung, wie wir sozusagen den Schutz von verschiedenen Lemurenarten optimieren können. Das heißt: Was brauchen diese Tiere im Freiland? Was fehlt ihnen? Dadurch, dass sie ihr Habitat mittlerweile mit Menschen teilen und verschiedenste Bedürfnisse haben. Und wie kann man diese Zusammenhänge überhaupt so optimieren, dass man ein friedliches Zusammenleben von Menschen und Lemuren und mit anderen Viehern, die in den Habitaten vorkommen gewährleisten kann?

Von der Methodik her gibt‘s da natürlich auch eine ganze Menge verschiedener Sachen, die wir machen und verschiedene Methoden, die wir dazu nutzen. In der Ernährungsforschung ist es so, dass man versucht herauszufinden, welche Bedürfnisse oder welchen Bedarf an welchen Nährstoffen die Tiere haben, um sie dann im Zoo optimal halten zu können. Und im Freiland will man natürlich wissen, welche key ressources die Tiere brauchen. Also welche Pflanzenarten, welche Baumarten sie bevorzugt benutzen, um ihren Bedarf zu decken, damit man sich dann z. B. in Wieder-Anpflanzungsprojekten – wenn man Wald wieder anpflanzen möchte – auf diese Arten von Pflanzen und Bäumen konzentrieren kann. Und das haben wir halt gemacht in Magagaskar. Wir haben uns dann angeguckt, was brauchen die Tiere. Wir haben Proben genommen von Früchten, von Blättern, von hunderten von verschiedenen Baumarten und Pflanzenarten und die dann im Labor analysiert. In Deutschland war das damals noch. Wir haben Analysen gemacht zu Proteingehalt, zu Fettgehalt und Kohlenhydratgehalt und so weiter, von allen diesen verschiedenen Futtermitteln. Dann verglichen, was in Zoos diesen gleichen Tieren gefüttert wird und das kann man dann sehr schön nebeneinander stellen und kann sagen: Ok, im Zoo füttern wir dann hauptsächlich Früchte, die für die menschliche Ernährung angebaut werden. Einfach aus dem Grund, weil es sehr schwierig wäre madagassische Früchte zu importieren. Man versucht das dann zu substituieren und man klassifiziert Tiere in verschiedene Nahrungsgewohnheiten. Man sagt zum Beispiel viele Primaten sind Frugivoren, das heißt sie fressen hauptsächlich Früchte. Andere Primatenarten sind Insektivoren, die fressen hauptsächlich Invertebraten. Wieder andere sind Folivoren, die fressen Blätter. Man hat dann eben seine Klassifikation, seine Einteilung. Das ist aber sehr grob. Das heißt, wenn man im Freiland wirklich mal guckt, findet man eigentlich, dass die meisten dieser Arten verschiedenste Sachen fressen. Es ist zwar so, dass frugivore Arten oftmals hauptsächlich Früchte fressen, auch im Freiland. Aber es kann schon sein, dass sie zum Beispiel zu einer Jahreszeit – und das kann monatelang sein – weil es keine Früchte gibt, dann Blätter fressen oder was anderes. Und wenn man dann über das Jahr verteilt guckt, dann mögen Früchte vielleicht nur 55 % der Ernährung sein. Und dann ist auch die Frage: Was bezeichnet man als Früchte? In Madagaskar sind Früchte sehr unterschiedlich zu den Früchten, die wir hier essen. Das sind nicht nur Bananen, Äpfel und Birnen. Sondern zu einem sehr großen Teil kleine, grüne Beeren oder sowas, was total wenig Nährwert hat und sehr viel besser zu vergleichen ist mit Gemüse hier oder mit Salat oder irgendwie sowas. Also heißt das, wenn ich den Tieren Bananen gebe, überfüttere ich sie zum großen Teil. Solche Sachen kann man dann halt sehr schön im Zusammenhang darstellen. Das ist so eine Methodik von Ernährungsökologie im Freiland und Zoo, wenn man da mal nachschaut.

Und das ist dann wirklich so, dass man weiter geht und auch die Früchte an sich analysiert und sich z. B. nicht auf Ernährungswissenschaftler verlässt?

Das haben wir selber gemacht, ja. Selbst bei Bananen und Birnen kann man natürlich in einer Datenbank nachgucken. Es gibt natürlich sicher sehr gute Werte für verschiedenste Bananensorten, nahrungstechnisch. Aber man macht es dann doch immer nochmal lieber selber, weil es doch große Unterschiede gibt, sogar in den einzelnen Chargen. Wenn ich z. B. im Mai Bananen krieg von einem bestimmten Lieferanten, können die sehr unterschiedlich sein zu Bananen, die ich im Juli kriege von einem anderen Lieferanten. Das heißt, um wirklich genau zu sein, macht man das dann doch gerne selber im Labor. Selbst dann ist Ernährungsforschung nie so genau, wie viele andere Gebiete der Wissenschaft. Ich kann nie auf die 10. Kommastelle genau den Bedarf an Proteinen oder sowas … das kann man einfach nicht sagen. Da sind so viele verschiedene Fehlerquellen drin in den Analysen, dass man eigentlich, wenn Du irgendwo in einem wissenschaftlichen Artikel über Ernährung zwei Stellen hinter dem Komma siehst, dann kannst Du immer schon sagen, die haben nicht soviel Ahnung. Zwei Stellen sind vielleicht noch ok, aber eigentlich braucht man fast gar keine Stelle mehr hinter dem Komma, weil der Fehler schon sehr groß ist. Wenn man dann verschiedene Futtermittel analysieren muss, packst du das wieder zusammen, dann schickst du das durch dein Tier durch. Weil Du willst ja nicht nur wissen, was vorne rein geht, sondern was hinten wieder raus kommt, damit du das dann abziehen kannst und weißt, wie viel das Tier eigentlich verdaut. Alleine da geht schon so viel verloren, dass man das eigentlich nicht mehr braucht.

Wie geht man dann mit solchen Fehlerquellen vor? Muss man das einfach nur richtig dokumentieren oder ab wann ist das dann unbrauchbar?

Das ist eben Forschung und Wissenschaft. Du musst es genauestens dokumentieren, Du musst deine Methode sehr gut beschreiben. Das heißt, angefangen damit, wo Du das Zeugs herbekommen hast, wie Du das gesammelt hast, in welcher Jahreszeit, an genau welchem Ort bishin zur detaillierten Laboranalyse, welche Methode, welches Gerät Du benutzt hast und so weiter, muss das ganz genau dokumentiert sein. Das heißt der sogenannte Material- und Methoden-Teil in der Doktorarbeit oder in einem wissenschaftlichen Artikel, den Du schreibst, ist fast das wichtigste. Dieser Teil sagt dann Wissenschaftlern, die ein ähnliches Projekt in der Zukunft machen wollen oder die nachvollziehen wollen, was Du gemacht hast, genau, wie Du das gemacht hast. So dass dann irgendjemand anderes in einem anderen Labor, in den USA oder irgendwo in Südamerika, das exakt so machen kann und hoffentlich das gleiche Ergebnis rauskriegt. Oder eben das gleiche machen kann mit irgendwas anderem und das dann gut vergleichen kann. Das ist der Sinn und die ganze Essenz von Forschung und Wissenschaft.

Dann musst Du nachher – genauso wichtig in deinem Diskussionsteil in der Doktorarbeit oder in deinem Artikel – schreiben, wo Du in deiner Arbeit Fehlerquellen siehst. Das heißt, es reicht nicht nur die Methoden zu beschreiben, sondern Du musst auch sagen: Ok, wir haben die Arbeit im Dezember durchgeführt, wir haben unsere Proben im Dezember gesammelt und es hat im ganzen Dezember die Sonne geschienen und es war relativ warm und vielleicht war das kein besonders repräsentativer Dezember. Und wenn man das ganze über zehn Jahre jeweils im Dezember machen würde, würde man möglicherweise andere Resultate bekommen, weil es generell kälter ist. Sowas … Das muss man diskutieren.

Du musst also versuchen, deine eigene Arbeit in Zusammenhang zu stellen und die Fehlerquellen zu sehen. Das ist ein sehr wichtiger Teil von Wissenschaft und von dem, was man als Student lernen muss. Und ich weiß, dass es nicht an vielen Universitäten wirklich gut gemacht wird. Also man muss als Student wirklich verstehen, wo die Limitierungen dieser Arbeit sind und sich selbstständig hinterfragen. Seine Arbeit hinterfragen.

Neulich hatte ich den Fall: Ich habe eine Doktorandin, die arbeitet in Madagaskar. Sie hat jetzt 1 1/2 Jahre Daten aufgenommen und hat mich angerufen und gesagt: »Christoph, wirklich, ich bin sehr frustriert, weil ich nicht genau weiß, wie ich jetzt weiter machen soll. Ich hab nun zu dem und dem Thema Daten aufgenommen und die sind eigentlich auch ganz ok. Aber was ich ursprünglich machen wollte, kann ich aus dem und dem Grund gar nicht machen und das und das ist dazwischen gekommen. Ich hab das alles im Feld unterschätzt, also diese Sachen kann man nicht machen, die Sachen kann man nicht machen … Was soll ich denn jetzt bloß machen?«
Dann hab ich mich mit ihr zusammengesetzt und mit ihrem Doktorarbeit supervisor committee und wir haben alle überlegt. Aber ich hab zu ihr gesagt: »Erstmal musst Du dir überhaupt keine Sorgen machen, das wichtigste Lernziele dieser Doktorarbeit hast Du schon erreicht. Du hinterfragst deine eigenen Sachen – die ganze Zeit. Du sagst, ok das kann man eigentlich gar nicht so machen, das muss man anders machen, wenn man wirklich diese Ergebnisse haben will, dann muss man das eigentlich völlig anders machen. Das ist das wichtigste, was man eigentlich lernen muss bei eigenen wissenschaftlichen Arbeiten. Der Rest ist fast egal. Dann kann man das zusammenschreiben und irgendwie so machen, dass die Leute das auch verstehen. Aber was da rauskommen muss … Wenn man die Doktorarbeit macht, möchte man ja, dass man später mal selbst an der Universität arbeiten kann und irgendwann vielleicht mal Professor wird. Das wichtigste ist wirklich, dass man eigenständig wissenschaftlich arbeiten kann und weiß, wie der ganze Betrieb läuft.« Und das war in diesem Fall durchaus erreicht. Das heißt, da konnte ich sie beruhigen (lacht).

Noch eine Frage zu der Ernährungssache. Ist es so, dass man immer mit einem Ziel hin geht und sagt »Ich möchte das und das wissen« oder ist es manchmal so, dass man einfach hingeht, beobachtet und schaut, was raus kommt?

Ja, das ist eine interessante Frage. Das ist nicht immer gleich in verschiedenen, wissenschaftlichen Disziplinen. Wir Biologen arbeiten sehr hypothesenorientiert. Das heißt wir gucken uns die gesamte Theorie zu einem bestimmten Thema an – zum Beispiel die Ernährungsökologie von Lemuren. Wenn mich das interessiert, dann lese ich mir erstmal wochen- und monatelang durch, was es zu dem Thema alles schon gibt und was andere Leute vor mir gemacht haben. Und ich lese mir nicht nur die praktische Seite davon durch, sondern bin vor allem daran interessiert den theoretischen Hintergrund von Ernährungsphysiologie und Ernährungsökologie – nicht nur von Lemuren, sondern vielleicht auch im Zusammenhang mit anderen Primaten und anderen Säugetieren – zu verstehen.

… und das geht dann wirklich wochen- bzw. sogar monatelang?

Vielleicht sogar Jahre, wenn man richtig gut werden will auf einem Gebiet. Vor der Doktorarbeit muss man erstmal lesen, lesen, lesen, um zu verstehen, was der theoretische Hintergrund ist. Und dann kann man sich überlegen: Ok, was interessiert mich eigentlich und was sind meine Arbeitshypothesen? Ich hab jetzt zum Beispiel gelesen, dass bestimmte Lemuren in Zoos zur Fettleibigkeit neigen und dann hab ich gelesen, dass verschiedene Lemurenarten sehr geringe Stoffwechselraten haben – das haben also andere schon rausgefunden. Und jetzt will ich wissen, warum werden die in Zoos so schnell fett und warum haben die eine so geringe Stoffwechselrate? Und stelle dann vielleicht die Hypothese auf, dass in Madagaskar die Habitate, wo diese Tiere im Freiland vorkommen, sehr saisonal unterschiedlich sind. So dass es z. B. eine Zeit gibt im Jahr, wo sehr viel Futter da ist und eine Zeit im Jahr, in der sehr wenig da ist. So dass die Tiere an bestimmte Saisonalitäten im Habitat angepasst sind und dementsprechend mit ihrem Stoffwechsel darauf reagieren. Irgendwie sowas. Sowas stelle ich dann auf als Hypothese und überlege mir, wie kann ich das jetzt rausfinden. Das heißt, ich muss dann die Hypothese, meine Fragestellung operationalisieren. Ich muss mir überlegen: Um das zu beantworten muss ich nach Madagaskar gehen, muss Proben nehmen von verschiedensten Orten, wo diese Tiere vorkommen, muss mir das Verhalten angucken und gucken wie viel die eigentlich davon überhaupt fressen und so weiter. Ich überlege mir eben, wie ich diese Frage, diese Hypothese beantworten kann.
Dann muss ich auch noch überlegen, was erwarte ich, wenn ich jetzt da hin gehe und die Proben nehme und so weiter, bezüglich meiner Hypothese. Was erwarte ich, was da rauskommt? Das ist auch sehr wichtig.
In der Biologie geht man nicht einfach hin und guckt ein bisschen und dann überlegt man sich ok, das sieht interessant aus, das mach ich erstmal. Sondern bevor man anfängt seine Daten aufzunehmen, hat man Erwartungen, was dabei rauskommen soll. Und das ist ein Mechanismus, um sicherzustellen, dass man nicht einfach … Also man kann ja Sachen so interpretieren oder auch anders interpretieren. Und wenn schon Erwartungen und seine Hypothese hat, dann ist die Wahrscheinlichkeit geringer, dass man das Ganze nachher irgendwie interpretiert, so wie einem das passt. Das wäre ja falsch. Man muss möglichst objektiv an die Sache herangehen und versuchen seine Erwartungen entweder zu bestätigen oder zu widerlegen. So macht man biologische Forschung und das ist eigentlich ähnlich in verschiedenen anderen Disziplinen. Aber das ist z. B. total unterschiedlich in der Physik. Wir arbeiten ja hier auch mit Physikern, ganz oft. Weil wir eine ganz gute Arbeitsbeziehung haben zu dem physikalischen Institut der Universität Bristol und die schicken uns oftmals Studenten hier in den Zoo, die Gebiete bearbeiten, die biologische Studenten gar nicht machen, weil sie die gar nicht können, Sachen, die wir hier gar nicht benutzen können in anderen Forschungsobjekten. Und Physiker machen das völlig anders, die haben überhaupt keine Hypothese. Die schauen sich irgendwas an, was sie interessiert, dann findeln die rum und basteln und machen und tun und versuchen irgendwas zu basteln, was funktioniert. Und wenn es nicht funktioniert, dann schmeißen sie das weg und basteln was Neues.

Das heißt so eine Hypothese ist auch keine Grundvoraussetzung für die Forschung an sich?

Nicht bei allen. Auch z. B. Soziologen und Leute, die sich mehr mit Menschen befassen in der Forschung machen das völlig anders. Ich sage dann immer, die haben so einen flappy approach zur Forschung. Sie setzen sich auch hin und probieren das aus und das aus und gucken mal hier und da. In der Anthropologie und in der Ethnologie ist das sehr interessant. Manchmal, besonders Ethnologen, also Leute, die verschiedene Bevölkerungen, Volksstämme erforschen und Kulturen erforschen. Die gehen manchmal, wenn sie Feldarbeit machen, Feldforschung, irgendwo hin, zum Beispiel nach Südostasien und leben mit dem Volksstamm, den sie erforschen wollen. Sie wissen eigentlich gar nicht, was genau sie interessiert, sondern leben erstmal mit denen zwei Jahre, um dann irgendwann festzustellen »Oh, das ist ja sehr interessant« und dann fangen sie an das zu erforschen. Das würden wir in der Biologie nicht machen.

Das hört sich ein bisschen danach an, als könnte man das im Design ähnlich machen …

Da gibt es sehr unterschiedliche Vorgehensweisen. Die haben alle ihre Vor- und Nachteile und sind alle sinnvoll für ihre eigenen Arbeitsgebiete, aber doch sehr unterschiedlich.

Und im biologischen: Ist die Hypothese etwas, was sich verändern kann oder ist das etwas, das immer fest bleibt? Weil es kommen ja auch immer neue Fragestellungen auf, während man forscht.

Die Hypothese verändert sich nicht, die bleibt fest. Auch die Erwartungen verändern sich nicht. Aber es kann natürlich sein, dass du etwas rausfindest, das deine Erwartungen widerlegt, aber auch deine Hypothese am Anfang. Dann musst du einfach sagen, die Hypothese war falsch bzw. meine Daten und meine Ergebnisse haben die Hypothese nicht bestätigt und dann kannst Du dir überlegen, was denn alternativ in Frage käme. Warum es denn so ist und kannst dann entweder noch eine neue Arbeit machen oder Du kannst am Ende deiner Doktorarbeit oder deines Artikels schreiben: Diese Hypothese ist widerlegt worden durch meine Resultate. Es ist also möglich, dass das ganze so und so abläuft und es müsste in weiterer Forschung dann das und das erforscht werden. Du kannst dann Empfehlungen geben für andere Forscher, die dann was anders angucken können …

… die dann darauf wieder aufbauen …

… ja, genau. So evolvieren eben solche Forschungsgebiete über Jahrzehnte und man weiß mehr und mehr und mehr und oftmals ist es wirklich fast ein Ausschlussverfahren. Viele Leute gucken sich irgendwas an und sagen dann »Ok, das ist es nicht, das ist es nicht, das ist es nicht …« bis dann irgendwann jemand auf den Trichter kommt »Ok, das muss es sein«.
So sind die besten Sachen in der Forschung entwickelt worden.

Und wie wird das alles dokumentiert? Hat man beispielsweise Webseiten, damit auch andere Forscher darauf zugreifen können, Publikationen und so weiter?

Ja, aber das ist während der Zeit meiner eigener Arbeit immer einfacher geworden. Als ich angefangen habe an der Uni in meinem Biologiestudium – 1993 – war das alles noch so, dass man in der Bibliothek noch sehr lange suchen musste bis man das Gesamte zu dem Forschungsgebiet, das man machen wollte zusammen hatte. Da musste man auch in andere Städte fahren und in andere Universitäten und in deren Bibliotheken wühlen und teilweise interlibrary loans machen, wo man dann monatelang warten musste bis man einen bestimmten Artikel hatte von irgendwem. Wohingegen das heutzutage so viel einfacher ist. Also Du gehst auf Google Scholar, tippst dein Forschungsgebiet ein oder irgendwas und dann kommen hunderte von Sachen und oftmals musst Du nicht mal Sachen so großartig suchen. Du kannst auf research gate … ich weiß nicht, ob Du das kennst, ein Netzwerk so ähnlich wie Facebook für Forscher. Da kannst Du bei research gate direkt den Artikel runterladen von demjenigen der ihn geschrieben hat. Also das ist wirklich ganz toll heutzutage.

Ist das das, wo Du auch Publikationen hattest? Ich hab eine Seite gefunden, da waren von dir verschiedene Artikel und ein Profil …

… Ja, also ich hab die meisten oder zumindest einen Teil meiner Arbeiten auf research gate eingestellt, so dass jeder die runterladen kann. Kann schon sein, dass Du das gefunden hast. Das ist also wirklich viel einfacher heutzutage. Das führt auf der Negativseite dazu, dass es sehr viel mehr zu lesen gibt für die Doktoranden heutzutage. Sie müssen eine sehr viel engere Auswahl treffen, was sie lesen müssen und sollten. Wenn Du Schnellleser bist, ist das natürlich sehr vorteilhaft. Dann kannst Du das alles durchlesen und dir Notizen machen. Aber Du musst eine Auswahl treffen, was Du eigentlich brauchst und dich dann irgendwann beschränken. Aber es ist schon … heutzutage dauert dieser Teil der Arbeit nicht mehr so lange, wie es früher der Fall war.

Also ist dann schon deutlich kürzer … Noch eine ganz andere Frage, weil ich gelesen habe, dass Du Lemuren so schön findest und die Spider Monkeys so hässlich sind …

… das hat sich irgendwie … das ist ein Gerücht. Ich hab nie gesagt, die sind hässlich. Das hat irgendjemand mal geschrieben und dann hat sich das irgendwie weiter verbreitet. Die sind auch sehr schön, wir haben die sogar hier im Zoo. Ich finde einfach die Lemuren haben ein bisschen mehr Charme. Ich sag immer, das sind die Hollywood-Stars unter den Primaten. Die sind wunderschön, aber ein bisschen dumm, leider (lacht).

Die Hauptfrage ist: Wie viel Leidenschaft muss man mitbringen? Könntest Du jetzt z. B. mit 100 Prozent in die Taubenforschung einsteigen oder ist das schon sehr persönlich, leidenschaftlich geprägt?

Das könnte ich schon, wenn man mich jetzt rausschmeißen würde hier und die einzig andere Stelle, die ich finden würde, wäre Taubenforschung. Dann könnte ich mich wahrscheinlich auch dafür begeistern. Aber man hat natürlich schon seine eigene Leidenschaft für die Sachen, die einen interessieren. Ich würde jetzt ungern ganz von der Primatologie weggehen. Was oftmals der Fall ist in einer wissenschaftlichen Karriere ist, dass Du dich anfängst zu spezialisieren auf ein bestimmtes Gebiet und in dem Gebiet sehr gut wirst und dein Gebiet sehr gut kennst.
Und irgendwann, wenn Du dann z. B. an der Universität Professor geworden bist oder Du arbeitest wie ich im Zoo und machst dies und das … Irgendwann ist es dann oftmals der Fall, dass Du dich wieder generalisierst, das heißt ein bisschen weg gehst von deinem eigenem Spezialgebiet. Sei es, weil Du wie ich jetzt, mehr Management machen musst oder sei es an der Uni oftmals, dass Du der Leiter bist. Das heißt Du hast dann mehr administrative Funktionen, die Du auch machen musst – irgendjemand muss es ja machen – und dann eben von deinem eigenen Gebiet immer wieder ein bisschen weggehen musst.

In der Primatologie ist es oft so, dass sich alte Primatologen der menschlichen Forschung widmen und gucken wie die Zusammenhänge zwischen Menschenaffen und Menschen sind. Das ist oftmals ganz interessant eigentlich.
Aber man muss schon ein bisschen leidenschaftlich sein mit seinen Sachen, weil man sonst auch nicht so gut wird in einem bestimmten Gebiet, wenn Du dich dafür nicht interessierst. Du hast ja lange Durststrecken in der Forschung. Das ist ja oft nicht so straight forward, dass Du von der Uni direkt … oder von der Lehre oder was weiß ich in den Beruf gehst und dein Geld verdienst und so weiter. In der Forschung ist es sehr oft so, dass Du an die Uni gehst und dein Studium machst, dann machst Du deine Doktorarbeit, dann hast Du dafür keine Finanzierung oder kein Stipendium oder sowas. Das heißt, Du musst von der Hand in den Mund leben und hast halt dann erstmal jahrelang nicht genug Geld. Dann willst Du nach der Doktorarbeit den postdoc machen und findest erstmal zwei Jahre lang keine passende Stelle. Dann gehst Du an die Uni und hast einen Drei-Jahres-Vertrag und musst dann wechseln und so weiter. Das ist oftmals verbunden mit längeren Durststrecken, die es zu überbrücken gilt. Und wenn Du dich nicht wirklich dafür interessierst, dann wirst Du wahrscheinlich sagen, irgendwie wird mir das alles zu blöd und ich mach jetzt lieber was anderes. Da muss schon bisschen das Feuer brennen. Und bei mir ist das mit den Lemuren so, dass die mir schon sehr am Herzen liegen. Das heißt immer wenn ich nach Madagaskar gehe – ich war jetzt erst im Dezember wieder da für ne Woche –, dann ist das ein bisschen so wie nach Hause kommen. Und ich glaub das muss so sein, sonst sagst Du irgendwann: Madagaskar ist so ein blödes Land, da läuft nix, das funktioniert alles nicht, nach zwei Jahren haben sie wieder ne politische Krise und man geht dann ein Schritt vor und zwei wieder zurück. Und wenn man da nicht wirklich für brennt, dann sagt man irgendwann »Dann macht das doch selber!«.

Dann hat man irgendwann auch keine Lust mehr darauf, ja … Und was wäre, wenn es die Primatenforschung bzw. die Erforschung von Lemuren nicht geben würde?

Dann wüsste man einfach sehr viel weniger über einen großen Teil der Primaten und zwar genau über die, die evolutiv sozusagen am Anfang stehen. Madagaskar hat sich ja vor 150 Millionen Jahren ungefähr abgespalten vom Gondwana-Land, von der ostafrikanischen Küste und dann vor ungefähr 80 Millionen Jahren ist Indien von der madagassischen Ostküste losgebrochen. Und seitdem ist Madagaskar isoliert gelegen im westindischen Ozean und hat seine ganz eigene Evolution gesehen, bezüglich von Säugetieren, aber auch von vielen anderen Tiergruppen. Im Säugetierbereich war es eben so, dass vor 150 Millionen Jahren oder vor 80 Millionen Jahren noch nicht viele Säugetiere großartig diesen Planten bevölkert haben. Da waren ja noch die Dinosaurier die großen Dominierenden und das hat sich dann erst vor 65 Millionen Jahren gewandelt und geändert. Das heißt die Säugetiere, die es auf Madagaskar jetzt gibt, sind alle im Nachhinein da rüber gesiedelt und haben in vier verschiedenen Siedlungsevents, die Insel überhaupt erst besiedelt und müssen da auf so genannten Vegetationsflößen rüber gekommen sein und haben dann in einer adaptiven Radiation viele verschiedene Arten und Unterarten ausgebildet. Das heißt Madagaskar ist sozusagen ein Labor der Evolution und das gilt ganz speziell im primatologischen Bereich. Lemuren gibt es eben nur auf Madagaskar und nirgendwo anders. Und in allen anderen Primatenhabitatregionen, also in Kontinentalafrika, in Asien und in Südamerika sind die sogenannten prosimischen Primaten komplett verdrängt worden von höheren Primaten, die einfach intelligenter sind, die besseren Fähigkeiten haben und dann die prosimischen Primaten verdrängt haben. Das heißt es gibt noch welche in Asien und Afrika, aber die sind in solche Randnischen gedrängt worden, wie Nachaktivität und kleine Körpergröße. Also, wenn Du dir die Loris zum Beispiel anguckst in Asien, Plumploris, Schlankloris, kleine nachtaktive Vieher, genauso wie Galago, Buschbaby in Afrika.

Die sind dann in die Nachtaktivität »gedrängt« worden?

Man sagt gedrängt worden, das heißt die höheren Primaten haben die einfacheren und besseren Nischen besetzt und die niederen Primaten, die prosimischen Primaten mussten dann sozusagen das nehmen, was noch übrig blieb, damit sie sich noch halten konnten. Und das ist bei Lemuren ja anders. Es gibt ja sehr viele tagaktive Lemuren, es gibt sogenannte kathermerale Lemurenarten, worüber wir ja auch gearbeitet haben auf Madagaskar. Das heißt, das sind Arten, die sowohl tag- als auch nachtaktiv sind. Was auch sehr interessant ist. Sowas würde dann einfach alles wegfallen.

Wir wüssten sehr viel weniger über die Primatenevolution an sich und auch über unsere eigene Evolution, wenn es keine Forschung mehr an Lemuren oder prosimische Primaten geben würde. Das wäre tragisch. Das ist wirklich auch sehr wichtig, um zu verstehen, wo wir selber herkommen und wie unsere eigenen traits evolviert sind. Auf der anderen Seite wäre es tragisch für den Artenschutz. Weil wir können nur wirklich gut schützen, was wir verstehen. Weil wir sonst einfach nicht wissen, warum eine Tierart ausstirbt oder vom Aussterben bedroht ist. Bei manchen Arten oder in manchen Zusammenhängen ist es sehr einfach: Der Mensch kommt und verjagt eine Tierart oder die gibt es einfach gar nicht mehr. Das kann man natürlich insofern abstellen, dass man ein Schutzgebiet schafft und das nicht zugänglich macht für Menschen. Auf der anderen Seite gibt es vielfach auch Situationen, wo eine Art verschwindet ohne an sich verjagt zu werden und dann weiß man auch einfach nicht, warum verschwinden die. Ist es, weil bestimmte Bäume nicht mehr vorhanden sind in dem Habitat oder bestimmte andere Bedingungen und das muss man natürlich rausfinden. Und wenn man keine Forschung machen würde dazu, dann wüsste man einfach nicht, was eigentlich der Fall ist. Dementsprechend schlechter kann man dann Maßnahmen treffen, diese bestimmte Art zu schützen.

Das heißt generell ist letztendlich immer auch die Forschung drumherum sehr wichtig. Dass man auch die Baumarten, Tiergruppen, etc. mit untersucht.

Ja genau, das ist Naturschutzökologie. Das ist im Prinzip genau das Essentielle von Naturschutzökologie, dass man versteht wie das ganze System funktioniert, so dass man dann versteht, warum ein bestimmter Teil des Systems auf einmal nicht mehr funktioniert. Und was man machen müsste, um den Teil wieder ans Laufen zu kriegen.

Ich möchte mich an dieser Stelle nochmal recht herzlich bei Dr. Christoph Schwitzer bedanken! Zum einen für das sehr nette und lustige Gespräch! Zum anderen für die Zeit, die er dafür aufgebracht hat! Und natürlich für die sehr guten und ausführlichen Antworten, die mir sehr dabei helfen, etwas Licht in die Arbeit des Forschens zu bringen. Die Essenzen sind auf der folgenden Seite zu finden: Essenzen aus meinem Interview mit Dr. Christoph Schwitzer. Der Fokus liegt dabei nicht auf dem Inhalt seiner Forschung, sondern auf der Arbeit als Forscher.

Zwischen Realität und Fiktion

Im Bereich transmedialer Erzählungen finde ich besonders das Verschwimmen von Realität und Fiktion spannend. Die parasoziale Kommunikation spielt dabei aus meiner Sicht keine unwichtige Rolle. Neben den möglichen Gefahren und der damit zu Grunde liegenden Verantwortung des Gestalters, eröffnen sich neue Möglichkeiten. Des Weiteren wird zukünftig die Medienkompetenz als solches eine immer größere Rolle spielen.

Im Bereich transmedialer Erzählungen finde ich besonders das Verschwimmen von Realität und Fiktion spannend.

Aus meiner Sicht fällt es heutzutage schwer, virtuelle Inhalte nicht mit fiktionalen zu verwechseln. Virtuelle, entmaterialisierte Gegebenheiten sind als Objekt nicht greifbar, stellen aber dennoch den – berechtigten – Anspruch real zu sein.  

Die Wirklichkeit kann laut dem Informationsphilosophen Luciano Floridi – weit gefasst – als Synonym der Infosphäre verwendet werden. Die Infosphäre beschreibt dabei den Raum, in dem alle informationellen Existenzen angesiedelt sind. Hierzu gehört der Mensch als informationelles Wesen, aber beispielsweise auch Interaktionen, Algorithmen und Prozesse.1 Die »virtuelle« Welt ist damit wirklich.

Ich beobachte in sozialen Netzwerken wie z. B. Facebook, dass wir Nutzer unser virtuelles Ich erstellen und entwerfen. Die digitalen Versionen unser selbst, die ich an dieser Stelle nicht nach Identität oder verzerrten Selbstbildern hinterfragen möchte. Einen viel entscheidenderen Faktor finde ich die „Nicht-Prüfbarkeit“ der Existenz des Gegenübers. Während Personen des öffentlichen Lebens teilweise verifiziert sind, trifft das – meiner Einschätzung nach – nur auf einen kleinen Teil der gesamten Community zu. Das bedeutet, wir müssen uns auf die Authentizität anderer und auf unsere eigene Einschätzung verlassen. Bei Freunden aus dem »realen« Leben ist das meiner Erfahrung nach kein Problem. Mit etwas Kritikfähigkeit sehe ich auch wenig Gefahr, dass einem Unbekannten blind vertraut wird. Mit einer Portion Naivität und gut durchdachten Anstrengungen des Gegenübers authentisch zu sein, kann es jedoch durchaus vorkommen, dass der Wahrheitsgehalt nicht in Frage gestellt wird.

An dieser Stelle möchte ich die parasoziale Kommunikation ins Spiel bringen, deren Einsatz ich im Bereich transmedialer Erzählungen besonders spannend finde.
Innerhalb dieses Formats kann diese Art der Kommunikation eine Interaktion zwischen dem Zuschauer und fiktiven Figuren aus Erzählungen sein. Der Aufbau einer solch‘ »vertrauten« Beziehung wird unter anderem durch soziale Netzwerke ermöglicht, in denen Figuren, die man immerhin schon aus einem anderen Format wie der Serie »kennt«, ein Profil besitzen. Bei Facebook beispielsweise posten sie nicht nur scheinbar selbst, sondern chatten aktiv mit den Nutzern. Sie reagieren damit unmittelbar auf den Zuschauer und verhalten sich aus technischer Sicht wie »normale Freunde« deren Posts man lesen, liken, teilen oder denen man private Nachrichten schreiben kann.2 Laut Dennis Eick werden die Figuren »Teil der sozialen Realität des Zuschauers«.3 Realität und Fiktion verschwimmen hier teilweise massiv.

Die parasoziale Kommunikation gibt es zwar nicht erst seit dem World Wide Web und den sozialen Netzwerken. Jedoch wird diese einseitige Beziehung aus meiner Sicht dadurch begünstigt, dass sich gewisse Dinge im Virtuellen nicht sonderlich voneinander unterscheiden. Aus technischer Sicht sind die Profile der Figuren und die der »wirklichen« Freunde erstmal gleich. Auch die Tatsache Fiktionales als Wirkliches darstellen zu wollen ist nichts Neues, kann aber innerhalb transmedialer Erzählungen sicher deutlich weiter gesponnen werden. Inwiefern das passieren kann, wird eine Fragestellung der kommenden Wochen sein.

Im Fall der crossmedialen Erzählung »About:Kate« (About: Kate ›Wann haben Sie bemerkt, dass Sie nicht mehr wissen, wer Sie sind‹ »)war die Resonanz in Facebook groß. Viele Zuschauer, die nicht verstanden hatten, dass es eine Inszenierung war, begannen ihr persönliches Leid in privaten Nachrichten zu schreiben. Neben dem großen Arbeitsaufwand für das Aufrechterhalten der Profile, bestand die Herausforderung darin, mit diesen Menschen richtig umzugehen. Denn immerhin war das Ganze nur eine Inszenierung und keine Einladung auf die Couch des Psychiaters. Letztendlich war es schwierig den Zuschauern klar zu machen, dass die Facebook-Figuren keine realen Gesprächspartner sind, wie die Regisseurin Janna Nandzik bei der Cologne Conference 2014 berichtet.

Zum einen stellt sich mir hier die Frage, wie viel moralische Verantwortung in den Händen von Gestaltern, Regisseuren, Produzenten und so weiter liegt, solche Interaktionen zu ermöglichen und einzubinden. Zum andern welchen Stellenwert eine gut entwickelte Medienkompetenz zukünftig haben wird, um klare Unterscheidungen zwischen realen und fiktionalen Inhalten treffen zu können. Denn auch der Zuschauer selbst hat aus meiner Sicht die verantwortungsvolle Rolle, kritisch mit neuen Medien umzugehen. Mit diesen und anderen Fragen möchte ich mich in den kommenden Monaten auseinandersetzen.

Auf Grundlage der bisherigen Recherche denke ich, dass durch das Vermischen der virtuellen und nicht-virtuellen Welten in einer Infosphäre, die Grenzen zwischen Realität und Fiktion immer schwammiger werden. Trotz der erwähnten Gefahren eröffnen sich damit aus meiner Sicht völlig neue Möglichkeiten der transmedialen – oder bis dahin anders benannten – Erzählung.

In einem weiteren Beitrag möchte ich mich der filmischen Immersion widmen, sowie der Immersion der virtuellen Realität, die meiner Ansicht nach sehr nahe an der parasozialen Kommunikation liegen.

Quellen
  1. Vgl. Floridi, Luciano: »Die 4. Revolution – Wie die Infosphäre unser Leben verändert«, Berlin 2015, S. 64.
  2. Vgl. Eick, Dennis: »Digitales Erzählen – Die Dramaturgie der neuen Medien«, Konstanz und München 2014, S. 47.
  3. Ebd.

Methoden des Designs

Im ersten Semester geht es unter anderem darum, eigene Methoden aus dem Blickwinkel des Designs zu entwickeln. Durch eine Empfehlung bin ich auch ein Buch aufmerksam geworden, dass Methoden vorstellt, die ich zum Teil ausprobieren möchte, sobald mein Masterthema konkreter ist.

Im ersten Semester geht es unter anderem darum, eigene Methoden aus dem Blickwinkel des Designs zu entwickeln. Da es im Bachelor-Studiengang Kommunikationsdesign nie den Anspruch gab, wissenschaftlich zu arbeiten und es in diesem Bereich zudem wenig bis keine Hilfestellung im Master-Studiengang gibt, ist es schwierig diese Anforderung umzusetzen. Hier hakt es schon an Grundsätzlichem, da die meisten mit wissenschaftlicher Arbeit nicht sehr vertraut sind.

Durch eine Empfehlung bin ich auf das Buch »101 Design Methods – A Structured Approach for Driving Innovation in Your Organization« von Vijay Kumar gestoßen. Wie der Titel verspricht, werden 101 Design-Methoden – in sieben verschiedenen Kategorien – detailliert vorgestellt.
Sie bilden die Grundlage Innovation durch Design zu schaffen und unterscheiden sich grundsätzlich von meiner vorherigen Vorstellung eigene Methoden zu entwickeln. Zuvor war ich der Meinung, dass »Methoden aus dem Blickwinkel des Designs« auf die visuelle Ebene abzielen, das Buch zeigt jedoch auf den ersten Blick überwiegend Methoden, die einer konzeptionellen und strategischen Analyse gleichen. Zwar ist das insofern nicht überraschend, da Design natürlich kein reines Aufhübschen ist, sondern viel weiter reicht. Dennoch bin ich davon überzeugt, dass sich weitere Ansätze und Methoden erarbeiten lassen, die primär der visuellen Ästhetik geschuldet sind.

Nichtsdestotrotz möchte ich gerne einige Methoden ausprobieren, die für meinen Prozess wichtig sein könnten. Das macht erst Sinn, wenn mein Masterthema zumindest auf ein grobes Feld und mit einer Fragestellung konkretisiert ist. Neben bekannteren Methoden wie z. B. Buzz Reports oder Popular Media Scan, die ich so jedoch nicht namentlich kannte, möchte ich auch – für mich – unbekanntere Methoden anwenden. Darunter fallen beispielsweise die Eras Map oder die Offering-Activity-Culture Map. Was es mit den jeweiligen Methoden im Detail auf sich hat, werde ich dann an entsprechender Stelle näher ausführen.

Quellen
  1. Vgl. Vijay Kumar: »101 Design Methods – A Structured Approach for Driving Innovation in Your Organization«, Hoboken (New Jersey) 2013.

Transmedia Manifest

Während der Buchmesse in Frankfurt 2011 schlossen sich neun ausgewählte Kreative aus verschiedenen Medienbereichen zusammen und entwickelten elf Thesen für die Zukunft des Storytelling: Das Transmedia Manifest.

Der technologische Wandel schreitet unaufhörlich voran und bietet ständig wachsende Möglichkeiten, neue Arten von Erzählungen zu entwickeln. Neben technischen Innovationen, spielt auch das veränderte Nutzungsverhalten eine Rolle. So werden Zuschauer an anderen Orten oder über eine andere Kombination von Medien und Inhalten angesprochen. 2nd Screen-Anwendungen sind dabei nur ein Beispiel: Sie machen sich die Angewohnheit vieler Zuschauer zu Nutze, ihre Smartphones parallel zum TV schauen zu nutzen.

Während der Buchmesse in Frankfurt 2011 schlossen sich neun ausgewählte Kreative aus verschiedenen Medienbereichen zusammen, die davon überzeugt sind, dass wir nicht mehr länger Zuschauer, Hörer, etc. sind, sondern »experiencers«1 . Wir erfahren und entdecken Erzählungen und gestalten sie zum Teil selbst mit.

Mit diesem Ansatz entwickelten sie elf Thesen für die Zukunft des Storytelling: Das Transmedia Manifest.

Es beinhaltet u. a. die Ansätze, dass eine Erzählung mehrere Einstiegs­punkte und wählbare Handlungsstränge besitzt. Des Weiteren ist eine Interaktion mit Protagonisten möglich, Realität und Fiktion verschwimmen.2

Das vollständige Manifest ist zu finden auf:
https://transmedia-manifest.com/

Ich halte das Manifest für einen guten Anhaltspunkt, vor allem mit Blick darauf, dass es bereits 2011 entwickelt wurde. Ohne mich damals genauer mit der Thematik auseinandergesetzt zu haben, schätze ich jedoch, dass sich zwischenzeitlich zum einen die Anfangseuphorie transmedialer Erzählungen gelegt hat und sie zum anderen nichts mehr unbekanntes sind. Sie werden meiner Einschätzung nach zunehmenden Einfluss haben, jedoch ohne speziell so benannt werden zu müssen.

Quellen
  1. Vgl. »The Manifest«, URL: https://transmedia-manifest.com/, abgerufen am 10.12.2015.
  2. Ebd.

Fragen an Forscher anderer Disziplinen

Eine Aufgabenstellung im Masterstudio ist ein Interview mit einem Forscher einer anderen Disziplin zu führen. Das Gespräch kann beispielsweise Aufschluss darüber geben, wie in dieser Disziplin geforscht wird und neue Erkenntnisse gewonnen werden können. Des Weiteren erwarte ich mir einen Einblick in andere Disziplinen, um sie gegebenenfalls in die Forschung im Designbereich zu übertragen. Hier findet man eine Übersicht meiner Fragen.

Eine Aufgabenstellung im Masterstudio ist ein Interview mit einem Forscher aus einer anderen Disziplin zu führen. Das Gespräch kann beispielsweise Aufschluss darüber geben, wie in dieser Disziplin geforscht wird und wie neue Erkenntnisse gewonnen werden können. Des Weiteren erwarte ich mir einen Einblick in andere Disziplinen, um sie gegebenenfalls in die Forschung im Designbereich zu übertragen.

Die folgenden Fragen sind lediglich als Leitfaden für mein Interview gedacht. Aus der Erfahrung vergangener Interviews, liegt mir zum einen ein flüssiges Gespräch ohne festgesetzten Fragekatalog besser. Zum anderen können dadurch aus meiner Sicht auch unerwartete Erkenntnisse generiert werden, die aus einem freien Gespräch resultieren.

Fragen

  • · Was bedeutet »Forschen« für Sie?
  • · Welches Ziel verfolgen Sie in Ihrer Forschung?
  • · Wie haben Sie Ihr Forschungsthema gefunden?
  • · Wie lange forschen Sie schon am aktuellen Forschungsprojekt?
  • · Arbeiten Sie gezielt auf eine Antwort hin oder entstehen die Erkenntnisse während der Beobachtung der Lemuren?
  • · Welche Forschungsmethoden gibt es im Bereich der Primatenforschung?
  • · Wie wird die richtige Methode gewählt?
  • · Kann eine Methode während der Forschung »korrigiert« werden oder muss sie beständig bleiben, um wissenschaftlich anerkannt zu sein?
  • · Welche Kriterien müssen generell erfüllt sein, um »anerkannt« zu forschen?
  • · Wie kann Forschung dokumentiert werden?
  • · Lässt sich der Forschungsprozess grundsätzlich in einzelne, festgelegte Schritte aufteilen oder sind die Schritte je nach Projekt individuell?

Nutzung von Bewegtbild (ARD/ZDF-Onlinestudie)

Thomas Kupferschmitt setzt sich in seinem Beitrag auf Grundlage der ARD/ZDF-Onlinestudie mit der Bewegtbildnutzung auseinander.

In »Die Nutzung des Internets unterwegs (ARD/ZDF-Onlinestudie)« habe ich mich bereits mit einer Onlinestudie in Bezug auf die Internetnutzung unterwegs beschäftigt.

Eine weiteren Beitrag zu den Onlinestudien liefert Thomas Kupferschmitt mit »Bewegtbildnutzung nimmt weiter zu – Habitualisierung bei 14–29-Jährigen«. Er will dabei u. a. »mit Daten aus der ARD/ZDF-Onlinestudie 2015« untersuchen, »ob die Videonutzung im Internet insgesamt zunimmt«1 . Des Weiteren nimmt er die »Parallelnutzung von Fernsehen und dem Internet« in den Fokus.2

Wie in meinem anderen Beitrag möchte ich einen groben Einblick bekommen und ziehe nur wenige Zahlen aus den Studien. Die deutlich detailliertere Ausarbeitung mit demographischen Unterschieden oder z. B. Einzelheiten zu der Art des Angebots können der Studie entnommen werden. Der Begriff »Onliner« bezieht sich auf 79.5 % der Gesamtbevölkerung, die das Internet zumindest gelegentlich nutzen, grundsätzlich werden Nutzer ab 14 Jahren unter die Lupe genommen.3 Teilweise gibt es eine Einschränkung auf 14–29-Jährige.

Ergebnisse der Umfrage zeigen, dass 82 % (65 % der Gesamtbevölkerung) Videos im Internet zumindest selten nutzen, 26 % sogar täglich. Diese Entwicklung nahm in den letzten Jahren zu4 und wird wohl auch in den kommenden Jahren weiter zunehmen. Spannend finde ich zudem, welche Angebote die täglichen Nutzer abrufen. 14 % nutzen Videos auf Videoportalen wie z. B. YouTube, MyVideo und so weiter. 9 % schauen Videos auf Facebook. Angebote wie z. B. Netflix, Fernsehsendungen oder Mediatheken werden jeweils nur zu 2 % genutzt.5

Daraus ließe sich aus meiner Sicht Folgendes schließen: Das Interesse am Angebot an sich ist nicht da. Das kann aus meiner Sicht jedoch eher auf Fernsehsendungen zutreffen, da ich Netflix für durchaus beliebt halte.
Ein weiterer Schluss könnte – bei möglicher Unterwegsnutzung – sein, dass das Datenvolumen ungern für lange Formate genutzt wird. Eine letzte Vermutung ist, dass kurze Inhalte attraktiver sind, da man zum einen kurze Wartezeiten überbrücken kann und sie zum anderen jederzeit »zwischendurch« geschaut werden können. Hierzu fehlen mir jedoch Zahlen, welche Angebote unterwegs und welche zu Hause genutzt werden.

Einen möglichen Zusammenhang sehe ich bei der häufigen Nutzung von Facebook und Videoportalen. So kann man z. B. über seinen Facebook-Newsfeed auf die jeweiligen Portale gelangen. Eine mögliche Erklärung für die deutlich höheren Nutzerzahlen, könnte die sein, dass Nutzer nicht bewusst »Bewegtbild konsumieren« möchten, sondern durch die Aktivität in sozialen Netzwerken zufällig darauf stoßen. Das sind jedoch nur lose Vermutungen, die ich weder bestätigen noch belegen kann.

Ein zusätzlich wichtiger Punkt in Kupferschmitts Beitrag ist die Parallelnutzung von Fernsehen und Internet. So nutzen Onliner ab 14 Jahren im Jahr 2015 schon 55 % zumindest selten das Fernsehen und Internet parallel. Täglich dagegen nur 19 %. Bemerkenswert ist die zusätzliche Umfrage, die darauf ausgelegt ist, ob bei der Parallelnutzung der Fokus auf dem Fernsehen oder auf dem Internet liegt. Hier sprechen die Zahlen durchweg dafür, dass man während dem Fernsehen zusätzlich im Internet unterwegs ist, der Fernseher also der »First Screen« ist.6 Eine weitere Umfrage, die den Personenkreis auf 14–29-Jährige eingrenzt, zeig ein ähnliches Bild.7

Resümierend hinterfragt Kupferschmitt eine entscheidende Sache für die Zukunft: »Wer hat genügend attraktive und exklusive Inhalte, um im Wettbewerb zu stehen«8?
Genau dieser Punkt wird auch aus meiner Sicht zukünftig entscheidend sein, da sich die Nutzer selbst aussuchen können, was sie wann, wie schauen. Daher muss er aus meiner Sicht mit einem guten Angebot überzeugt werden, um aus dem riesigen Angebot genau »das Eine« zu wählen.

Insgesamt fehlt mir persönlich, eine Untersuchung der Nutzung von Bewegtbild unterwegs. Da meine Vermutung darin besteht, dass zukünftig auch unterwegs vermehrt Bewegtbild-Formate gefragt sind, wäre eine Umfrage diesbezüglich interessant. Da das in der Onlinestudie nicht berücksichtigt wird, möchte ich dazu selbst eine Umfrage in kleinerem Umfang machen.

Quellen
  1. Kupferschmitt, Thomas: »Bewegtbildnutzung nimmt weiter zu – Habitualisierung bei 14–29-Jährigen«, URL: http://www.ard-zdf-onlinestudie.de/fileadmin/Onlinestudie_2015/0915_Kupferschmitt.pdf, S. 1, abgerufen am: 28.11.2015.
  2. Vgl. Ebd.
  3. Vgl. Ebd., S. 2.
  4. Vgl. Ebd.
  5. Vgl. Ebd., S. 5.
  6. Vgl. Ebd., S. 7.
  7. Vgl. Ebd., S. 8.
  8. Ebd.

Die Hypergeschichte

Im folgenden ein kleiner Überblick über die Hypergeschichte, der im Zuge eines Vortrags, auf Grundlage des Buchs »Die 4. Revolution« von Luciano Floridi, erarbeitet wurde.

Deutschland sowie vor allem die weiteren G7-Länder Frankreich, Italien, Großbritannien, Kanada, Japan und die USA befinden sich momentan im Übergang zur Hypergeschichte. Das macht sich vor allem durch die wirtschaftliche Abhängigkeit von Informationen bemerkbar. Immerhin basieren in den G7-Staaten etwa 70 % des BIP auf ihnen. Gleichermaßen sind Informationen ein entscheidender Faktor, den Wohlstand zu verbessern und die Entwicklung von Innovation voranzutreiben.1
Zudem macht sich der Übergang durch stetig wachsende Rechenleistungen und steigenden Datenmassen ersichtlich. Der Speicher wird, laut Floridi, knapper und Netzwerkverbindungen stoßen an ihre Grenzen.2 So wurde beispielsweise der Standard IPv4 bereits von IPv6 abgelöst, um mehr Verbindungen – nämlich 18-stellige statt 12-stellige IP-Adressen – zu ermöglichen.

Der Umgang mit Informationen

Während in der »Geschichte« bedacht ausgewählt wurde, welche Informationen auf Papyrus, Tontafeln, usw. festgehalten werden sollten, werden sie in der Hypergeschichte zunächst gehamstert. Alles wird gespeichert, um dann sorgfältig auszuwählen, was wieder gelöscht werden soll.3 Diese Eigenart der Hypergeschichte, sowie andere Eigenschaften der »digitalen Welt« führen zum »Digitalen Gedächtnisverlust« – dem Verlust von Informationen.

Zum einen ist dieser Verlust darin begründet, dass Technologien nicht nur weiterentwickelt, sondern gänzlich ersetzt werden. Nicht jede Information schafft es dabei in die neue Technologie übernommen zu werden, veraltete Technologien können häufig durch das Fehlen der nötigen Geräte oder Hardware nicht mehr verwendet werden. Beispielsweise ist nicht jeder Song einer Schallplatte auf einer Kassette zu finden; nicht jeder Song einer Kassette wurde in die Technologie der CD oder MP3-Datei übertragen. Ein weiteres Beispiel ist die Diskette, die als Datenträger längst ausgedient hat und das zugehörige Floppy-Laufwerk ist nur noch selten aufzufinden. Selbst der Untergang von CDs scheint im Gange zu sein: Apple setzt schon jetzt auf Macbooks ohne CD-Laufwerk.4

Ein weiterer Grund für den digitalen Gedächtnisverlust ist die Überspeicherung von Daten. Neue Webseiten ersetzen alte Webseiten. Die Änderungen eines Textes in Text-Programmen werden nicht als neue Datei abgespeichert, sondern bestehende Text-Dateien werden überspeichert. Zum einen gehen hierdurch natürlich Daten verloren und Varianten werden verschmolzen. Zum anderen werden die Dokumente durch das erneute, veränderte Abspeichern in einen Zustand der Geschichtslosigkeit geführt. Differenzen werden gelöscht, obwohl die Vergangenheit für gewöhnlich eine nachvollziehbare Abfolge von Veränderungen darstellt.5

Zukünftige Generationen können dadurch die geschichtliche Abfolge nicht nachvollziehen. Viel problematischer ist jedoch eine für uns immer währende Gegenwart, das »Einschließen in der ewigen Gegenwart«6, wenn die Vergangenheit stets neu geschrieben wird. Der richtige Umgang mit Informationen ist daher essentiell. Die Schaffung, Gestaltung und Handhabung von Informationen sieht Floridi deshalb als wichtige Basis für die zukünftige Entwicklung der Infosphäre.7

Dieser Überblick steht im direkten Zusammenhang mit Erkenntnisse und Eindrücke zu Luciano Floridis Buch »Die 4. Revolution«, wo ich eigene Erkenntnisse, Eindrücke und Gedanken formuliere.

Quellen
  1. Vgl. Floridi, Luciano: »Die 4. Revolution – Wie die Infosphäre unser Leben verändert«, Berlin 2015, S. 20.
  2. Vgl. Ebd., S. 44
  3. Vgl. Ebd., S. 40
  4. Vgl. Ebd., S. 36 f.
  5. Vgl. Ebd., S. 37
  6. Ebd.
  7. Vgl. Ebd.

Die 4. Revolution

Luciano Floridi beschreibt in seinem Buch »Die 4. Revolution« die 4. Kränkung der Menschheit. Können wir uns anderen Aufgaben widmen, um auf eine höher Entwicklungsstufe zu gelangen?

Im Buch »Die 4. Revolution« beschreibt der Informationsphilosoph Luciano Floridi, dass die Informationsrevolution, die durch Alan Turing verursacht wurde, die 4. Kränkung der Menschheit ist.

Vorangegangen sind dieser die Kopernikanische, Darwinsche und Freudsche Kränkung. Durch Kopernikus wird klar, dass die Erde nicht der Mittelpunkt der Welt ist, sondern dass wir in einem heliozentrischen Kosmos leben. Darwin beweist mit seiner Evolutionstheorie, dass der Mensch kein Übergeschöpf ist, sondern lediglich eine Weiterentwicklung des Tiers, was die 2. Kränkung der Menschheit bedeutet. Der Mensch wird dabei zunehmend aus seiner zentralen Rolle verdrängt. Während man nun dachte, dass man zumindest sich selbst transparent ist, entdeckt Freud (auch folgend von der neuronalen Forschung) das Unterbewusstsein. Hier wird deutlich, dass wir uns nicht einmal selbst vollständig unter Kontrolle haben, sondern viele Dinge unterbewusst ablaufen. Was für uns heutzutage normal ist und mitnichten einer Kränkung gleich kommt, war für die Menschen ein revolutionärer Schlag. Dem würde wohl gleichkommen, wenn wir nun weiteres intelligentes Leben im Universum finden würden und dann auch noch feststellen müssten, dass wir nicht die einzigen Wesen sind, die so hoch entwickelt sind. Während die ersten drei Revolutionen allgemein anerkannt sind, gibt es für die vierte Revolution noch keine einheitliche Ansicht. Floridi beschreibt sie jedoch als Informationsrevolution, in der nun auch die Maschine dem Menschen, vor allem in der logischen Informationsverarbeitung, weit voraus ist. Die Maschine rechnet nicht nur schneller, sondern erledigt selbst große und komplizierte Rechenoperationen mit ziemlicher Sicherheit korrekt.

Für mich ist das deshalb interessant, weil das bedeutet, dass dieser Umbruch einen gesellschaftlichen Wandel in eine unbestimmte Richtung mit sich bringt. Zwar ist die Tatsache, dass Maschinen schneller als Menschen rechnen, im Jahr 2015 keine große Sache mehr und führt auch nicht zu der großen Kränkung schlechthin. Dennoch bemerkt man, dass der Mensch in Konkurrenz mit der Maschine tritt. Das betrifft vor allem Bereiche, die wir Menschen den Maschinen weder zutrauen noch überlassen wollen. Dazu gehören z. B. Entscheidungen treffen oder ihnen »subjektive« Bewertungen nach ästhetischen Gesichtspunkten zu überlassen. Zwar ist es aus meiner Sicht noch unvorstellbar, jedoch halte ich es nicht für ausgeschlossen, dass diese Fähigkeiten, die üblicherweise dem Menschen zugerechnet werden, immer ausgefeilteren Algorithmen übergeben werden. Zwar kann sich der Algorithmus nicht von selbst verändern, sondern ist im Ursprung immer menschgemacht, dennoch halte ich es für möglich, dass dieser irgendwann so ausgefeilt ist, dass zumindest eine sehr glaubwürdige Imitation von echten Menschen durch KI‘s möglich ist.

Insgesamt bedeutet das, dass wir unsere Aufgaben und unsere Position weiter überdenken müssen. Es bleibt essentiell, die Fähigkeiten, die ein Computer tatsächlich besser kann, auszulagern und unser Bewusstsein für andere Dinge zu schärfen. Hierzu zählen möglicherweise vor allem die musischen Bereiche, die wir dem Computer nicht zutrauen. Überlassen wir dem Computer logische Aufgaben vollständig oder zumindest unter Beobachtung, könnte die Menschheit an anderen Aufgaben wachsen und unter Umständen sogar auf eine ganz neue Entwicklungsstufe gelangen.

Quellen
  1. Vgl. Floridi, Luciano: »Die 4. Revolution – Wie die Infosphäre unser Leben verändert«, Berlin 2015, S. 122 f.
  2. Vgl. Ebd.

About:Kate – »Wann haben Sie bemerkt, dass Sie nicht mehr wissen, wer Sie sind?«

Die Fernsehserie »About:Kate« ist ein crossmediales Projekt der ARTE Creative von Regisseurin und Autorin Janna Nandzik und dem Produzenten Christian Ulmen aus dem Jahr 2013.

Die Fernsehserie »About:Kate« ist ein crossmediales Projekt von der Regisseurin und Autorin Janna Nandzik und dem Produzenten Christian Ulmen aus dem Jahr 2013. Sie wurde auf ARTE Creative ausgestrahlt. Die Serie auf dem Fernsehbildschirm streckt dabei ihre Fühler Richtung Second Screen und Facebook aus.

Die Protagonistin Kate Harff liefert sich an Silvester selbst in eine Berliner Nervenklinik ein, weil sie mit ihrem Leben und dem Digitalen überfordert ist. Der Zuschauer verfolgt dabei zum einen ihre Aktivitäten innerhalb der Klinik wie diverse Besuche bei ihrer Therapeutin oder begleitet sie in therapeutische Kurse wie Korbflechten. Zum anderen erhält man Einblick in ihr geistiges Leben sowie ihr digitales Ich. Immer wieder nimmt der Zuschauer voyeuristischen Einblick auf ihr Facebook-Profil durch das sie scrollend und klickend versucht ihr wahres Ich zu finden. Sie hinterfragt Freundschaften, die auf der Facebook-Freundesliste angezeigt werden und löscht sie kurzer Hand alle, nachdem sie für sich feststellt, dass sie eigentlich keine Freunde hat. Sie zappt durch die Bilder, eine Mischung aus Zeichnungen und Fotos aus ihrem Leben, oder durch ihre Serien und Lieblingsbands. Sie hinterfragt dabei alles und jeden, vor allem aber sich selbst.

Kates Facebook-Profil
Kates Facebook-ProfilII

Fiktive Figuren als echte Personen

Ihr Profil sowie viele andere Profile der Protagonisten wurden bereits vor Serienstart eingerichtet und gefüllt. Veröffentlichte Musik-Playlists von Kate erwecken zusätzlich den Eindruck, als wäre Kate keine Schauspielerin, sondern eine echte Person. Janna Nandzik erzählt bei der Diskussionsrunde »Zukunft des Drehbuchschreibens« bei der Cologne Conference 2014, wie das Team als fiktive Figuren mit den Zuschauern bei Facebook chattet. Vielen fällt es dabei schwer Realität und Fiktion auseinanderzuhalten.

Zusätzlich erhält das Publikum durch eine App einen Second Screen, auf dem weitere Inhalte präsentiert werden. So gibt es beispielsweise Live-Inhalte während der Serie oder Psychotests. Des Weiteren haben sie weiteres Mitspracherecht durch »user-generated Content«, der eingereicht werden kann und geschickt in die Serie verflochten wird.

User-generated Content
User-generated ContentIII

Wer bin ich?

Diese Frage ist keine seltene Frage in unserer heutigen Gesellschaft, welche von Überforderung auf allen Eben geprägt ist. In unserer digitalen Welt, in der wir Unterschiede zwischen unserem analogen und digitalen Ich feststellen, jedoch nicht einordnen oder akzeptieren können, weil wir für uns das eine wahre Ich suchen. Die Person, die wir »wirklich« sind, obwohl wir auch schon in der analogen Welt verschiedene Identitäten in verschiedenen Rollen hatten.

»About:Kate« illustriert dieses Thema wunderbar und zeigt Einblicke in die Gedankenwelt einer Mittzwanzigerin, die sicher stellvertretend für einen großen Teil der Generation ist. Der user-generated Content, der teilweise aus YouTube-Videos besteht, sowie Aktivitäten wie das 2013 noch alltäglichere Scrollen durch Facebook mit der Frage nach der Außenwirkung, unterstreichen das.

Als baldiges Ziel sehe ich eine Analyse dieser Serie.

Abbildungen
  1. Eigener Screenshot; Nandzik, Janna: »About:Kate«, Staffel 1, Folge 1, »Frohes Neues!«, TC: 00:20:56, Deutschland 2013.
  2. Ebd., TC: 00:06:34.
  3. Ebd., TC: 00:11:57.

Die Nutzung des Internets unterwegs (ARD/ZDF-Onlinestudie)

Zur Überprüfung meiner Erwartungen nutze ich Zahlen der ARD/ZDF-Onlinestudien. Die Onlinestudien untersuchen seit 1997 zum einen die Entwicklung der Internetnutzung in Deutschland, zum anderen die Nutzung der Angebote. Die Studien dienen als Grundlage bisherige Entwicklungen zum überprüfen, sowie Annahmen für kommende Entwicklungen zu treffen.

Aus Erfahrung weiß ich, dass digitale Inhalte zunehmend unterwegs mit Endgeräten wie z. B. Smartphones und Tablets konsumiert werden. Ich persönlich nutze dabei hauptsächlich Kommunikationsdienste wie WhatsApp, Nachrichten-Apps oder Musik-Streamingdienste wie z. B. Spotify. Außerdem lese ich beispielsweise eBooks oder schaue Filme – mit der Voraussetzung, dass sie offline verfügbar sind.

Da ich davon ausgehe, dass der Konsum sowie die benötigten und ausschlaggebenden Voraussetzungen wie z. B. verbesserte Datenverbindungen zunehmen und daraus neue Möglichkeiten der Erzählung entstehen, möchte ich wissen, wie die bisherigen Entwicklungen bei der Nutzung unterwegs aussehen. Für meine Recherche bezüglich transmedialen Erzählungen, ist zudem besonders interessant, inwiefern Bewegtbild-Formate aktuell tatsächlich unterwegs genutzt werden. Zweiteres behandele ich jedoch gesondert (Nutzung von Bewegtbild (ARD/ZDF-Onlinestudie) »).

Hierzu liefern die ARD/ZDF-Onlinestudien, die seit 1997 durchgeführt werden, Zahlen. Die Kernfragen der Onlinestudien sind zum einen »die Entwicklung der Internetnutzung in Deutschland sowie der Umgang der Nutzer mit den Angeboten«.1

Eine Studie aus dem Jahr 2015, nämlich »Unterwegsnutzung des Internets wächst bei geringerer Intensität« von Wolfgang Koch und Beate Frees ist dabei sehr aufschlussreich für mich. Mit »Unterwegs« ist dabei das alltägliche Unterwegssein gemeint.2

Laut ihr nutzen »55 % der Onliner in Deutschland unterwegs das Internet ›zumindest selten‹«, was 5 % Zuwachs zum Vorjahr 2014 und sogar 35 % Zuwachs zum Jahr 2012 bedeutet.3
Besonders auffallend, aber auch erwartungsgemäß, ist, dass 48 % der 14–29-Jährigen das Internet täglich unterwegs nutzen und insgesamt 81 % zumindest selten. Sie bilden damit die Gruppe, die das Internet mit Abstand am häufigsten unterwegs nutzt. Den 2. Platz nehmen die 30–49-Jährigen ein mit 23 % täglicher und 63 % zumindest seltener Nutzung.4 Koch und Frees liefern hier die Zusatzerkennnis, dass der Anstieg der 30–49-Jährigen zum Vorjahr besonders hoch ist, was darauf schließen lässt, dass »neue Zielgruppen hinzukommen«.5

Die Ergebnisse bestätigen zum einen meine Erwartung, dass jüngere Menschen prozentual häufiger das Internet unterwegs nutzen. Zum anderen bestärken sie meine Annahme, dass die Nutzergruppe der 14–29-Jährigen durch die »Digital Natives« noch weiter wachsen wird. Hier könnte das Platzieren neuer Erzähl-Formate besonders attraktiv werden.

Generell bietet die Studie natürlich viel detailliertere und weitere Ergebnisse, wie z. B. gesonderte Auswertungen bezüglich der Demographie oder weitere Inhalte wie z. B. die WhatsApp-Nutzung. Dies möchte ich hier jedoch nicht berücksichtigen, da es mir zunächst um ein generelles, grobes Bild sowie einen ersten Eindruck der Entwicklung geht.

Wie bereits angekündigt, möchte ich die Nutzung von Bewegtbild-Formaten unterwegs in einem weiteren Beitrag behandeln (Nutzung von Bewegtbild (ARD/ZDF-Onlinestudie) »).

Quellen
  1. ARD/ZDF-Medienkommission: URL: http://www.ard-zdf-onlinestudie.de/, abgerufen am: 28.11.2015.
  2. Vgl. Frees, Beate; Koch, Wolfgang: »Unterwegsnutzung des Internets wächst bei geringerer Intensität«, URL: http://www.ard-zdf-onlinestudie.de/fileadmin/Onlinestudie_2015/0915_Koch_Frees.pdf, S. 1, abgerufen am: 28.11.2015.
  3. Vgl. Ebd., S. 2.
  4. Vgl. Ebd.
  5. Ebd.

Erste Gehversuche mit der Google Cardboard

Für erste Tests im Breich VR-Brillen habe ich mir die Google Cardboard bestellt und getestet.

Die Google Cardboard ist eine Vorrichtung aus Karton mit der man ein Smartphone in eine Virtual Reality (VR)-Brille verwandeln kann. Die Bildqualität ist dabei zwar nicht optimal, sie kostet dafür aber auch nur einen Bruchteil richtiger VR-Brillen.

Die Intension die Google Cardboard zu testen ist zum einen erste Gehversuche mit einer VR-Brille zu machen, zum anderen sehe ich im VR-Bereich mögliches Potenzial für meine Masterarbeit. Für Android sind die Angebote momentan leider noch sehr spärlich gesät, so dass ich auf youTube-360°-Video zurückgreife, die man auf die Ansicht von VR-Brillen umschalten kann. Weiter teste ich eine Rollercoaster-App, sowie die App »Vrse« der New York Times, die verschiedene VR-Erfahrungen bereit stellt. Damit geht es z. B. im Helikopter in den Himmel von New York oder in ein Atelier.

Der Verlust des Raumgefühls

Sehr schnell wird mir bewusst, welch’ immersive Erfahrung man mit VR-Brillen machen kann, da das Raumgefühl überraschend schnell verloren geht. Man möchte sich bewegen, drehen, gehen, beobachten und ist sich nie ganz sicher, wo doch noch eine Zimmerwand im Weg steht. Ich finde es beeindruckend mit wie wenig Mitteln das Gehirn ausgetrickst werden kann und frage mich wie viel Reize es benötigt, um eine tatsächlich real wirkende VR-Erfahrung zu erschaffen. Die Apps, die auf der visuellen und auditiven Ebene arbeiten, könnten durch haptische oder taktile Elemente erweitert werden und so sicher für eine noch intensivere Realitätsverschiebung sorgen.

Des Weiteren frage ich, mich vor allem bei der Nutzung der vrse-App, welche neuen Möglichkeiten und Herausforderungen der VR-Bereich mit sich bringt. Der Nutzer kann vollständig eintauchen, sich umschauen und den Blick frei umherschweifen lassen, was einer realen Situation wohl sehr nahe kommt. Gleichermaßen bedeutet das, dass es für Filmemacher/Contententwickeler eine große Herausforderung sein wird, die visuelle Ebene nicht nur in einem kleinen Bildausschnitt, sondern im 360°-Bereich gestalten und wählen zu müssen. Neue Möglichkeiten, nämlich z. B. die, einen Schnitt genau dort anzubringen, wenn der Nutzer beispielsweise blinzelt, werden hier sicher hilfreich sein.

Freie Entscheidungen und Voyeurismus

Einen Anwendungsbereich könnte ich mir z. B. bei Konzertmitschnitten vorstellen, bei denen die Ausschnitte üblicherweise ein Wechselspiel aus Bildern der Bühne, des Publikums und Close-Ups der Menschen im Publikum ist. Hier könnte man mitten im Konzert sein und sich frei entscheiden, ob man nun lieber kurz den Nebenmann, die Bühne oder die Lichter an der Decke anschaut. Man kann voyeuristische Haltungen einnehmen und unbeobachtet beobachten oder einfach Teil von etwas sein, vor dem man sich in der Realität scheut. Hier fallen mir Musicals ein, bei denen Menschen im Nachhinein häufig von den Aktionen mit Publikumsbeteiligung erzählen. Dennoch wollen viele Menschen nicht im Mittelpunkt dieser stehen.

Insgesamt stellt sich natürlich die Frage, ob man letztendlich nicht lieber in der Realität ein Konzert besucht und das ganze Gefühl vor Ort mit dröhnendem Bass und für den Moment charmanten Biergeruch real erleben möchte. Für kurze Ausschnitte zwischendurch, wenn man sich kurz fallen lassen möchte, jedoch sicher eine gute Variante.

Aussicht

Um den Bogen zu meinem Master zu spannen, habe ich zusätzlich im Web recherchiert, welche Möglichkeiten es gibt, eigene VR-Erfahrungen zu gestalten ohne ein Programmier-Crack zu sein. Von Google gibt es wie üblich viel Unterstützung für Entwickler (Cardboard Developer »), sowie ein Design Lab, was für uns Designer wohl der interessantere Part ist. Hier stellt Google Richtlinien zur Verfügung, welche für die Gestaltung im VR-Bereich wichtig sind. Des Weiteren bin ich auf das plattformunabhängige WebVR gestoßen bzw. die Mozilla Web VR (WebVR ») gestoßen bzw. die Mozilla VR (Moz VR »), die wiederum abhängiger zu sein scheint. Damit wäre es jedoch zumindest schon einmal gegeben, dass man nicht nur eine App für iOS oder Android gestaltet.

Der erste Gehversuch mit der Cardboard war definitiv spannend, doch ist im Moment nicht klar, was das für mich und meine Masterarbeit bedeuten könnte und wie relevant die ersten Versuche sein werden.

Abbildungen
  1. Eigener Screenshot; vrse und New York Times, App vrse, JR; Milk, Chris; Richter, Zach: »Walking New York«, NYT Mag VR, USA 2015.

Von Dildodrohnen und lolzcat

Die Arbeiten von Addie Wagenknecht drehen sich im Kern um die »Kritik an Technikgläubigkeit. Experimentell und »positiv trashig« verarbeitet sie aktuelle, gesellschaftliche Themen oder stellt Historisches in Bezug zur heutigen Welt.

Durch arte Tracks wurde ich auf die Künstlerin Addie Wagenknecht aufmerksam, deren Arbeiten sich im Kern um die »Kritik an Technikgläubigkeit«1 drehen. Experimentell und »positiv trashig« verarbeitet sie aktuelle, gesellschaftliche Themen oder stellt Historisches in Bezug zur heutigen Welt.

»Webcam Venus«

In ihrem Projekt »Webcam Venus« bittet sie beispielsweise gemeinsam mit Pablo Garcia, »online sexcam performers«2 vor der Kamera zu posen – in der gleichen Pose wie ein gegenübergestelltes Renaissance-Gemälde. Dabei geht es um die Frage nach Schönheit in unserer Gesellschaft, aber auch um die Menschen hinter der Webcam, die – dort am anderen Ende – auch reale Personen sind. Ihre Privatsphäre und Intimität wird dabei in die Welt getragen und die Grenzen zwischen dem realen und virtuellen Leben verschwimmen zunehmend. Auch die virtuelle Welt ist Teil des Realen.

»Pussy Drones«

Dass die virtuelle Welt Teil des Realen ist und sich unsere Onlinewelt auf die Offlinewelt auswirkt, ist auch ein Teilaspekt der Arbeit »Pussy Drones«. Sie vermischt in gif-Animationen Elemente aus dem Web, wie z. B. Katzen, die auf einem Vibrator fliegen, mit Elementen aus dem »realen« Leben. Gleichzeitig beschäftigt sich die Arbeit, wie auch andere zuvor, mit der Rolle der Frau. Noch immer kämpfen Frauen – v.a. in der Technikwelt – um Gleichstellung und Akzeptanz. Noch immer scheint die Aufgabe der Frau stark davon geprägt zu sein, ein klares geordnetes Leben zu führen, das aus einer gesellschaftlich diktierten Abfolge von Heirat, Haus und Kinder besteht.3

Es könnte – spekuliert – auch eine Kritik an der Ökonomisierung des Webs sein. In den 90er Jahren – zu Beginn des World Wide Webs – hielt man das WWW für einen Nischenraum, in der sich z. B. Kunst unter anderen Bedingungen als in der realen Welt ausbreiten könnte. Nach anfänglichen Schwierigkeiten (Dotcom-Blase) wurde aber auch dieser Raum zum einen wirtschaftlich erschlossen, zum anderen ist er zwischenzeitlich alles andere als ein anonymisierter Nischenraum, der nichts mit der realen Welt zu tun hat.

»Pussy Drones« von Addie WagenknechtI
»Pussy Drones« von Addie WagenknechtII

Mit den Arbeiten von Addie Wagenknecht möchte ich mich gerne in meiner weiteren Recherche beschäftigen. Sie scheint ihre Meinung, Kritik oder Sorgen mit klarem Verstand auf den Punkt bringen zu können, was ich in der heutigen Zeit sehr beeindruckend finde. Des Weiteren fällt mir die experimentelle und die oben erwähnte »positive Trashigkeit« auf. Sie schafft es auf unkonventionelle Weise Arbeiten zu schaffen, die sehr direkt und tiefgründig sind. Ohne endlose Ausschmückungen und großes BlaBla.

Quellen
  1. Arte Tracks News (Hg.): »Addie Wagenknecht«, Stand: 5.9.2015, URL: http://tracks.arte.tv/de/addie-wagenknecht, abgerufen am 12.10.2015.
  2. Wagenknecht, Addie: »Webcam Venus«, Stand: 5.3.2013, URL: http://fffff.at/webcamvenus/, abgerufen am 12.10.2015.
  3. Vgl. bitforms gallery (Hg.): »Addie Wagenknecht«, URL: http://www.bitforms.com/wagenknecht/pussy-drones, abgerufen am 12.10.2015.
Abbildungen
  1. Titelbild: Wagenknecht, Addie; Garcia, Pablo: »Pussy Drones«, Einzel-GIF »Pussy Drones in space«, Animiertes GIF, USA 2013.
  2. Wagenknecht, Addie; Garcia, Pablo: »Pussy Drones«, Einzel-GIF »Pussy Drones infiltrate Wal Mart«, Animiertes GIF, USA 2013.

netwars / out of CTRL

Lena Thiele stellt im Workshop »Transmediales Storytelling« das Projekt »netwars / out of CTRL« vor. Ihr gelingt damit ein umfangreiches, transmediales Projekt dessen inhaltlicher Fokus darauf liegt, die Menschen für die Gefahren des Netzes zu sensibilisieren.

Bei der Fachtagung des Journalistinnenbunds 2014 stellte Lena Thiele im Workshop »Transmediales Storytelling« das Projekt »netwars / out of CTRL« vor. Lena Thiele gelingt damit ein umfangreiches, transmediales Projekt dessen inhaltlicher Fokus darauf liegt, die Menschen für die Gefahren des Netzes zu sensibilisieren – denn wir sind schon längst mitten im Cyberwar. Neben den interaktiven dokumentarischen Web-Serien, streut sich das Projekt über weitere Medien: Es gibt eine 52-minütige TV-Dokumentation, eine TV-Serie, eine Graphic Novel App, sowie eine Audio- und E-Book-Serie.

Für mich steht v.a. die Web-Serie im Vordergrund. Sie setzt sich aus fünf Episoden zusammen, die jeweils durch Expertenmeinungen oder weiterführende Informationen wie z. B. die »ICS Sicherheitslücken« angereichert sind. Der Nutzer kann selbst entscheiden, welche zusätzlichen Informationen er anschauen oder lesen möchte. Er klickt sich damit spielerisch durch das teils humoristisch verpackte Wissen rund um die Thematik. »Gimmicks« wie ein ungefährlicher, aber nicht selbst gestarteter Download, zeigen mit Nachdruck, wie offen unsere Computer und Systeme sind. Der Titel der Episode 3 »Speichere dein Leben« gibt dagegen einen Hinweis darauf, wie viel heutzutage von gerade diesen Systemen abhängt.

»netwars / out of CTRL« ist aus meiner Sicht jedoch nicht nur deshalb interessant, weil es sich eines hochaktuellen Themas bedient. Sondern die Art der Erzählung macht für mich den ausschlaggebenden Unterschied. Mir macht es als Nutzer Spaß, mich in diesem Kosmos aus Wissen selbst fortzubewegen. Zu Klicken, was mir instinktiv auffällt und andere Dinge getrost vernachlässigen zu können, ohne das Gefühl zu haben, einen entscheidenden Punkt des Plots verpasst zu haben. Ich kann mich mit dieser Art der Erzählung perfekt sättigen, ohne übersättigt zu werden und meine Nutzung auf den Punkt darauf abstimmen, wie viel ich schon weiß und wie viel ich noch wissen möchte.

Momentan stellt das Projekt für mich nur eine kleine, kurze Recherchestation dar, die erwähnt werden will. Bei Bedarf wird die Recherche noch analytisch vertieft.

Website: netwars-project.com

Abbildungen
  1. Titelbild: Eigener Screenshot; Thiele, Lena: »netwars / out of CTRL«, URL: netwars-project.com/de/webdoc/episode2, Deutschland 2013, abgerufen am 18.1.2015.

Von der Kultur, die statisch wurde

Mit dem Buchdruck wurde die Kultur laut Sabria David statisch. Digitale Medien führen zu einer Verflüssigung der Gesellschaft. Welche Erkenntnis kann aus ihrem Essay im Magazin »New Forum« für das Erzählen gezogen werden? Welchen generellen Schluss kann man daraus für das Erzählen der Zukunft ziehen?

»New Forum« ist ein Magazin des NRW-Forum Düsseldorfs, das erstmals zur Ausstellung »Ego Update«, die vom 19.9.2015–17.1.2016 stattfindet, erscheint. Sabria David beschreibt dabei in ihrem Essay »ALLES FLIESST – Konstanten einer liquiden Gesellschaft« wie »Digitale Medien […] derzeit die Dinge in Bewegung bringen«1.

Erzählungen gibt es im Grunde schon immer. Während sie vor der Erfindung der Schrift einen dynamischen Prozess einer gewissen Veränderbarkeit durchliefen, wurde unsere Kultur – so Sabria David –durch den Buchdruck »statisch« und vor allem »zeit- und ortsunabhängig«. Zuvor war sie noch »offen« und »beweglich« und »hatte flexible Strukturen«.2
Des Weiteren erläutert sie, dass Wissen, das nicht von »Generation zu Generation weiterzählt« wird ausstirbt, da es nicht »materialisiert« ist.3

Hier sehe ich eine Parallele zur heutigen Zeit und dem darin vorherrschenden digitalen Gedächtnisverlust. Der Informationsphilosoph Luciano Floridi erläutert dies genauer in seinem Buch »Die 4. Revolution«. So kann dieser Gedächtnisverlust zum einen dadurch zu Stande kommen, dass alte Technologien nicht mehr nutzbar sind4 oder Daten von einer alten Technologie (z. B. Diskette) nicht in eine neue Technologie (z. B. CD) übernommen werden. Zusätzlich findet eine ständige Überspeicherung von z. B. Webseiten statt5, so dass Dokumente in einen Zustand der Geschichtslosigkeit geführt werden. Zum einen dadurch, dass Differenzen gelöscht werden, zum anderen, weil die Vergangenheit immer wieder neu geschrieben wird. Das digitale Gedächtnis scheint damit flüchtig wie die mündliche Kultur.6 Zwar ist Information nicht gleich Wissen, dennoch ist in diesen »Daten« aus meiner Sicht unheimlich viel Wissen verankert.

In Bezug auf Erzählungen ist meine Hauptessenz die, dass Geschichten nicht immer statisch waren. Das bedeutet für mich – wenn auch nicht als neue Erkenntnis –, dass im Gegensatz zu der »gehypten« non-linearen Erzählung, die lineare nicht die ursprüngliche Form der Erzählung war. Viel mehr sind es die angesprochenen dynamischen Prozesse der Veränderbarkeit, die wir auch aus eigenen Erzählungen kennen, da die Geschichte nicht immer gleich erzählt wird. Zwar ist in meinem Empfinden eine Alltagserzählung von Erzählungen zu unterscheiden, die von Autoren als Erzählung aufgebaut werden. Dennoch finde ich diesen Gedanken im Bezug auf heutige Erzählungen, in denen der Rezipient teilweise Teil der Geschichte wird, sehr spannend.
Den Bezug zu Floridi stelle ich deshalb her, da Sabria David beschreibt, dass sich die Gesellschaft gewissermaßen verflüssigt und der »Weg für eine Reorganisation frei« ist, »für die Herausbildung neuer, angemessener Strukturen und für neue Kulturtechniken«.7 Ich glaube, dass in dieser liquiden Gesellschaft nicht nur eine Reorganisation stattfindet, sondern, dass sich die Strukturen generell fortwährend flexibel ändern, Dinge sich verknüpfen, entknüpfen und neuverknüpfen. Im Bezug auf Floridi, zumindest im weitesten Sinne, könnte dies bedeuten, dass auch hier eine Art Geschichtslosigkeit, eine ständige Neuverknüpfung der Strukturen ohne ein Vorher und Nachher stattfinden kann. Das wäre auch ein interessanter Anhaltspunkt für das Erzählen von Geschichten, die sich ständig weiterentwickeln, neuverknüpfen und grundsätzlich kein Ende finden. Kein Haupt-, Mittel- und Schlussteil, keine Beschränkung auf bestimmte Medien, sondern ein wachsendes Patchwork. Eine sich immer fortwährend verändernde Erzählung. Eine neverending story. Dabei bleibt nur noch die Frage offen, ob hier nicht die Grundsätze der Erzählung in Frage gestellt werden.

Quellen
  1. David, Sabria: »ALLES FLIESST – Konstanten einer liquiden Gesellschaft« in: NEW FORUM »Alles, was das Internet schon immer über sie wissen wollte«, ein Magazin des NRW-Forum Düsseldorf, Düsseldorf 2015, S. 13.
  2. Ebd.
  3. Ebd
  4. Vgl. Floridi, Luciano: »Die 4. Revolution – Wie die Infosphäre unser Leben verändert«, Berlin 2015, S. 36.
  5. Vgl. Ebd., S. 38 ff.
  6. Vgl. Ebd., S. 37.
  7. David, Sabria: »ALLES FLIESST – Konstanten einer liquiden Gesellschaft« in NEW FORUM »Alles, was das Internet schon immer über sie wissen wollte«, ein Magazin des NRW-Forum Düsseldorf, Düsseldorf 2015, S. 13.

Mehr Substanz auf der Web-Bühne

Es wird deutlich, dass das World Wide Web neue Möglichkeiten bietet, die dem einzelnen mit wenig Aufwand erlauben, eine gute Idee als Royal Flush auszuspielen. Der Kern der Sache ist für mich nicht die Frage, welches Unternehmen es durch das World Wide Web »geschafft« hat, sondern was diese durchaus noch junge Welt für nachkommende Kommunikationsdesigner bereit hält. Mit Köpfen voller Ideen, einem ästhetischem Grundverständnis Informationen zu vermitteln sowie dem nötigen Handwerkszeug scheint es die perfekte Ausgangslage zu sein.

Wie die Autoren von »Staatsfeind WikiLeaks« (Der unvollkommene Kreis ») stellt auch Andrew Keen in »Das digitale Debakel« fest, dass zwischenzeitlich kleine Gruppen die Macht über viele Menschen erlangen können.1 Während es bei WikiLeaks um Aufklärung und einer daraus resultierenden politischen Machtstellung geht, spricht Keen primär von finanzieller Macht oder unverhältnismäßiger Verteilung, die – aus meiner Sicht – durch z. B. Lobbyismus wieder in politische Macht mündet.
So beschäftigte beispielsweise WhatsApp vor dem 19-Milliarden-Dollar-Verkauf an Facebook lediglich um die 50 Mitarbeiter2 und dass Google mehr oder minder aus dem nichts in einer Garage entstanden ist, ist auch bekannt. Kleine gute Ideen werden riesig. Nur zum Vergleich: Die Daimler-AG erzielte 2014 einen Umsatz von ca. 130 Mrd. € – mit rund 280.000 Mitarbeitern.3 Wer in den gesellschaftlichen Köpfen eine größere Rolle spielt, soll jeder für sich entscheiden.
Für mich gibt es kaum etwas Langweiligeres als Zahlen oder generell Finanzen und als Laie vermische ich sicher Zahlen, die so nicht zueinander gehören. Ein Superpro wird sicher Gegenbeispiele finden und weder beruhigend noch beunruhigend ist, dass die mächtigsten Konzerne der Welt nicht Google, Facebook oder Apple heißen4. Dennoch gehört Google zu den ersten Unternehmen dieser »neuen Kategorie«, die laut Keen ihren »wirtschaftlichen Wert im Netz selbst« beherbergen.5

Nichts als Applaus für neue Ideen

Es wird in jedem Fall deutlich, dass das World Wide Web neue Möglichkeiten bietet, die dem einzelnen mit wenig Aufwand erlauben, eine gute Idee als Royal Flush auszuspielen. Der Kern der Sache ist für mich deshalb nicht die Frage, welches Unternehmen es durch das World Wide Web »geschafft« hat, sondern was diese durchaus noch junge Welt für die kommende Generation der Kommunikationsdesigner bereit hält. Mit Köpfen voller Ideen, einem ästhetischem Grundverständnis, Informationen zu vermitteln sowie dem nötigen Handwerkszeug scheint es die perfekte Ausgangslage zu sein.
Doch während unter vorgehaltener Hand versprochen wird, dass man mit einem guten Einfall so ziemlich jeden und alles erreichen kann, weiß man, dass aus den 15 Minuten Ruhm längst nur noch Millisekunden auf Pinterest-artigen Design-Blogs übrig geblieben sind – auf denen eine Idee nur noch der nächsten ähnelt.
In der Zukunft wird die Arbeit vielleicht mit Bitcoins belohnt, als Gegenwert regnet es heute selten Geld. Im Moment kann man die Web-Bühne häufig mit einem Applaus aus Likes, Retweets oder Pins verlassen. Wir verkaufen uns für billige Referenzen, verwechseln Likes mit ernst gemeinter Kritik und ich frage mich, wie ehrlich und vor allem wie wirklich das ganze Rumgeeier sein kann und zukünftig sein soll. Die alltägliche Arbeit mit realem Feedback und Kundenkontakt wirkt für mich substantieller als die Zur-Schau-Stellung im WWW. Sicher gibt es Plattformen, auf denen man sich schon jetzt ernsthaft bewegen kann und denen man sich aus meiner Sicht nicht grundsätzlich verschließen sollte. Doch eine Frage, die mich momentan beschäftigt ist, wie man zukünftig mehr Substanz und Vertrauen auf die große Web-Bühne bringen kann.

PS: Wenn wir schon mal bei vielen Zahlen waren, die nicht so ganz zusammen passen, dann noch was:
Berechne wieviel deine Daten im Internet wert sind: Financial Times-Rechner.

Quellen
  1. Vgl. Keen, Andrew: »Das digitale Debakel: Warum das Internet gescheitert ist – und wie wir es retten können«, München 2015, S. 20.
  2. Vgl. Bernau, Patrick: »19 Milliarden sind gar nicht so viel«, Stand: 20.2.2014, URL: http://www.faz.net/aktuell/wirtschaft/netzwirtschaft/der-facebook-boersengang/whatsapp-uebernahme-19-milliarden-sind-gar-nicht-so-viel-12811384.html, abgerufen am 6.11.2015.
  3. Vgl. Unternehmensvorstellung Daimler AG, URL: http://www.daimler.com/unternehmen, abgerufen am 6.11.2015.
  4. Vgl. Fehling, Jonas: »Diese 35 Firmen kontrollieren die Welt«, Stand: 18.6.2014, URL: http://www.focus.de/finanzen/news/das-netzwerk-der-macht-diese-konzernen-kontrollieren-die-welt_id_3929949.html, abgerufen am 6.11.2015.
  5. Keen, Andrew: »Das digitale Debakel: Warum das Internet gescheitert ist – und wie wir es retten können«, München 2015, S.76.

Das Doku-Game »Fort McMoney« von David Dufrense

Wissensvermittlung als Erlebnis verpackt

»Fort McMoney« ist ein interaktives Doku-Game von David Dufrense, bei dem jeder Spieler mitbestimmen kann, wie es in Fort McMurray (Kanada) weitergeht. Die Ölindustrie ist dort riesig und die Spieler entscheiden über das Schicksal der Stadt. Man kann in Interviews und Gespräche der Einheimischen eintauchen und beispielsweise an Abstimmungen teilnehmen. Am besten man probiert es selbst unter http://fortmcmoney.com » aus.

Dieses Projekt habe ich für meine Recherchearbeit ausgewählt, da ich eine Kombination aus Dokumentation und Spiel für eine gute und spannende Lösung für interaktive Erzählungen halte. Durch Interaktion können zum einen die Geschehnisse beeinflusst werden, zum anderen der Verlauf des »Films« selbst. Dieses »Teil einer Geschichte werden« finde ich im Bezug auf meine Master-Arbeit sehr interessant, da die Verschmelzung von Film und Spiel sicher weiter zunehmen wird. Auch das realitätsnahe Thema gefällt mir gut. Des Weiteren finde ich diese Art der Wissensvermittlung, die nun – wenn auch nicht immer in Kombination mit einem Spiel – häufiger als interaktive Erzählung stattfindet, sehr passend. Zwar bedeutet eine Arbeit in dieser Form einen immensen inhaltlichen Aufwand, doch spricht bei gut gelungenen Projekten das Ergebnis (und das Erlebnis) für sich. Die generelle Frage wird weiter bleiben, welche neuen Formate nach solch‘ anfänglichen Hybridformen entstehen können.

Folge 1 »Boomtown« des Doku-Spiels Fort McMoney<sup>I</sup>
Folge 1 »Boomtown« des Doku-Spiels Fort McMoneyI
Übersicht möglicher Missionen, Umfragen und anderer interaktiver Elemente
Übersicht möglicher Missionen, Umfragen und anderer interaktiver ElementeII
Abbildungen
  1. Eigener Screenshot; Dufrense, David: »Fort McMoney«, URL: http://fortmcmoney.com/de/#/fortmcmoney, Kanada 2013, abgerufen am 17.12.2014.
  2. Ebd.

Dragan Espenschied & Olia Lialina: »Once Upon«

In ihrem Projekt »Once Upon« bauen Olia Lialina und Dragan Espenschied vier verschiedene soziale Netzwerke so nach, wie sie 1997 hätten sein können. Dabei wird nur die Technologie genutzt, die tatsächlich möglich war.

Mit »Once Upon« versetzen Olia Lialina und Dragan Espenschied 2011 die drei sozialen Netzwerke Facebook, Google+ und YouTube zurück ins Jahr 1997. 2012 kommt Pinterest als viertes Netzwerk hinzu. Alle Netzwerke sind nach den Möglichkeiten im Jahr 1997 aufgebaut und funktionieren tatsächlich. So sind beispielsweise die Google-Kreise keine Kreise, sondern eine Anordnung eckiger Tabellen-Elemente und auf Grund technischer Begrenzung kann man bei Facebook nur 16 Freunde haben.1

Wie Olia Lialina in dem auf Vimeo zu sehenden Vortrag (Zum Vortrag ») bei der »Unlike Us Amsterdam #2« selbst erzählt, war 1997 ein bedeutendes Jahr in der Geschichte des Webs und ausschlaggebend für die Wahl des Jahres. Die dot.com-Manie bricht aus und läutet – technologisch und gesellschaftlich – den Beginn der Zukunft ein. Es herrscht die Euphorie, dass nun etwas Großes los geht oder dass nun z. B. jeder reich werden kann. Mit dem Netscape Communicator kommt ein Browser auf den Markt, der erste Applikationen erlaubt, wenn auch noch auf einem niedrigen Level. Dinge wie z. B. Real-Time-Kommunikation liegen zwar noch in der Zukunft, aber erste Erfahrungen kommen auch in dieser Zeit zu Stande. Deshalb verändert sich das Jahr der Netzwerke nie – es bleibt immer das Jahr 1997.2

Die Plattformen

Facebook

An dieser Stelle möchte ich primär auf die Netzwerke selbst eingehen. Hintergründe und Vorüberlegungen sind im Vimeo-Beitrag zu sehen.
In Facebook ist man grundsätzlich als Gast unter dem Namen Jennyxxxxx (xxxxx = eine sich ändernde Zahl) unterwegs. Der Bildschirm ist in drei Bereiche aufgeteilt: Am oberen Bildschirmrand ist die für Facebook typische blaue Leiste zu sehen. Außerdem sieht man zum einen den Bereich des eigenen Ichs Jenny, sowie einen durch Frames aufgeteilten Bereich, der 16 Freunde beinhaltet. Im eigenen Bereich ist links eine Spiralbindung zu sehen, grafisch ist diese Darstellung von »echten Gegenständen im Internet« nicht untypisch für die »90er« (, die laut Olia Lialina viel zu oft pauschal als die »90er« beschrieben werden, obwohl das Jahrzehnt viel detaillierter zu betrachten ist). Der Bereich der Freunde ist durch die Grafik einer Ziegelsteinmauer hinterlegt – die Facebook-Wall, die im Grunde eher dem News-Feed gleichzusetzen ist. In Bezug auf die Facebook-Begrifflichkeiten wäre der Wall-Hintergrund oder im deutschen ein Pinnwand-Hintergrund an Stelle des »Spiralbindung-Buchs« denkbar. Seit der Umbenennung zur Chronik ist es aber so sicher passender. 
Man kann selbst etwas im Netzwerk posten (»Submit« anstelle von »Post«) oder – wie typisch für Formulare – die »Clear«-Funktion nutzen. Man kann Beiträge seiner Freunde sehen und für sie voten –  unterstützt von einer anschließenden Feuerwerk-Animation. Die Profilbilder bestehen aus einer schönen Mischung charmanter 90er-Animationen, Cliparts oder z. B. Fotos. 

Google+

Dieselbe Mischung an Fotos sieht man auch in seinem Google+-Profil. Dort hat man im Header-Bereich, wo auch das Logo, die Suche, sowie der Hinweis, dass man als Jennyxxxxx eingeloggt ist, eine Auswahl zwischen »Users«, »Messages« und »YourProfil«. Folgend kommt ein Bereich der vorhandenen User, inklusive Dropdown-Auswahl, um selektierte User einem Kreis hinzuzufügen. Am unteren Bildschirmrand sieht man den Bereich der Kreise, die aus technischen Gründen eher einem »quadratischen Kreis« entsprechen. 16 Quadrate stellen den Kreis dar, in dem schon die ersten User zu sehen sind, in der Mitte davon sieht man die Art des Kreises, z. B. »colleagues«. Außerdem kann man natürlich noch einen neuen Kreis erstellen. 

YouTube

Die Video-Plattform YouTube ist vertikal in drei Bereiche eingeteilt, von denen die zwei äußerem Frames mit einem roten Vorhang hinterlegt sind. Durch die »Frames-Rahmen« kann man so den Vorhang auf- und zu ziehen. Der mittlere Bereich ist horizontal in drei Bereiche eingeteilt. Der oberste Bereich enthält wieder das Logo, die Suchfunktion, sowie den Namen des eingeloggten Users. Im mittleren Bereich ist das Video selbst zu sehen sowie der Titel, Benutzername und das Datum. Im letzten Bereich ist eine Auswahl an verschiedenen Video-Containern, Codecs und Bandbreiten möglich. Das ist auch darauf bezogen, dass damals eine Unmenge verschiedener Formate vorhanden war. Zwar gibt es noch heute verschiedene Formate und Codecs, jedoch haben sich wenige Standards für die Darstellung im Web durchgesetzt. Noch immer wird aber nicht jedes Format in jedem Browser dargestellt und verschiedene Versionen werden benötigt. Man kann übrigens einen FTP-Zugang beantragen, um tatsächlich Videos hochzuladen!

Pinterest

Als Nachzügler kam Pinterest als viertes Netzwerk hinzu. Pinterest ist vertikal in zwei Hauptbereiche aufgeteilt. Im linken Bereich befindet sich das Logo, der Hinweis als welcher Nutzer man online ist, ein Design- und Pin-Button, sowie eine Auswahl an Kategorien und Nutzer. Im rechten Bereich findet man nach einem Willkommenstext, sowie der Aufforderung sich einen Account anzulegen, die Bilder aller Nutzer. Die Bilder sind untereinander dargestellt, da die typische masonry-Pinterest-Darstellung erst später möglich war. Über den »Design«-Button kann man einen persönlichen Hintergrund aus einer Auswahl von Tapeten wählen. Mit dem »Pin«-Button tatsächlich Bilder pinnen, einen dazugehörigen Rahmen auswählen, sowie das Ganze im nächsten Schritt in die richtige Kategorie einordnen.

Besonders spannend finde ich bei diesem Projekt zum einen die Liebe zum Detail bei der Frage, was damals alles möglich war. Zum anderen die amüsanten Zusätze, die sich in den Grundfunktionen zwar aus meiner Sicht etwas zum Original unterscheiden, sich aber sinngemäß perfekt eingliedern: YouTube besitzt beispielsweise einen auf Frames basierten roten Vorhang und Pinterest beinhaltet die Funktion, dass eine Auswahl verschiedener »Tapeten« vorhanden ist, um sie als persönlichen Hintergrund einzustellen. Hier wird aus meiner Sicht – unwissend, ob überinterpretiert – ein hervorragender Bezug dazu hergestellt, wie die Medienwelt für die Gesellschaft funktioniert hat. So war das soziale Erlebnis »Filme schauen« noch eher eine Sache, die im Kino stattfand. »Bilder schauen« war ein Teil des heimischen Wohnzimmers. Zwar war das Hochladen von Fotografien grundsätzlich schon möglich und wurde teilweise schon betrieben, aber es gab nicht im Ansatz die Verbreitung von heute. Fotos konnten nicht einfach via Facebook hochgeladen werden und selbst das Verschicken über das Handy via MMS war erstmals im November 2002 möglich.3 Auch die Zustimmung in Form eines »Like« gab es nicht. Daher finde ich es großartig, dass selbst dieser Button im Facebook 1997 zum »Vote«-Button umgedacht wurde – unterstützt von der anschließenden Feuerwerk-Animation.
Olia Lialina weist in ihrem Vortrag darauf hin, dass selbst die Servergeschwindigkeit auf 8 kB gedrosselt wurde, um die Nutzererfahrung zu verbessern. Auch das sehe ich als einen genialen Einfall, der grundsätzlich natürlich naheliegend ist. Heutzutage können wir uns nicht einmal mehr im Ansatz vorstellen, wie langsam das Internet damals war, nachdem man sich mühevoll unter lauter Kulisse eingewählt hat. Insgesamt halte ich es für ein großartiges Konzept, die Netzwerke bzw. generell die Möglichkeiten unserer Zeit »zurückzudenken«. 

Quellen
  1. Vgl. Vortrag vom 9.3.2012 von Olia Lialina auf Vimeo, network cultures: »Imaginary Origins of Social Networks«, im Rahmen der »Unlike Us Amsterdam #2«, URL: https://vimeo.com/38840992, abgerufen am 17.10.2015.
  2. Vgl. Ebd.
  3. Vgl. Mielke, Bernd: »MMS in Deutschland«, URL: http://www.dafu.de/mms/mms-d.html, abgerufen am 18.10.2015.
Abbildungen
  1. Titelbild: Eigener Screenshot; Lialina, Olia; Espenschied, Dragan: »Once Upon«, URL: http://www.1x-upon.com/, abgerufen am: 13.10.2015.

One Terabyte of Kilobyte Age

Ein Archiv alter geocities-Seiten aus der Zeit, in der das World Wide Web noch fast nichts für uns war. Außer eine Spielwiese, auf der man sich unbedacht austoben konnte.

Mit »One Terabyte of Kilobyte Age« zeigen die Künstler Olia Lialina und Dragan Espenschied eine Sammlung von Geocities-Websiten, die sie kurz vor der Schließung des Dienstes heruntergeladen haben. Geocities bot damals kostenlosen Webspace an. Ein »geocities« im Domain-Namen war immer der direkte Hinweis, dass die Seite dort gehostet wird. Das Archiv zeigt das unendliche Bling-Bling der 90er, in denen man noch halbwegs unbeholfen mit dem WWW hantierte und als Privatperson wohl erst recht ganz nach dem Motto »Alles ins Web, was geht« gehandelt hat. Ich war damals auch froh, irgendwann mit der – eigentlich einfachen – Logik von Frames klarzukommen und meine erste Seite bei geocities online stellen zu können.

Man sieht in »One Terabyte of Kilobyte Age« die ersten Gehversuche einer Generation, die durch das WWW einer riesigen Verwandlung unterzogen wird. Mit unbeholfener Naivität werden gewissermaßen Kunstwerke geschaffen, die nie künstlerisch sein sollten und es wohl auch nie sein wollten. Sie zeigen den ersten Umgang mit einer neuen Technologie, die ersten Versuche Webseiten zu erstellen und im Gegensatz zu heute waren sie wohl nie ehrlicher.
Erst in der Sammlung kommt das Wahre zum Vorschein, das Abbild einer Gesellschaft, die noch ohne Angst und Kritik an dieses neue Medium herantritt, spielt und ausprobiert.

Abbildungen
  1. Titelbild: Eigener Screenshot; Lialina, Olia; Espenschied, Dragan: »One Terabyte of Kilobyte Age«, URL: http://restoration.geocities.institute/Athens/2652/, abgerufen am: 13.10.2015.

Olia Lialinas »My boyfriend came back from the war!«

»My boyfriend came back from the war!« von der Netzkünstlerin Olia Lialina gilt als Klassiker in der Netzkunst. Was macht das Projekt aus und welche Ansätze können in ihrer Erzählweise für aktuelle Erzählungen hilfreich sein?

»My boyfriend came back from the war!« ist ein Internetprojekt der Netzkünstlerin Olia Lialina, das 2016 bereits 20 Jahre alt wird. Die interaktive Hypertext-Erzählung besteht aus einem Gespräch zwischen einem Paar dessen Gesprächsfragmente Klick für Klick »aufgedeckt« werden und deren Beziehung gleichzeitig Stück für Stück zerbröckelt.
Die Fragmente können dabei visuell keinem der beiden konkret zugeordnet werden. Begleitet wird die Textebene von schwarz-weißen gifs, die dem Rezipienten als Anhaltspunkt dienen. So bringt beispielsweise eine Abfolge von Uhren mit verschiedenen Uhrzeiten eine zeitliche Ebene in die Narration.

Nach einem schwarzen Einstiegs-Bildschirm mit dem weißen Satz »My bofriend came back from the war. After dinner they left us alone.«, gelangt man auf eine Seite, die zwei Bilder zeigt: Ein sitzendes, voneinander abgewandtes Paar, sowie ein Fenster. Über Hyperlinks innerhalb der Texte und Bilder taucht man tiefer in die Geschichte ein, die verschiedene emotionale Ebenen durchläuft, so z. B.: »CAN anybody kill you?«, »I keep your photo here«, »you don’t trust me, I see« oder »FORGIVE ME«. Jeder Klick auf einen Hyperlink zerteilt den Bildschirm in immer kleinere Frames. Frames wurden vorwiegend in den 90er-Jahren für die Unterteilung einzelner Bereiche im Browser verwendet. Ist der Erzählstrang innerhalb eines Frames vorbei, ist keine Teilung mehr möglich. Übrig bleiben – neben den zwei Einstiegsbildern – schwarze Frames, die den gesamten Browser in einzelne Bruchstücke aufteilen. Eine schwarze, zerbröckelte Leere, die auf einen bestehenden Konflikt ohne weitere Lösung hinweist. 

Das Projekt wird an verschiedenen Stellen im Web inhaltlich genauer betrachtet. Ich möchte mich im Weiteren auf die für meine Arbeit relevanten Essenzen konzentrieren. Die Art der Erzählung kann als web fiction kategorisiert werden, wird aber häufig auch als »netfilm«1 bezeichnet. In einem Artists Statement beschreibt Olia Lialina, dass Filme im Internet eher als Information (Biografien, Stills, …), maximal als .avi existieren. Dabei sei Hypertext der beste Weg, Geschichten zu erzählen, vor allem da das Web – durch die Frames – dem Film näher ist als das Video.2

Diese Art ihrer Erzählung finde ich besonders spannend, da sie zum einen verschiedene Eigenschaften besitzt, die auch für heutige Erzählungen von Bedeutung sind. So z. B. non-lineare Erzählstrukturen und allem voran die Interaktivität mit dem Rezipienten. Zum anderen, weil Olia Lialina das Web nicht nur als abbildendes Medium nutzt, sondern mit ihm selbst sowie mit der dafür charakteristischen Technologie arbeitet. Das Medium nicht nur als charakterloses Trägermaterial, sondern seine technischen Vor- und (manchmal charmanten) Nachteile zu nutzen, ist aus meinem Empfinden auch für aktuelle Erzählweisen essentiell und übertragbar.

In einem Interview mit Tilmann Baumgärtel, beschreibt Olia Lialina ihre Bestrebung danach wie man »Film und filmisches Denken im Netz anders darstellen kann«3 und eine – ähnlich wie im Experimentalfilm – neue Sprache zu finden. Des Weiteren habe sie verstanden, dass das Projekt »von der Interaktion im Internet handelt: daß man miteinander kommuniziert, ohne sich zu sehen und ohne zu wissen, wer da spricht. Und daß sowieso niemand antwortet«4.
Zwar geht es der Netzkünstlerin nicht um die Technologie an sich, sondern um Liebe und Einsamkeit.5 Dennoch ist der Aspekt der Interaktion im Internet besonders spannend für mich. Auch wenn im Internet zwischenzeitlich Menschen antworten können oder auch wenn oft nur suggeriert wird, dass jemand direkt antwortet, gibt es bestimmte Eigenheiten des Mediums, die man sich bewusst zu Nutze machen kann. Mit ihnen experimentieren, sie erforschen kann. Vor allem aber zeigt, das »Verständnis« dafür, dass es sich um ein Web-Projekt mit Interaktion handelt, wie wichtig die Stellung der Rezipienten ist. Eine gewisse Interaktion zwischen Medium und Rezipient findet zwar nicht nur im Internet statt, dennoch ist diese Interaktion oder Reaktion für ein Projekt dieser Art bedeutend. Zum einen können natürlich verschiedene Werke auf Menschen unterschiedlich wirken und dadurch gewissermaßen auf einer Bedeutungsebene interpretiert und verändert werden. Zum anderen stellt sich gerade in interaktiven Projekten besonders die Frage nach möglichen – eventuell ungeplanten – Handlungen des Rezipienten. Wie reagiert er tatsächlich? Wie interagiert er? Welche Mechanismen sind wichtig, um eine Interaktion hervorzurufen? Die Frageliste wäre endlos.

Abschließend bleibt zu sagen, dass »My boyfriend came back from the war!« aus meiner Sicht absolut berechtigt ein Klassiker der Netzkunst ist. In Olia Lialinas Arbeiten finde ich generell die häufige Bezugnahme auf die aktuelle (Netz-)Kultur sehr interessant. Daher möchte ich in einem kommenden Schritt weitere Projekte von ihr mit einbeziehen sowie zusätzliche Recherchen zu früheren und aktuellen Erzählweisen anstellen.

Quellen
  1. Lialina, Olia: »Artists Statement«, URL: http://www.heise.de/tp/magazin/nk/3040/1.html, abgerufen am 10.10.2015.
  2. Vgl. Ebd.
  3. Baumgärtel, Tilmann: »Auf russisch habe ich solche Gefühle nicht – Interview mit Olia Lialina«, Stand: 25.11.1997 ,URL: http://www.heise.de/tp/artikel/6/6146/1.html, abgerufen am 10.10.2015.
  4. Ebd.
  5. Vgl. Ebd.

Der digitale Wahn – Zwischen Medienkompetenz und Chaoskopf

Die technologische Entwicklung schreitet schneller voran als die anthropologische. Während aus meiner Sicht sicher ist, dass wir die Technologie nicht mehr einholen werden, stellt sich die Frage danach, welche Kompetenzen wir erlernen müssen, um mit dieser Entwicklung angemessen umgehen zu können.

»Der digitale Wahn«, herausgegeben von Bernhard E. Bürdek, versammelt eine Reihe von Essays verschiedener Autoren zu Themen im Bereich »Digitalisierung der Welt«.

Bürdek selbst beschreibt in seinem Essay »Der digitale Wahn«, dass die »anthropologische und technologische Entwicklung«1 nicht gleich schnell verläuft. Während die technologische Entwicklung rast, bleibt der Mensch auf der Strecke und dadurch entsteht laut ihm die »Problematik des ›Nicht-Verstehens‹ oder des nicht damit Umgehen können.«2

Obwohl die Sammlung bereits 2001 herausgegeben wurde, klingt die Problematik im Jahr 2015 noch immer sehr aktuell für mich und unter Umständen hat sie sich durch die ungleiche Entwicklung sogar zugespitzt. Die technologischen Entwicklungen werden immer unüberschaubarer und neben einer endlosen Masse, scheint auch die Komplexität der Entwicklungen für den Einzelnen nicht mehr greifbar zu sein.

Hans-Dieter Übler zitiert in seinem Essay »Learning by Surfing? – Digitale Lernmythen und Wissensillusionen« einen ZEIT-Artikel3, in dem es folglich heißt, dass die Schlüsselqualifikation der Zukunft Medienkompetenz sei.4
Auch wenn Medienkompetenz nicht gleichbedeutend mit einem allumfassenden Überblick ist, stellt sich mir hier die Frage, was Medienkompetenz heutzutage konkret bedeuten kann und ob eine »vollständige« Medienkompetenz für den Einzelnen überhaupt noch erreichbar ist.

Werden wir die Technologie wieder einholen oder zumindest den Umgang mit ihr erlernen?

Quellen
  1. Bürdek, Bernhard E.: »Der digitale Wahn« in: Bürdek, Bernhard E. (Hg.), »Der digitale Wahn«, Frankfurt am Main 2001, S. 207.
  2. Ebd.
  3. Vgl. Rüttgers, Jürgen: »›Eine Ära geht zu Ende. Das muß auch die Schule lernen und lehren.‹ Lernen in der Medienwelt – die Position von Bundesbildungsminister«, Stand: 19.9.1997, URL: http://www.zeit.de/1997/39/contra.txt.19970919.xml, abgerufen am 6.10.2015.
  4. Vgl. Übler, Hans-Dieter: »Learning by Surfing? – Digitale Lernmythen und Wissensillusionen« in: Bürdek, Bernhard E. (Hg.), »Der digitale Wahn«, Frankfurt am Main 2001, S. 147.

Der unvollkommene Kreis

Transparente Politik, transparente Entscheidungen, transparente Unternehmen. Pam! Transparente Menschen, transparente Daten, … Was will man denn jetzt eigentlich?

Wenn ich an Transparenz denke, haften oft negative Assoziationen an diesem Wort. Ich denke an meine Privatsphäre, an meine Daten. Daran wie ich durchleuchtet werde, gläsern bin und kaum einen Schritt mehr unternehmen kann, ohne dass es irgendwo registriert wird. Andererseits ist es ein alter Schuh, dass der gleichzeitige Voyeurismus unheimlich attraktiv zu sein scheint. Facebook, WhatsApp und wie sie denn alle heißen, geben mir das perfekte Werkzeug an die Hand, um zu beobachten, was die Anderen machen, erleben und fühlen. Transparenz im kleinen Stil – in einer Welt, in der ohnehin die meisten behaupten, dass sie nichts zu verbergen hätten. Ist das so?

Im dystopischen Roman »Der Circle« von Dave Eggers nimmt Transparenz eine ganz andere Dimension an. Die vollständige Transparenz mittels Minikamera um den Hals soll vor Korruption in der Politik schützen und aus dem Menschen den perfekten – naja sagen wir zumindest einen guten – Menschen machen. Denn wer tut schon Böses, wenn er sich nicht sicher ist, unbeobachtet zu sein?1 Während in Circle eine fiktionale Zukunft beschrieben wird (, die gar nicht so fiktional klingt), setzt Julian Assange mit der Plattform WikiLeaks schon jetzt auf Transparenz und Aufklärung. Mit möglicher Folge, dass die Politik sich nicht mehr in Sicherheit der Geheimhaltung wiegen kann und zu anderem Handeln gezwungen ist.2

Rosige Aussichten! Politik ohne Korruption und ein Haufen guter Menschen, der nur noch absolut Gutes tut! Aber wie sind die Aussichten denn, wenn kleine Gruppierungen ganze Staaten unter Druck setzen und die Weltpolitik beeinflussen können?
Wie sind sie, wenn durch vollständige Transparenz das Leben einzelner in Gefahr gebracht wird, weil Namen unzensiert veröffentlicht werden? Wenn jedes Geheimnis dieser Welt verloren geht?

Und die für mich wichtigsten Fragen:
Was geht uns verloren, wenn wir nichts mehr verbergen könnten?
Würden wir wirklich noch frei nach unserem Willen handeln?

Quellen
  1. Vgl. Eggers, Dave: »Der Circle«, Köln 2014, 6. Auflage.
  2. Vgl. Rosenbach, Marcel; Stark, Holger: »Staatsfeind WikiLeaks – Wie eine Gruppe von Netzaktivisten die mächtigsten Nationen der Welt herausfordert«, Hamburg 2011.