Dynamische Anpassung des Designs auf Basis von Daten

Um mir über das Ziel meiner Master-Arbeit klar zu werden, habe ich mich im letzten Schritt noch einmal von den bisherigen Überlegungen frei gemacht. Zum einen habe ich meine bisherigen Ansätze und Themen während der kompletten Recherche-Zeit Revue passieren lassen. Zum anderen kategorisierte ich die Themen systematisch, welche mir gleichermaßen als gesellschaftlich relevant als auch für mich persönlich wichtig erschienen. Dadurch konnte ich sowohl Inhalte ausschließen, als auch neu verknüpfen.

Um mir über das Ziel meiner Master-Arbeit klar zu werden, habe ich mich im letzten Schritt noch einmal von den bisherigen Überlegungen frei gemacht. Zum einen habe ich meine bisherigen Ansätze und Themen während der kompletten Recherche-Zeit Revue passieren lassen. Zum anderen kategorisierte ich die Themen systematisch, welche mir gleichermaßen als gesellschaftlich relevant als auch für mich persönlich wichtig erschienen. Dadurch konnte ich sowohl Inhalte ausschließen, als auch neu verknüpfen. Abschließend hat mir das bei der Themenfindung massiv geholfen.

Zu meinem finalen Master-Thema führen dabei verschiedene Überlegungen und Erkenntnisse, welche ich innerhalb meines Researches erhielt und nun kategorisiert, verknüpft und mit weiteren Gedanken ergänzt habe. Zum besseren Verständnis möchte ich an dieser Stelle einen kurzen Überblick geben, den detaillierten Verlauf werde ich jedoch in meiner Master-Thesis skizzieren.

Wichtiger Ausgangspunkt ist die Tatsache, dass wir in unserer westlichen Gesellschaft von Informationen abhängig sind. Das World Wide Web – als leicht zugänglicher Teil des Internets und als universeller Informationsraum – hilft uns massiv dabei, Informationen, Daten und menschliches Wissen zu sammeln, zu indexieren und miteinander zu verknüpfen. Immer feinere Algorithmen des maschinellen Lernens helfen uns dabei, innerhalb von Daten Zusammenhänge und Muster zu erkennen.
Die Zugänglichkeit des Informationsraums ist dabei mindestens gleichermaßen essenziell; der Zugriff findet üblicherweise über eine grafische Benutzeroberfläche innerhalb des Browsers statt. Meine bisherige Recherche sowie mein erster Ansatz, nämlich die Untersuchung dieser Oberflächen und deren visuelle Evolution unter Berücksichtigung kultureller und technologischer Aspekte, liefern mir dabei entscheidende Erkenntnisse, welche mich nun unterstützen. Die analytische Auseinandersetzung mit der bisherigen visuellen Evolution, meine theoretische Recherche, sowie das Bewusstsein, dass unsere Denkweise dynamischer wird und sich unsere Interfaces verändern, geben mir weitere Impulse.

Tim Berners-Lee beschreibt das »World Wide Web als Ort, wo Mensch und Maschine in einer idealen, kraftvollen Mischung koexistieren können.«I Nichtsdestotrotz steht letztendlich der Mensch im Mittelpunkt. Daher sollte es grundsätzlich immer um das Ziel gehen, Systeme und Methoden so zu verbessern, dass ein tatsächlicher Mehrwert und Fortschritt für uns geschaffen wird. Es geht also um die Frage: Wie können wir Technologie zum Vorteil der Menschheit nutzen?

Die vorangestellten Erkenntnisse, Gedanken und Fragen führen mich zu meinem letztendlichen Master-Thema, mit dem ich das Ziel verfolge, den Zugang zum und den Umgang mit dem World Wide Web auf gestalterischer Ebene mithilfe von maschinellem Lernen weiter zu vereinfachen. Meine These ist, dieses Ziel durch eine dynamische Anpassung des Designs, basierend auf den Daten eines einzelnen Menschen, zu erreichen.

Ich stelle mir darunter eine automatisierte Adaption des Interface Designs vor, welche an bestimmte Bedingungen und Parameter geknüpft ist. Erste und naheliegende Gedanken sind dabei beispielsweise die Veränderungen von Schriftgrößen oder Farbkontrasten bei Beeinträchtigung des Sehvermögens oder das Entfallen bestimmter Schritte innerhalb eines Prozesses, wenn die Daten schon vorhanden sind.

Überlegungen, ob und wie so ein Datenpool technologisch und gesellschaftlich umgesetzt werden kann oder welche ethischen Herausforderungen sich dabei in Bezug auf z. B. Datenschutz und Privatsphäre ergeben, möchte ich dabei nicht im Detail bearbeiten, jedoch theoretisch bedenken. Mein Master-Projekt soll zudem kein flexibles Designsystem in Form eines fertigen Lösungsvorschlags darstellen oder schwerpunktmäßig Themen wie Accessibility oder Usability abdecken.

Vielmehr möchte ich mein Master-Projekt als Experiment ansehen, um gestalterische Ansätze zu finden und Anreize zu geben, dieses Ziel umzusetzen. Ich sehe meine Arbeit dabei als Startpunkt und Ideenpool für weitere Nachforschungen.

Quellen
  1. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 158.

Untersuchung der visuellen Evolution

Am Mittwoch habe ich meinen bisherigen Ansatz im Masterstudio präsentiert. Dabei war zum einen wichtig, worum es im Kern meiner Untersuchung geht, zum anderen welche Aspekte ich dabei berücksichtigen möchte.

Am Mittwoch habe ich meinen bisherigen Ansatz im Masterstudio präsentiert. Dabei war zum einen wichtig, worum es im Kern meiner Untersuchung geht, zum anderen welche Aspekte ich dabei berücksichtigen möchte.

Der Fokus soll, wie schon beschrieben, klar auf der visuellen Untersuchung liegen, jedoch bin ich überzeugt davon, dass man die visuelle Ebene nicht isoliert betrachten kann. Zudem finde ich es spannend und wichtig, welche kulturellen und technologischen Aspekte daran angeknüpft werden können.

Weiter stelle ich mögliche theoretische Inhalte vor, wie die Historie des World Wide Webs, die Auseinandersetzung mit Informationssystemen sowie die Entwicklung grafischer Benutzeroberflächen. Zudem schwebt mir vor, mein Thema medientheoretisch zu untermauern; hier muss ich jedoch überdenken, welche Theoretiker tatsächlich passend für mein Thema sind. Bisher hatte ich an Marshall McLuhan, Vilém Flusser, Byung-Chul Han, Luciano Floridi und Felix Stalder gedacht. An dieser Stelle muss ich die Unterscheidung treffen, wer seine Theorien schon mit der Kenntnis der digitalen Welt geschrieben hat und ob beispielsweise Han, welcher sich im Allgemeinen kulturkritisch äußert, überhaupt relevant ist.
Es könnten weitere Vertreter wie Ada Lovelace, Charles Babbage oder Alan Turing berücksichtigt werden, welche aber aufgrund ihrer Irrelevanz für mein Thema nur am Rande auftauchen können.

Die wichtigste und gleichzeitig offenste Frage ist, welches Ziel ich mit meiner Arbeit verfolge. Hier konnten wir aufgrund der kleinen Runde fast drei Stunden diskutieren und Möglichkeiten abwägen. Auf mögliche Ansätze und weitere Research-Möglichkeiten werde ich im Anschluss meiner Präsentation eingehen.

Die dargestellte Präsentation ist nicht vollständig, da ich zu viel redundante Informationen, wie beispielsweise die Namen der Medientheoretiker, für überflüssig halte.

Präsentation | Kern der Untersuchung

Präsentation | Kulturelle und technische Aspekte

Präsentation | Entwicklung zum eigenen Medium mit eigener Formsprache

Präsentation | Beispielhaft für theoretische Inhalte: Ted Nelson

Präsentation | Beispielhaft für theoretische Inhalte: Vannevar Bush

Präsentation | Beispielhaft für theoretische Inhalte: Doug Engelbart

Präsentation | Grafische Analyse

Präsentation | Grafische Analyse

Präsentation | No-Layout-Ära – Statisch – Fluid

Präsentation | Mögliche Stilrichtungen

Präsentation | Veränderung des Designs

Präsentation | Neue Ansprüche

Präsentation | Auflösung von Interfaces

Grenzen der Evolution

Einen Ansatz, den ich zunächst ausgeschlossen habe, ist die Überlegung, wie grafische Benutzeroberflächen der Zukunft aussehen könnten. Dabei geht es nicht zwingend darum, ein mögliches Interface bis zum Ende zu gestalten. Viel wichtiger ist es, die Ergebnisse meiner visuellen Recherche zu analysieren, beschreiben, hinterfragen und zu verbinden. Auf Basis analysierter Muster, und mit dem Verständnis wie vergangenes und gegenwärtiges funktioniert, können Schlüsse für das Kommende gezogen werden.

Zudem ist wichtig zu wissen, dass eine Evolution nicht unendlich weiter geht, sondern sich als abflachende Kurve oder sogar in Wellen verhält. Das bedeutet, dass sich Entwicklungen nicht nur verlangsamen, sondern sogar umkehren können.

Kulturelle Bedeutung des Interfaces

Auf Grundlage des Status Quo kann nicht nur interessant sein, wie zukünftige Interfaces aussehen, sondern auch wie User Interfaces die Zukunft verändern können. Weiter ist die Perspektive, wie die gesellschaftliche Wirkung von Interfaces ist, interessant. Für diese Impulse, die ich besonders spannend finde, benötige ich aber noch Zeit, um sie weiter reifen zu lassen. Generell scheint es vielversprechend, eine Brücke zu gesellschaftlichen Themen zu schlagen.

Eine wichtige Essenz des Gesprächs ist zudem die, dass sich die visuelle Analyse letztendlich auf ein völlig anderes Thema beziehen könnte. Auf technischer Seite haben wir weitere Punkte verdeutlicht.

Die Erhaltung des menschlichen Körpers

Vannevar Bush und Doug Engelbart zielen mit ihren Visionen und Entwicklungen nicht darauf ab, die Technik selbst zu verbessern. Vielmehr geht es im Kern darum, das menschliche Leben zu verbessern. Diese Feststellung ist insofern aufschlussreich, dass auch heutzutage die unausweichliche Frage im Raum steht, was wir mit der Gestaltung von Interfaces bewirken. Geht es darum, die Technik selbst zu verbessern oder spielt es tatsächlich eine Rolle, welche Erleichterung der Mensch durch das Ergebnis erfährt? In welchen Bereichen benötigt der Mensch zweifelsfrei Unterstützung? Ein Fazit aus dem Gespräch ist, dass es ein Anliegen sein sollte, den menschlichen Körper nicht verkümmern zu lassen, sondern dessen Können zu akzeptieren, miteinzubeziehen und mit technischen Möglichkeiten lediglich zu verbessern.

Weiter ist eine erkennbare Entwicklung, dass sich Mensch und Maschine immer näher kommen und zunehmend verschmelzen. Schnittstellen verschwinden zunehmend und es ist eine generelle Entwicklung zurück zum Körper zu sehen. An dieser Stelle frage ich mich jedoch, wie weit wir gehen wollen. Möchte ich beispielsweise bei meiner täglichen Arbeit wirklich wild gestikulierend vor einem Riesen-Interface stehen, um Inhalte durch die virtuelle Welt zu swipen?

Eine zusätzliche Erkenntnis ist, dass sich Technik dessen Evolution vollstreckt ist, nicht mehr rückgängig machen lässt. Hier ist nur die völlige Verbannung oder die sinnvolle Integration hilfreich. Halbverbannte Technologien, wie beispielsweise die Google Glass, leben sonst in versteckten Grauzonen weiter.

Darstellerische Möglichkeiten

Eine der Ideen, welche ich hatte, konnten weiter ausgeführt werden. Ursprünglich dachte ich an den Bau eines Raums oder Tunnels, in dem die Evolution dargestellt wird. Im Gespräch hatten wir innerhalb der Studenten unter anderem die Idee, dass man eine Zeitreise durchgehen kann. Jeder hat seine eigenen Erfahrungen mit dem Web und durch eine gute Inszenierung könnte sich der Besucher selbst gedanklich zurückerinnern und somit emotional angesprochen werden. Das kann durch die Verwendung von passenden Requisiten und Soundelementen unterstützt werden. In Bezug auf die Soundkomponente, kann man festhalten, dass das Web sowohl auditiv als auch visuell ruhiger und klarer geworden ist. Das beginnt bei der vorhandenen Technologie wie beispielsweise Modems, die sich geräuschvoll einwählen, oder laut kleckernden Tastaturen und zieht sich durch die visuelle Ebene weiter durch. Auch hier ist zu erkennen, dass sich das sehr überladene und blinkende Design in eine minimalistische, geordnete und ruhige Umgebung verwandelt.
Der enzyklopädische Ansatz könnte durch mehrere Handlungssträngen unterstützt werden, welche sich durch die Evolution ziehen und das Storytelling unterstützen.
Wünschenswert, aber sehr schwierig umzusetzen, wäre eine poetische Ebene miteinzubringen. Prof. Dr. Phi. Stefan Asmus spricht auch von einer Metaebene, über die man von oben oder unten auf alles blicken kann. Auch denkbar wäre, dass ich eigene Thesen oder die eigene Sicht einarbeite – das würde meine Arbeit von der rein faktischen Ansicht unterscheiden. Das ist vor allen Dingen deshalb wichtig, da die Arbeit als Designer sehr von Intuition geprägt ist. Im Gespräch fällt der Vergleich mit einem Gitarrenspieler, der sich intuitiv voll und ganz auf die Musik einlässt und möglicherweise nicht wissenschaftlich exakt erklären kann, was nun genau passiert ist.
Die poetische Ebene könnte auch dazu dienen, dass das was kodifiziert gezeigt wird, gleichzeitig das zeigt, was nicht dargestellt wird. Hier verwenden wir die berühmte Eisberg-Metapher, bei der nur die Spitze des Eisbergs sichtbar über dem Wasser liegt.

Die Erweiterung des Menschen

Im weiteren Verlauf sprechen wir über künstliche Intelligenz und wie schon erwähnt über Technologien, die den Menschen unterstützen sollen. Letztendlich geht es immer darum, das Leben des Menschen zu verbessern und die künstliche Intelligenz trägt unterstützend dazu bei. In Kooperation können Probleme gelöst werden und die häufige Darstellung, dass wir mit Chips leben und von KIs getrieben und bedroht werden, ist vorerst weit hergeholt. Ein Kernpunkt ist der, dass Algorithmen im Unterschied zum Menschen nichts Unbekanntes benennen können. Das heißt nicht, dass sie keine Fähigkeit haben selbst zu lernen und sich selbst zu verbessern, jedoch kann etwas, das in keiner Form im System war, nicht selbst erstellt werden. Die Gedanken im Bezug auf künstliche Intelligenzen finde ich auch in Bezug auf Interface Design sehr spannend. Letztendlich geht es immer darum, dem Menschen bestmöglichen Zugang zu einem System zu geben und hier ist die Überlegung spannend, was der Mensch überhaupt braucht, um sinnvoll auf ein System zugreifen kann. Das meine ich sowohl im allgemeinen Bezug auf Interfaces als auch speziell mit Blick auf das Design grafischer Benutzeroberflächen.

Weitere Empfehlungen

Je nachdem in welche Richtung ich mich entscheide, können mir eine weitere theoretische Auseinandersetzung helfen. Dabei geht es zum einen um den Technikbegriff von Heidegger. Zum anderen könnte Bruno Latours Akteur-Netzwerk-Theorie interessant sein, falls ich mich tiefer mit der Koexistenz von Mensch und Maschine beschäftigen möchte. Barads buch über den agentiellen Realismus, Dirk Bäckers Text über Designvertrauen sowie Luhmanns Theorien über Weltkunst könnten weitere Quellen sein.

Momentan bin ich mir unschlüssig, welche Richtung ich einschlagen möchte. Die theoretischen Hintergründe, welche wir im Studio diskutiert haben, habe ich prinzipiell verstanden. Letztendlich fällt es mir aber schwer so schnell eine Verknüpfung zu meinem Thema zu finden. Hier möchte ich mir noch einige Tage Zeit geben und in den nächsten Tagen intensiv über mein Abschlussprojekt nachdenken. Dabei kommen Pro-Contra-Listen zum Einsatz und die wichtige Frage, die ich mir selbst beantworten muss, ist was ich selbst möchte. Was möchte ich mit meinem Abschlussprojekt später machen und welches Thema holt mich so leidenschaftlich ab, dass ich darin nicht nur wochenlang eintauchen möchte, sondern bestenfalls einen Forschungsschwerpunkt oder Interesse für danach finde.

Räumliche Bedienumgebungen

John Underkoffler, welcher unter anderem ein Interface für den Minority Report entwickelt hat, hält einen TED-Talk über die Zukunft der Interfaces.

John Underkoffler, welcher unter anderem ein Interface für den Minority Report entwickelt hat, hält einen TED-Talk über die Zukunft der Interfaces.

Ein wichtiger Standpunkt, den er vertritt, ist der, dass wir uns grundlegende Gedanken über neue Benutzeroberflächen machen müssen.1 Seit der Entwicklung des Macintoshs und dessen Benutzeroberfläche Anfang der 80er Jahre, hat sich auf technologischer Ebene unglaublich viel verändert. Nichtsdestotrotz arbeiten wir nach wie vor mit ähnlichen Systemen.2

Er führt den Raum als wichtige Komponente an, der Computer und deren Programmiersprachen verstehen die Geometrie der realen Welt jedoch nicht.3 In einem ersten Beispiel zeigt er, wie projizierte Objekte in realen Objekten verschwinden können.4 Er zeigt damit, wie virtuelle und nicht-virtuellen verschmelzen und erklärt, dass Eingabe und Ausgabe im selben Raum stattfinden. Er führt ein weiteres Beispiel an, welches ich besonders beeindruckend finde. Das System Urp für »urban planners« ist ein Werkzeug für Architekten, welche nun mit ihren eigenen Händen im realen Raum mit digitaler Unterstützung arbeiten können. Underkoffler spricht davon, dass den Architekten und Stadtplanern damit Modelle zurückgegeben werden, welche einst durch CAD-Systeme konfisziert wurden. Auf einer projizierten Oberfläche können beispielsweise Häusermodelle verschoben werden, welche Schatten werfen. Die Tageszeit wird dabei auf einer Uhr dargestellt, welche auch als reales Modell vorhanden ist, und die manuelle Veränderung der Zeit verändert gleichermaßen den Schattenwurf. Informationen, ob es beispielsweise Probleme mit der Baubehörde geben könnte, werden umgehend mit einbezogen.5
Diesen Anwendungsfall halte ich für ein gelungenes Beispiel, wie die Verbindung zwischen virtueller und nicht-virtueller Welt sinnvoll eingesetzt werden kann. Erstaunlich ist, dass diese »räumlichen Bedienumgebungen« bereits vor 15 Jahren im MIT und Media Lab entstanden sind.6

Räumliche Bedienumgebung Urp
Urp – Urban plannersI

Ein weiteres Beispiel von Underkoffler halte ich dagegen für nicht allzu anwendbar. Ihm werden auf der Leinwand (in der realen Arbeitsumgebung vermutlich kleiner) Bilder angezeigt, welche er mithilfe eines Bedienhandschuhs frei anordnen kann. Er navigiert durch die Galerie, zoomt rein und raus und zeigt Beispiele, wie die Bilder auf verschiedene Arten, z.B. nach Farbe, sortiert werden können.7 Er zeigt, wie Bilder einfach per Handbewegung auf andere Bildschirme geschoben werden können, was vor allem bei der Kollaboration verschiedener Teammitglieder spannend ist.8

Das System an sich halte ich grundsätzlich zwar nicht für schlecht, bei der Bedienung frage ich mich jedoch, ob sie alltagstauglich ist. Mit Blick auf die Zukunft und möglicher Interfaces, sehe ich mich nicht den ganzen Tag wild gestikulierend vor einer projizierten Fläche. Ich bin überzeugt davon, dass Interfaces zunehmend den Körper mit einbinden und halte die direkte Arbeit mit Händen auch grundsätzlich für sinnvoll. Aber diese Art von Bedienung sehe ich eher in zeitlich begrenzenden Umgebungen, wie beispielsweise innerhalb einer Präsentation.

Quellen
  1. Vgl. Underkoffler, John: »Pointing to the future of UI«, URL: https://www.ted.com/talks/john_underkoffler_drive_3d_data_with_a_gesture, TC: 00:01:07–00:02:03, abgerufen am 26.2.2017.
  2. Vgl. Ebd., TC: 00:00:12–00:01:07.
  3. Vgl. Ebd., TC: 00:01:07–00:02:03.
  4. Vgl. Ebd., TC: 00:02:03–00:02:26.
  5. Vgl. Ebd., TC: 00:04:15–00:05:20.
  6. Vgl. Ebd., TC: 00:05:20–00:06:29.
  7. Vgl. Ebd., TC: 00:07:18–00:08:31.
  8. Vgl. Ebd., TC: 00:09:50–00:10:56.
Abbildungen
  1. Eigener Screenshot; Underkoffler, John: »Pointing to the future of UI«, URL: https://www.ted.com/talks/john_underkoffler_drive_3d_data_with_a_gesture, TC: 00:10:22, abgerufen am 26.2.2017.

Kein Vergleich grafischer Benutzerobflächen

Ursprünglich wollte ich die grafischen Benutzeroberflächen anfänglicher Systeme gegenüberstellen. So z.B. die Interfaces des Xerox Alto, Xerox Star, Apple Lisa oder Macintosh. Aus jetziger Sicht sehe ich jedoch leider keinen großen Mehrwert für meine Arbeit.

Ursprünglich wollte ich die grafischen Benutzeroberflächen anfänglicher Systeme gegenüberstellen. So z. B. die Interfaces des Xerox Alto, Xerox Star, Apple Lisa oder Macintosh. Aus jetziger Sicht sehe ich jedoch leider keinen großen Mehrwert für meine Arbeit. Ich finde die Entwicklung nach wie vor spannend und wichtig. Zudem kann ich mir vorstellen, dass ich die ein oder andere Erkenntnis daraus ziehen hätte können. Nichtsdestotrotz erhoffe ich mir mehr Erkenntnisse durch die spezielle Auseinandersetzung mit der Gestaltung im Web. Ab jetzt möchte ich mich daher verstärkt dem grafischen Research für mein praktisches Projekt widmen sowie weitere theoretische Grundlagen, speziell für diesen Bereich, schaffen.

Der schmale Grad zwischen Nutzerfreundlichkeit und Funktionalität

Die erste graphische Benutzeroberfläche für Personal Computer bzw. Workstations wird dem Xerox Alto zugeschrieben. Welches Unternehmen nun den allerersten kommerziellen Computer mit GUI entwickelte und vertrieb, ist für mich dagegen etwas unklar.

Die erste grafische Benutzeroberfläche für Personal Computer bzw. Workstations wird dem Xerox Alto zugeschrieben. Welches Unternehmen nun den allerersten kommerziellen Computer mit GUI entwickelte und vertrieb, ist für mich dagegen etwas unklar. Zum einen wird hier der PERQ genannt, welcher 1979 von dem Unternehmen Three Rivera Computer Corporation veröffentlicht wurde und sich sehr am Xerox Alto orientiert. Das Jahr der Veröffentlichung spricht eindeutig dafür. Zum anderen bin ich bisher häufig über den Xerox Star gestolpert, welcher als eine verbesserte Version des Xerox Alto gilt und erst im Jahr 1981 auf den Markt kam. Scheinbar gehörte er jedoch zu den damals eher unbekannten Workstations. Weiter zählt der 1983 veröffentlichte Apple Lisa zu den ersten kommerziellen Computern, der eine grafische Benutzeroberfläche beinhaltete, die zudem – wie beim Xerox Star – über eine Maus bedienbar war. Er gilt wohl als zunächst bekannteste und revolutionärste Erfindung in dieser Reihe.

Unabhängig davon, ob nun Windows, Mac oder Linux sieht Carrie Anne Philbin jedoch eins: dass fast immer eine evolvierte Version des WIMP Interfaces verwendet wird, welches mit dem Xerox Alto eingeführt wurde.1

Der Apple Lisa

Der Entwicklung des Apple Lisas ging 1979 ein entscheidender Besuch von Steve Jobs und seinem Team bei Xerox voraus.2 Während Adele Goldberg, Gründerin von ParcPlace Systems, zu diesem Zeitpunkt bereits klar war, dass Xerox mit einer Präsentation des Altos das Tafelsilber des Unternehmens verschenkte, bestanden die Manager auf diese Vorführung.3 Das Problem war, dass die Forscher in Palo Alto zwar dazu angehalten wurden, neue Ideen für die Zukunft zu entwickeln.4 Auf der anderen Seite verstand die Führung in New York, welche grundsätzlich auf die Entwicklung von Druckern aus war, jedoch nicht die Visionen, die dort entstanden.5 Umso begeisterter war Larry Tesler, früher Forscher bei Xerox PARC, dass Steve Jobs und sein Team innerhalb einer Stunde mehr verstanden als die Manager über Jahre nicht.6 Auch Jobs sah, dass das Unternehmen keine Ahnung hatte, was mit Computern alles möglich ist und glaubt daran, Xerox den Sieg vor den Füßen weggeschnappt zu haben. Aus seiner Sicht könnte das Unternehmen die Computerindustrie beherrschen und das IBM oder Microsoft der 90er Jahre sein.7

Dem Apple-Mitgründer wurden bei dieser Demo drei Dinge gezeigt, von denen eine Sache besonders hervorstach. Neben der objektorientierten Programmierung und dem Netzwerk-Computersystem war vor allem die grafische Benutzeroberfläche interessant für ihn. Laut ihm war es das bis dahin beste, was er in seinem Leben gesehen hatte und trotz der kleinen Fehler, die er erkannte, wusste er innerhalb von zehn Minuten, dass in Zukunft alle Computer so arbeiten würden.8 Die Besucher sahen einen Computer, der dafür gestaltet wurde, einfach bedient zu werden und den jeder verwenden konnte.9

Auf dieser Grundlage ging Jobs und sein Team zurück zu Apple und entwickelte Lisa.10 Dabei wurde das System nicht einfach nachgestellt, sondern um viele Funktionen erweitert. So gab es beim Xerox Alto beispielsweise keine Menüs, sondern Pop-up-Fenster. Zudem konnten Fenster mit einem Doppelklick geöffnet werden und sich erstmals überlappen. Weiter soll er über eine vollständige Schreibtisch-Metapher verfügt haben, so dass es nun Features wie den Papierkorb gab. Auch Befehle wie Apfel-S wurde mit dem von Apple eingeführten »Macintosh Human Interface Guide« eingeführt.11

Screenshot Apple Lisa
Screenshot des Apple Lisa Betriebssystems

In einer Demo wird diese neue Technologie vorgestellt. Dabei wird gezeigt, dass Lisa einen Desktop simuliert, auf dem frei platzierbare Icons zu finden sind.12 Neben der Vorstellung von gewöhnlichen Schreibtisch-Tools wie einer Uhr oder einem Kalkulator,13 werden Programme zur Textverarbeitung oder Gestaltung demonstriert. Wenn man bedenkt, dass der Einzug von Computer für den privaten Gebrauch erst Ende der 70er Jahre so wirklich begann, sind Werkzeuge zur Text- oder Grafikbearbeitung als revolutionär einzustufen.

Später wurde zwar häufig behauptet, dass Steve Jobs die Ideen von Xerox geklaut hätte, aber unter dem Strich gab es einen Deal: Xerox konnte vor dem Börsengang Apples günstige Aktien-Anteile kaufen, welche sich später vervielfachten.14

Insgesamt zählt Apple Lisa zwar als sehr fortschrittlich, war aber für den normalen Privatgebrauch zu teuer. Heute läge der Preis immerhin bei 25.000 Dollar, was in der heutigen Welt voller günstiger Bauteile unvorstellbar wäre. Somit war er ähnlich wie der Xerox Star ein Flop und Apple bastelte an einem Nachfolger, dem Macintosh. Er wurde 1984 präsentiert und war mit – nach heutigen Verhältnissen – 6.000 Dollar vergleichsweise günstig.15

Der Macintosh

Bei der Produktpräsentation definiert Steve Jobs zwei Meilenstein-Produkte in der damaligen Computerindustrie. Dazu gehörte der Apple II aus dem Jahr 1977, sowie der IBM Personal Computer von 1981. Den Macintosh sah er als dritten Meilenstein in dieser Reihe. In der auf dem Macintosh-Bildschirm gezeigten Präsentation, werden verschiedene Features wie die Veränderung von Schriftgrößen, -stilen und arten gezeigt. Die Schrift konnte deformiert werden, Bildbearbeitung wurde ermöglicht und auch die Tabellenkalkulation erhält einen Platz in dieser Demonstration.16 Manche Funktionen sind zwar bereits im Lisa zu finden, der Macintosh versprach jedoch der weit verbreitete Computer für den heimischen Gebrauch zu werden.

Innerhalb eines Textes, welcher von einer Computerstimme vorgelesen wurde, gibt es zudem eine Spitze gegen den IBM-Computer, welcher als Konkurrent des Lisas zählte. Dort heißt es »Ich würde gerne eine Maxime mit dir teilen, welche ich erkannte, als ich zum ersten Mal ein IBM-Großrechner sah: TRAU NIE EINEM COMPUTER, DEN DU NICHT HOCHHEBEN KANNST!«17.

Kampf um die Marktmacht

Obwohl Steve Jobs in seiner Erfindung einen revolutionären Fortschritt sah, stürzten die Verkäufe schnell ein. Selbst Werbekampagnen, in denen IBM als beherrschender Tyrann ganz nach George Orwell dargestellt wurde oder in denen gezeigt wurde, wie einfach der Macintosh im Gegensatz zum IBM-Rechner bedient werden kann, brachten nichts.18

Auch wenn die grafische Oberfläche und die generelle Bedienbarkeit tatsächlich fortschrittlich waren, konnte der Rechner nicht mit dem deutlich günstigeren IBM-Rechnern mithalten.19 Ein weiteres Problem war der Umgang mit dem eigenen System, den Apple bis heute beibehalten hat. Für die geschlossene Architektur gab es kaum Software. IBM hat sich dagegen deutlich offener positioniert, so dass fremde Produkte oder nicht-IBM-Computer mit dem Label »IBM-kompatibel« versehen werden konnten.20 Das hatte zur Folge, dass die Computer von Apples Konkurrenz zwar nicht so intuitiv zu bedienen waren, die Menschen aber auf einen viel größeren Markt an kompatibler Hard- und Software zugreifen konnten.

Im Bezug auf die grafische Oberfläche konnte man bei Microsoft Windows erst mit der Einführung von Windows 3.0., beziehungsweise noch eher mit der von Windows 95, wirklich von einem verbesserten und konsumerorientierten GUI sprechen. Mit Windows 95 wurden Elemente wie die Taskbar, der Datei-Manager Windows Explorer oder das Start-Menü eingeführt. Zudem wurde mit dem Projekt Microsoft Bob ein kompletter Raum mit Regalen, Tisch und Türen zu weiteren Räumen als Metapher geschaffen. Dieses Konzept war jedoch nicht erfolgreich.21

Um den Macintosh zu retten, benötigte es die »Killer-Anwendung«, welche bereits auf IBM-Rechnern zu finden waren. Ein großer Fortschritt war dabei die Einbindung von Adobe, dessen Gründer John Warnock und Charles Geschke zuvor bei Xerox arbeiteten. Deren Entwicklung der Druckersprache Interpress fand dort keinen Anklang, was in die Gründung von Adobe und der bis heute verbreiteten Druckersprache PostScript mündete. Damit war es möglich »WYSIWYG« ernsthaft zu verwirklichen: Mit Laserdruckern konnte genau das gedruckt werden, was auf dem Bildschirm zu sehen war.22 Dieser Fortschritt präziser Ausdrucke, gekoppelt an ein System mit nutzerfreundlicher Oberfläche, mündete in eine völlig neue Branche: dem Desktop-Publishing. Damit wurde der Macintosh der Computer der Wahl in der kreativen Branche.23

Der schmale Grad zwischen Nutzerfreundlichkeit und Funktionalität

An diesem Beispiel erkennt man, wie schmal der Grad zwischen Nutzerfreundlichkeit und nötiger Funktionalität ist. Zudem lässt sich einiges zu deren Wichtigkeit ablesen.

Bei einer Demonstration des Apple Lisas 1984 betont Alfred Di Blasi, dass Leute nicht wissen sollten wie ein Computer funktioniert. Sie müssen ihn einfach bedienen können, um ihre Arbeit machen zu können. Computer seien Produktivitätstools, weshalb Leute mehr Zeit dafür aufbringen sollten, das zu tun, was sie können anstatt erst zu lernen, wie man das Werkzeug nutzt.24 Nichtsdestotrotz sollten solche Produktivitätstools erst einmal vorhanden sein.

Diesen Punkt kann man aus meiner Sicht auch auf die Gestaltung im Web übertragen. Zum einen halte ich es für wichtig, dass eine Webseite, angefangen bei der grundsätzlichen Struktur bis hin zum letztendlichen grafischen Interface, durchweg so aufgebaut sein muss, dass der Nutzer so wenig Hürden wie nötig bewältigen muss. Jedes Unverständnis und jede Unsicherheit auf dem Weg zum Ziel, birgt die potenzielle Gefahr, dass der Besucher abspringt. Zum anderen darf jedoch die Wichtigkeit der grundsätzlichen Funktionalität nicht übersehen werden.

Bestenfalls leben natürlich die primären Funktionen im harmonischen Einklang mit Nutzerfreundlichkeit und unterstützendem Interface-Design. Nichtsdestotrotz macht bei der Entwicklung von Webseiten der Einsatz von minimum viable products (mvp) durchaus Sinn. Dadurch wird sichergestellt, dass ein Produkt die Mindestanforderungen erfüllt, welche meiner Ansicht nach darin liegen, dass ein Produkt funktioniert. Das bedeutet, dass der Nutzer beim Besuch einer Webseite sein Ziel (und natürlich das des Unternehmens) erreichen soll. Hier sehe ich die Funktionalität als primären Faktor. Zwar können unterstützendes Design und hervorragende Nutzerfreundlichkeit die Chance auf Erreichen des Ziels massiv steigern, alleine kann jedoch nur die Funktionalität überleben.

Quellen
  1. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:11:32–00:11:47, abgerufen am 12.1.2018.
  2. Vgl. Ebd., TC: 00:08:13–00:09:12.
  3. Vgl. Cringely, Robert X: »Triumph of the Nerds«, Dokumentation, 150 Minuten, Vereinigte Staaten 1996, TC: 01:52:54–01:53:33.
  4. Vgl. Ebd., TC: 01:46:50–01:47:00.
  5. Vgl. Ebd., TC: 01:48:55–01:49:42.
  6. Vgl. Ebd., TC: 01:54:21–01:54:32.
  7. Vgl. Ebd., TC: 01:54:32–01:54:55.
  8. Vgl. Ebd., TC: 01:50:41–01:51:48.
  9. Vgl. Ebd., TC: 01:53:34–01:54:09.
  10. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:08:13–00:09:12, abgerufen am 12.1.2018.
  11. Vgl. Dernbach, Christoph: »Apple und Xerox PARC«, Stand: 10.8.2013, URL: http://www.mac-history.de/apple-geschichte-2/2012-01-29/apple-und-xerox-parc, Absatz 19 & 20, abgerufen am 20.1.2018.
  12. Vgl. DiBlasi, Alfred, adiblasi: »Tech: Apple Lisa Demo (1984)«, Stand: 19.11.2006, URL: https://www.youtube.com/watch?v=a4BlmsN4q2I, TC: 00:08:00–00:08:35, abgerufen am 12.1.2018.
  13. Vgl. Ebd., TC: 00:08:35–00:09:15.
  14. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:08:13–00:09:12, abgerufen am 12.1.2018.
  15. Vgl. Ebd., TC: 00:09:12–00:09:43.
  16. Vgl. Cringely, Robert X: »Triumph of the Nerds«, Dokumentation, 150 Minuten, Vereinigte Staaten 1996, TC: 02:04:07–02:05:43.
  17. Ebd.
  18. Vgl. Ebd., TC: 02:06:41–02:07:37.
  19. Vgl. Ebd.
  20. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:08:73–00:08:53, abgerufen am 12.1.2018.
  21. Vgl. Ebd., TC: 00:10:45–00:11:32.
  22. Vgl. Cringely, Robert X: »Triumph of the Nerds«, Dokumentation, 150 Minuten, Vereinigte Staaten 1996, TC: 02:09:09–02:09:42.
  23. Vgl. Ebd., TC: 02:09:48–02:09:42.
  24. Vgl. DiBlasi, Alfred, adiblasi: »Tech: Apple Lisa Demo (1984)«, Stand: 19.11.2006, URL: https://www.youtube.com/watch?v=a4BlmsN4q2I, TC: 00:06:18–00:06:32, abgerufen am 12.1.2018.
Abbildungen
  1. Titelbild: Light, Alan: »Apple Convention, Boston, Spring 1983. An original Apple Lisa at work.«, Stand: Frühling 1983, via Wikimedia Commons, abgerufen am 28.1.2018, Lizenz: CC BY 2.0.

Die Anfänge der grafischen Benutzeroberfläche

Während meinen Nachforschungen bezüglich der grafischen Veränderungen im Web, gelange ich unweigerlich an den Ursprung der meisten heutigen GUIs. Obwohl das GUI grundsätzlich vom Webdesign zu unterscheiden ist, ist es für mich zum einen wichtig, die Ursprünge dessen zu erkunden, was uns heutzutage die Gestaltung im Web überhaupt ermöglicht. Zum anderen ist für mich der damalige Umgang mit gestalterischen Elementen spannend, welcher noch mehr von der Technologie bestimmt wurde als heute.

Während meinen Nachforschungen bezüglich der grafischen Veränderungen im Web, gelange ich unweigerlich an den Ursprung der meisten heutigen GUIs. Obwohl das GUI grundsätzlich vom Webdesign zu unterscheiden ist, ist es für mich zum einen wichtig, die Ursprünge dessen zu erkunden, was uns heutzutage die Gestaltung im Web überhaupt ermöglicht. Zum anderen ist für mich der damalige Umgang mit gestalterischen Elementen spannend, welcher noch mehr von der Technologie bestimmt wurde als heute.

Die Entwicklung des Konzepts der GUIs wird üblicherweise dem Forschungszentrum Xerox Palo Alto Research Center (Xerox PARC) zugeschrieben. Das ist zwar grundsätzlich richtig, jedoch kann diese Entwicklung nicht gänzlich isoliert betrachtet werden – ihr gingen jahrzehntelange Forschung voraus.

Sketchpad und Spacewar! als Inspiration für Doug Engelbart

Frühe interaktive, grafische Anwendungen wie Ivan Sutherlands »Sketchpad« (1962) oder das von Steve Russell am MIT entwickelte Spiel »Spacewar!« (1962) waren Teil dieser Evolution. Vor allem Sketchpad soll Doug Engelbart in seiner Arbeit inspiriert haben,1 welcher erst 1968 das oN-Line System (NLS) demonstrierte. Das NLS unterstütze dabei schon viele Eigenschaften moderner Computer wie beispielsweise Bitmap-Grafiken, Videokonferenzen, Textverarbeitung oder die kollaborative Bearbeitung von Dokumenten in Echtzeit. Des weiteren erinnert die Benutzung der von ihm erfundenen Maus sowie die Verwendung von Fenstern an heutige Verhältnisse.2

Sketchpad Ivan Sutherland
Der Erfinder Ivan Edward Sutherland bedient sein Programm Sketchpad, welches 1962 innerhalb seiner Dissertation entstanden ist. Sketchpad gilt als erstes Programm mit grafischer Benutzeroberfläche. Mithilfe eines Lichtgriffels, einem Vorläufer der Maus als Eingabegerät, konnte direkt auf dem Bildschirm gezeichnet werden.II
In der Zusammenfassung in einer seiner Schriften heißt es: »Es wurde verwendet, um elektrische, mechanische, wissenschaftliche, mathematische und animierte Zeichnungen zu zeichnen«3.
Spacewar! von Steve Russell
Steve Russells Erfindung »Spacewar!« auf dem PDP-1, welches als eines der ersten grafischen Computerspiele gilt und 1962 fertiggestellt wurde. Auch hier wird der Lichtgriffel als Eingabegerät genutzt.III

Xerox Alto mit dem WIMP Interface

Ein interessanter Verlauf ist der, dass – durch die Reduzierung staatlicher Finanzierungen – viele von Engelbarts Team zum neu gegründeten Xerox PARC wechselten. Dort wurde 1973 mit dem Xerox Alto der erste wirkliche Computer mit einer grafischen Benutzeroberfläche fertiggestellt. Das grafische Konzept orientierte sich dabei an bekannten Mustern, weshalb der 2D-Bildschirm als Oberfläche eines Schreibtisches dargestellt wurde. Innerhalb von einzelnen Rahmen wurden die Programme angezeigt, welche wir heute als Fenster bzw. auch im deutschen als windows kennen. Aus der realen Welt wurden weitere Hilfsmittel wie ein Kalkulator oder die Uhr übernommen, welche frei platzierbar waren. Diese Metapher wird auch »Schreibtisch-Metapher« genannt.4 Bis heute werden Metaphern dieser Art genutzt – noch immer verwenden wir einen sehr abstrahierten Schreibtisch mit Ordnern oder einem Papierkorb. Beides war in dieser Version jedoch noch nicht vorhanden.

Das Alto Team verwendete für seine Gestaltung Windows, Icons, Menüs sowie Zeiger (Pointer). Diese Art wird als WIMP Interface bezeichnet und ist bis heute weitestgehend in Verwendung. Zudem bot Alto wiederverwendbare, grafische Bausteine wie Buttons, Chechboxen oder Tabs an, aus denen GUI-Anwendungen entwickelt werden konnten. Auch sie waren an Objekte der realen Welt angelehnt.5

Grafische Benutzeroberfläche des Xerox Alto
Das Dynabook, entwickelt von Alan Kay, gilt als konzeptioneller Vorläufer des Xerox Alto. Die Grafik zeigt die grafische Benutzeroberfläche des Xerox Alto, welche – dem Bildschirm entsprechend – vertikal statt horizontal ist. Die Grafik zeigt, dass das GUI bereits aus einzelnen, sich überlappenden Fenstern sowie Symbolen bestand. Alan Kay und sein Team entwickelten als Softwareumgebung die objekt-orientierte Programmiersprache SmallTalk. Um mit Dokumenten, Anwendungen und Co. interagieren zu können, konnten Symbole, Dialogfelder und Dropdown-Menüs angeklickt werden.IV

Xerox Star – Cut, Copy, Paste

Vom Xerox Alto gab es nur 2000 Exemplare, mit denen intern oder an Universitäts-Laboren gearbeitet wurde. Sie wurden nie kommerziell verkauft und 1981 kam die Folgeversion Xerox Star mit verbesserter Hard- und Software auf den Markt. Bei dieser Version wurde die Schreibtisch-Metapher weiter ausgereizt, so dass Dateien wie Papier aussahen und in Ordnern oder virtuellen Aktenschränken verstaut werden konnten.6 Auch weitere Funktionen, die wir heute verwenden, wurden mit dem Xerox Star eingeführt. Es sollte die Möglichkeit bestehen, Veränderungen unsichtbar zu machen, was mit Cut, Copy und Paste gelang. Die Idee dahinter war zudem, dass ausgedruckte Dokumente ein perfektes Abbild realer Versionen sein sollten. Das wurde »What-You-See-Is-What-You-Get« (WYSIWYG) genannt7 und ist bis heute ein weit verbreiteter Terminus.

Grafische Benutzeroberfläche des Xerox Star
Grafische Benutzeroberfläche des Xerox StarV

Im folgenden Verlauf möchte ich mich zwar weiterhin mit der Entwicklung grafischer Benutzeroberflächen beschäftigen und etwas detaillierter auf die Interfaces selbst eingehen. Insgesamt wird die Beobachtung aber eher oberflächlich bleiben, da mein Fokus sehr klar auf der Evolution im Web selbst liegt.

Quellen
  1. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:01:58–00:02:36, abgerufen am 12.1.2018.
  2. Vgl. Ebd., TC: 00:02:36–00:02:53.
  3. Sutherland, Ivan Edward: »Sketchpad: A man-machine graphical communication system«, Stand: September 2003, URL: http://www.cl.cam.ac.uk/techreports/UCAM-CL-TR-574.html, abgerufen am 12.1.2018.
  4. Vgl. Philbin, Carrie Ann, CrashCourse: »Graphical User Interfaces: Crash Course Computer Science #26«, Stand: 30.8.2017, URL: https://www.youtube.com/watch?v=XIGSJshYb90, TC: 00:03:03–00:04:36, abgerufen am 12.1.2018.
  5. Vgl. Ebd.
  6. Vgl. Ebd., TC: 00:06:30–00:07:00.
  7. Vgl. Ebd., TC: 00:07:05–00:07:48.
Abbildungen
  1. Titelbild: Hicks, Michael: »Xerox PARC Alto with mouse and chorded keyset.«, Stand: 3.11.2013, via Wikimedia Commons, abgerufen am 13.1.2018, Lizenz: CC BY 2.0.
  2. Von Kerry Rodden gescanntes Originalfoto von Ivan Sutherland: »Sketchpad Dissertation: Ivan Sutherland operating the Sketchpad system.«, Stand: 1.1.1963, via Wikimedia Commons, abgerufen am 13.1.2018, Lizenz: CC BY-SA 3.0.
  3. Ito, Joi: »Spacewar! auf einer PDP-1 des Computer History Museums.«, Stand: 12.5.2007, via Wikimedia Commons, abgerufen am 13.1.2018, Lizenz: CC BY 2.0.
  4. parc – A Xerox Company: »Smalltalk GUI«, URL: https://www.parc.com/newsroom/media-library.html, abgerufen am 13.1.2018.
  5. Baecker, Ronald M.; Buxton, William; Greenberg, Saul; Grudin, Jonathan: »Reading in Human-computer Interaction: Toward the Year 2000«, Burlington (MA) 1995, S. 57.

evolution of a medium

Mein Master-Projekt wird nun immer konkreter. Nach meiner bisherigen Recherche zur Entwicklung des World Wide Web, präzisiert sich meine Vorstellung, welche theoretische Auseinandersetzung und welche praktische Umsetzung Teil meiner Arbeit werden können.

Mein Master-Projekt wird nun immer konkreter. Nach meiner bisherigen Recherche zur Entwicklung des World Wide Web, präzisiert sich meine Vorstellung, welche theoretische Auseinandersetzung und welche praktische Umsetzung Teil meiner Arbeit werden können.

Die erste Fragestellung innerhalb meines Master-Studiums beinhaltet bereits erste Gedanken meines jetzigen Ansatzes. Nichtsdestotrotz habe ich sehr breit recherchiert, da mir auf meinem Weg unzählige spannende Themen begegnet sind, die mich stets in eine neue Richtung gelenkt haben. Ich hatte viele Ideen von zu plump bis zu komplex und habe enorm viel Kraft in die theoretische Arbeit gesteckt. Ich habe viel gelesen und recherchiert, viel geschrieben und verworfen.

Während meiner Master-Zeit hatte ich ab und an das Gefühl den Wagen fälschlicherweise von hinten aufzurollen. Habe mich aber aus Leidenschaft nicht davon abbringen lassen.
Ich habe mir kein Thema XY ausgesucht für das ich nun ein passendes Medium für die praktische Umsetzung suche, sondern ich beschäftige mich von Anfang an mit dem Medium selbst. So liebe ich beispielsweise Netzkunst, weil sie oft eine besondere Art hat mit dem Medium Web umzugehen und eine außergewöhnliche, visuelle Sprache spricht. Ich interessiere mich für die Auflösung virtueller und nicht-virtueller Grenzen, die Veränderung der Gesellschaft durch die virtuelle Welt und für die Theorien von beispielsweise Flusser und McLuhan. Ich bin überzeugt davon, dass sich Schnittstellen zunehmend auflösen und eine neue Art der Kommunikation entsteht. Ich bin begeistert von neuen Technologien und mich bewegen Projekte, die Theorie und Praxis lückenlos verschmelzen.

Letztendlich merke ich jedoch, dass meine Gedanken häufig um ähnliche Themen kreisen. Dazu gehören wiederkehrend die Anfänge und die Entwicklung des World Wide Web, die mich sowohl visuell, technologisch als auch kulturell interessieren. Das Medium selbst wurde lange wie eines behandelt, das ausschließlich die nicht-virtuelle Welt in die virtuelle überträgt. Webseiten waren »Schaufenster« des realen Lebens, Buttons waren zum Teil rote Knöpfe mit Schrift und Baustellenschilder zeigten, dass die Webseite noch in Bearbeitung ist. Das Verständnis für das Medium wächst zunehmend und wir wissen zwischenzeitlich, dass Webseiten so gut wie immer »under construction« sind. Zum einen kann aus meiner Sicht erst eine spezifische, visuelle Sprache für ein Medium entwickelt werden, sobald das Medium verstanden wird – sprich, dass das Web kein Buch ist. Auf der anderen Seite frage ich mich, ob nicht gerade dieser spielerische Umgang mit einem unbekannten Medium – wie er in den 90er Jahren stattfand – die unantastbarste und »originalste« Sprache von allen spricht.
In meiner bisherige Recherche zeigt sich, dass sich die visuelle Sprache immer weiter von der materiellen Welt entfernt und sich das Web zunehmend zu einem eigenen Medium entwickelt. Neben visueller und kultureller Veränderungen, halte ich hierfür auch die technologischen Entwicklungen für sehr wichtig. So nutzte man teils solange wie nötig die default styles für z.B. Buttons und ersetzt sie nach und nach mit Grafiken und letztendlich Code.

Der bisher stärkste Ansatz ist meiner Ansicht nach eine Ausstellung anlässlich des 25-jährigen Jubiläums des freien Webs. Dabei kann ich mir zum einen eine interaktive Webausstellung vorstellen, aber auch eine nicht-virtuelle Exhibition mit gebauten Räumen voller Sternenhimmeltapeten und MIDI-Sound. Die Ausstellung könnte die Entwicklung des Web zeigen. Dabei wären aus meiner Sicht die visuellen Veränderungen im Vordergrund.
Ich möchte zum einen schon zum Teil gesammelte und katalogisierte UI-Elemente zusammenführen, um grafische Veränderungen deutlich zu zeigen. Die Elemente stammen dabei von verschiedenen Unternehmen, die auch in der Wayback Machine des Internet Archive zu finden sind: https://archive.org/web/. Ein erster Ansatz der Auswahlkriterien ist in meinem Beitrag »Evolution der Webästhetik« zu finden. Dabei steht noch offen, ob diese – dem Plan nach mehrere tausend – Elemente im Zentrum stehen oder einfach nur ein Pattern für die Ausstellung darstellen könnten. Zudem soll eine inhaltlich-kulturelle Komponente hinzukommen, die ich noch erarbeiten muss und eine poetische Ebene enthalten kann. Eine weitere Komponente könnte die Frage nach dem Danach sein, da ich mir unter anderem die Frage stelle, ob grafische Benutzeroberflächen durch neue Technologien wie z.B. Voice Interfaces ersetzt werden können.

An dieser Stelle wird mein Titel »Digitale Primaten« wieder mit der anfänglichen Bedeutung belegt. Nämlich, dass Menschen der Technologie noch immer hinterherhinken und wohl auch nicht mehr aufholen werden. Mein gewählter Arbeitstitel ist »digital primates – evolution of a medium« in englischer oder deutscher Form.

oN-Line System – Template des modernen Computers

An verschiedenen Stellen bin ich auf Doug Engelbart, Forscher an der Standford University, gestoßen. Eine seiner Visionen war, dass Hypertext als Werkzeug für die Arbeit im Team genutzt wird und dass Personen in einem sehr nahen und natürlichen Weg mit Maschinen kommunizieren können.

An verschiedenen Stellen bin ich auf Doug Engelbart, Forscher an der Standford University, gestoßen. Eine seiner Visionen war, dass Hypertext als Werkzeug für die Arbeit im Team genutzt wird und dass Personen in einem sehr nahen und natürlichen Weg mit Maschinen kommunizieren können.1 In den 60er Jahren erschuf er das kollaborative Hypertext-System »oN-Line System« (NLS) und gilt als Erfinder der Computermaus.2 Die Erfindung seiner Einhand-Tastatur mit nur fünf Tasten, sieht Licklider rückblickend sogar als eine der wahrscheinlich größten Erfindungen.3

Engelbart gilt als stark beeinflusst von Vannevar Bush und ist zudem Autor von »Augmenting Human Intellect: A Conceptual Framework« (1962).4 Damit ist die Fähigkeit eines Menschen gemeint, »sich einer komplexen Problemsituation zu nähern, Verständnis für seine speziellen Bedürfnisse zu entwickeln und Problemlösungen abzuleiten. Unter erhöhter Fähigkeit wird in diesem Zusammenhang eine Mischung aus Folgendem verstanden: schnelleres Verständnis, besseres Verständnis, die Möglichkeit, in einer bisher zu komplexen Situation einen brauchbaren Grad an Verständnis zu gewinnen, schnellere Lösungen, bessere Lösungen und die Möglichkeit Lösungen für Probleme zu finden, die vorher unlösbar schienen«5. Zudem sieht er die Wichtigkeit, dass Ahnungen, Ausprobieren, immaterielle Werte und das menschliche »Gefühl für eine Situation« sinnvollerweise mit den rationalen Gegebenheiten der elektronischen Hilfsmittel koexistieren.6

Seine Ausarbeitung gilt als Pionierarbeit seiner Zeit und seine Denkweise ist der Lickliders sehr nahe. Die auf den ersten Blick für meine Arbeit relevantere Entwicklung ist jedoch die des oN-Line Systems. Selbstverständlich kann beides nicht gänzlich getrennt voneinander betrachtet werden, da genau dieses System zur Erweiterung der menschlichen Intelligenz bestimmt war.7 Jedoch möchte ich mich nicht zu sehr in seinem sehr umfangreichen, theoretischen Konzept verstricken.

Das oN-Line System

Wie schon erwähnt ist das oN-Line System ein Hypertext-System. Der Prototyp wurde erstmals 1968 demonstriert und Alex Wright hält es im Wesentlichen für das Template für den modernen Computer.8 Ian Ritchie beschreibt wie Engelbart das System mit Headset-Mikrophon mittels 5-Finger-Tastatur und der ersten Computermaus der Welt demonstriert und zwischen Dokumenten und Graphiken weiter schaltet.9 Aus Ritchies Sicht war das Problem unter anderem das, dass ein Computer zu dieser Zeit mehrere Millionen Pfund kostete und damit als Heimcomputer nicht wirklich praktisch war.10 Wright erläutert weiter, dass das System bereits Hyperlinks und ein Videokonferenz-System enthält,11 was mir als sehr fortschrittlich erscheint. Es gilt als das erste System, das den praktischen Einsatz von mit Hyperlinks vernetzten Dokumenten, der Maus, Raster-Scan-Monitoren, nach Relevanz organisierten Informationen, einer Bildschirmverwaltung, Präsentationsprogrammen und anderen modernen Computing-Konzepten angewandt hat.12

Für mich immer wieder erstaunlich ist die Tatsache, wie früh daran gearbeitet wurde Informationen nach Relevanz zu sortieren und wie lange es gedauert hat bis es mit dem World Wide Web tatsächlich praktikabel für Jedermann umgesetzt wurde. Natürlich gibt es davor schon analoge Systeme, die sich wie im Falle von Paul Otlet durch die Verbindung von Inhalten abheben oder fiktive Anwendungen, die wie bei Vannevar Bushs Memex Assoziationen zwischen Dokumenten auf elektronischem Wege hervorbringen sollten.
Gleichermaßen lässt sich der Antrieb, neue Wege für die Organisation von Informationen zu finden, als logische Konsequenz der menschlichen Entwicklung sehen und sich in den historischen Kontext einordnen. So nahm neben der Fülle an Informationen auch die Abhängigkeit von eben diesen massiv zu. Wohlstand und Fortschritt sind in der Hypergeschichte, in der wir uns beispielsweise in Deutschland befinden, enorm an sie gebunden. Zudem sieht man in Tim Berners-Lee Konzept von Linked Open Data eine weitere Evolution, welche mich stark an »The World City« erinnert, mit der Paul Otlet das Wissen der Menschheit vereinen wollte. Auch bei Linked Open Data ist letztendlich das Ziel alle Daten zusammenzutragen, so dass sie nicht auf lokalen Rechnern oder in geschlossenen Systemen verloren gehen. Zwar unterscheiden sich Informationen und Wissen grundlegend, aber durch das Zusammenführen der Daten bzw. Informationen lässt sich nicht nur Wissen herauslesen, sondern sogar neues generieren. So werden nämlich Sachverhalte assoziativ verbunden, welche vorher nicht als zusammenhängend betrachtet wurden.

Diese abschließenden Gedanken bringen mir insofern neue Erkenntnisse für meine Arbeit, dass mir der Gesamtkontext nun immer klarer wird. Die Recherche über vergangene Entwicklungen, die zeitliche Einordnung sowie aktuelle Konzepte helfen mir enorm beim Verständnis. In diesem Zusammenhang wird mir zudem bewusst, das Informationsdesign eine große Rolle in meiner Arbeit spielen könnte.

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 6.
  2. Vgl. Ebd., S. 50.
  3. Vgl. Licklider, Joseph Carl Robnett, Yoshiki Ohshima: »Some Reflections on Early History by J.C.R. Licklider (VPRI 0093)«, Stand: 5.8.2015, URL: https://www.youtube.com/watch?v=SN–t9jXQc0, TC: 00:12:22–00:13:50, abgerufen am 20.8.2017.
  4. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:36:11–00:37:18, abgerufen am 18.8.2017.
  5. Engelbart, Doug: »Augmenting Human Intellect: A Conceptual Framework«, Stand: Oktober 1962, URL: https://www.dougengelbart.org/pubs/augment-3906.html#2, abgerufen am 22.8.2017.
  6. Vgl. Ebd.
  7. Vgl. Ritchie, Ian: »The day I turned down Tim Berners-Lee«, URL: https://www.ted.com/talks/ian_ritchie_the_day_i_turned_down_tim_berners_lee/, TC: 00:01:17–00:01:51, abgerufen am 20.7.2017.
  8. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:38:04–00:39:36, abgerufen am 18.8.2017.
  9. Vgl. Ritchie, Ian: »The day I turned down Tim Berners-Lee«, URL: https://www.ted.com/talks/ian_ritchie_the_day_i_turned_down_tim_berners_lee/, TC: 00:01:51–00:02:24, abgerufen am 20.7.2017.
  10. Vgl. Ebd., TC: 00:02:24–00:02:37.
  11. Vgl. Wright, Alex, UX Brighton: »The Web That Wasn’t: Forgotten Forebears of the Internet«, Stand: 10.6.2014, URL: https://www.youtube.com/watch?v=CR6rwMw0EjI, TC: 00:38:04–00:39:36, abgerufen am 18.8.2017.
  12. Vgl. Gust, Kate, Software Preservation Group: »NLS Augment Index«, Stand: 6.11.2006, URL: http://www.softwarepreservation.org/projects/nlsproject, abgerufen am 22.8.2017.
Abbildungen
  1. Titelbild: DARPA: »oN-Line System«, URL: https://www.darpa.mil/about-us/timeline/nls, abgerufen am 14.9.2017.

Intergalactic Computer Network

Bei der Entstehung des World Wide Webs spielt die Erfindung des Internets die grundlegende Rolle überhaupt. Joseph Carl Robnett Licklider gilt als einer der wichtigsten Begründer, weshalb ich ihn in meine Dokumentation aufnehmen möchte.

Bei der Entstehung des World Wide Webs spielt die Erfindung des Internets die grundlegende Rolle überhaupt. Joseph Carl Robnett Licklider gilt als einer der wichtigsten Begründer, weshalb ich ihn in meine Dokumentation aufnehmen möchte. Meine Recherche über ihn war verhältnismäßig lange, da ich es sehr schwierig fand geeignete Materialien zu finden. Jedoch möchte ich meine Ergebnisse sehr gebündelt zusammentragen, da die detaillierte Entstehung des Internets kein Kernthema für mich darstellt. Aus diesem Grund habe ich mich bisher auch nicht im Detail mit seinen Büchern wie z. B. »The Dream Machine« oder »Libraries of the future« auseinandergesetzt. Innerhalb eines Vortrags von Hannes Högni Vilhjálmsson spielen seine Arbeiten »Man-Computer-Symbiosis« und »The Computer as a Communication Device« eine Rolle. Zudem dient mir »Brief History of the Internet« der Internet Society als Basis.

Advanced Research Projects Agency

Den Grundstein des Internets legt Licklider in den 60er Jahren bei seiner Arbeit für die ARPA (Advanced Research Projects Agency). Schon vor seiner Zeit bei ARPA (später DARPA) entstand 1960 seine Arbeit »Man-Computer-Symbiosis«. Dabei geht es nicht darum, dass der Mensch von der Maschine ersetzt oder mechanisch erweitert wird, sondern eine tatsächliche Symbiose entsteht.1 Einen Vorteil sieht er vor allen Dingen darin, dass die Maschine Aufgaben übernehmen kann, welche dem Menschen die Zeit für intellektuelle Arbeit rauben.2 In seinen Anforderungen für die Symbiose spricht er bereits in dieser Arbeit von »Networked thinking centers«, welche durch Aufteilung der Computerleistung verhindern sollen, dass zu schnelle und teure Computer nicht ausgelastet werden und nur wenigen Menschen dienen.3 Licklider ist davon überzeugt, dass Computer die Mensch-Mensch-Kommunikation verbessern können und vor allem die Beschleunigung von Arbeitsprozessen spielt bei seinen Gedanken eine Rolle.4

Ab 1962 ist er Leiter bei ARPA, wo er in den kommenden Jahren über das »Intergalactic Computer Network« nachdenkt, erste Experimente durchführt und Verbindungen mit seinen Mitarbeitern realisiert.5 Nachdem er 1967 seinen Plan für das »ARPANET« veröffentlicht, wird die Umsetzung einer Schlüsselkomponente, dem »Interface Message Processor«, ausgeschrieben. »BBN Technologies« realisiert ihn letztendlich und legt damit den Grundstein für das erste Rechnernetz im Jahr 1969, welches in den kommenden Jahren immer mehr Computer aufnimmt.6 Dieses Netz gilt als Vorreiter des Internets.

Wie eingangs erwähnt möchte ich mich nur kurz mit diesem Thema befassen, weshalb ich es ohne Reflexion oder Erkenntnisse mit in meine Dokumentation aufnehme.

Quellen
  1. Vgl. Vilhjálmsson, Hannes Högni, RU Computer Science: »Pearls of Computation: „J. C. R. Licklider: Man-Computer Symbiosis on the Intergalactic Computer Network«, Stand: 13.2.2015, URL: https://www.youtube.com/watch?v=ncCPTgWX6a8, TC: 00:17:31–00:19:22, abgerufen am 24.8.2017.
  2. Vgl. Ebd., TC: 00:23:23–00:25:10.
  3. Vgl. Ebd., TC: 00:25:18–00:26:03.
  4. Vgl. Ebd., TC: 00:36:16–00:37:31.
  5. Vgl. Ebd., TC: 00:12:18–00:14:23.
  6. Vgl. Leiner, Barry M.; Cerf, Vinton G.; Clark, David D.; Kahn, Robert E.; Kleinrock, Leonard; Lynch, Daniel C.; Postel, Jon; Roberts, Larry G.; Wolff, Stephen, Internet Society: »Brief History of the Internet«, »Origins of the Internet« URL: https://www.internetsociety.org/internet/history-internet/brief-history-internet/, abgerufen am 26.8.2017.

Struktureller Aufbau des Webs und die Koexistenz von Mensch und Maschine

Nach meiner ersten Auseinandersetzung mit Tim Berners-Lees Buch, möchte ich im folgenden weiteren Gedanken nachgehen. Dabei geht es unter anderem um den Aufbau des Webs, welchen ich vor allem strukturell näher betrachten möchte. Zudem finde ich den Ansatz eines universellen Informationsraums, in dem Mensch und Maschine harmonisch koexistieren sehr faszinierend.

Nach meiner ersten Auseinandersetzung mit Tim Berners-Lees Buch (Die Vision eines Visionärs »), möchte ich im folgenden weiteren Gedanken nachgehen. Dabei geht es unter anderem um den Aufbau des Webs, welchen ich vor allem strukturell näher betrachten möchte. Zudem finde ich den Ansatz eines universellen Informationsraums, in dem Mensch und Maschine harmonisch koexistieren sehr faszinierend.

Hypertext als non-lineare Grundlage

Während das Internet grundsätzlich nur das infrastrukturelle Fundament für das World Wide Web bildet, basiert die Kernidee des World Wide Webs auf Hypertext. Laut Berners-Lee war seine Aufgabe lediglich beides zu »verheiraten«.1 Nachdem es zuvor schon ähnliche Konzepte gab, wurde der Begriff Hypertext im Jahr 1965 von Ted Nelson geprägt. Zum einen schrieb Ted Nelson von »Literarischen Maschinen«: Von Computern, die dem Menschen ermöglichen sollen, Informationen niederzuschreiben und zu publizieren.2 Zum anderen ist an dieser Stelle wichtig zu wissen, dass es sich bei Hypertext um einen dynamischen Text handelt, dessen einzelne Bestandteile durch Querverweise vernetzt sind. Dieser enzyklopädische Ansatz ist fundamental für die Entwicklung des World Wide Webs und sein non-lineares Format.

Auf Grundlage dieser Struktur, entwickelt Tim Berners-Lee den Vorläufer des World Wide Webs »Enquire«, das auf Knoten (Nodes) basiert, die – der Reihe nach – miteinander verlinkt sind. Er vergleicht das Software-Projekt mit dem menschlichen Gehirn, welches gleichermaßen netzartig funktioniert und zufällige Assoziationen zulässt.3 Dabei sind die Verbindungsmöglichkeiten unbegrenzt und zuvor nicht berücksichtigte Verbindungen können sichtbar werden.4 Diese Unbeschränktheit ist eine Voraussetzung dafür, dass das Web als universelle Resource dienen kann.5

Hyperspace

Laut Tim Berners-Lee ist das Web kein physisches »Ding«, sondern ein Raum in dem Informationen existieren können.6 An späterer Stelle nennt er diese Hypertext-Umgebung »Hyperspace«.7 Es war essenziell, dass Berners-Lee etwas schafft, das keine komplette Umstrukturierung der vorherigen Arbeit sowie Umformatierung sämtlicher Daten verlangt. Ihm war wichtig ein System zu kreieren, welches für jeden akzeptabel ist und mit so wenig wie möglich Regeln bzw. Beschränkungen auskommt.8 Denn nur dann, wenn Menschen selbst in der Lage sind Informationen einzuspeisen und Informationen zu verbinden,9 kann dieser universelle Informationsraum entstehen. Und nur was in diesem Informationsraum besteht, ist von informationellem Wert. Das »World Wide Web Consortium« selbst handelt dabei nach der Maxime, dass alles, was nicht in diesem Hyperspace – im Web – vorhanden ist, nicht exitierst.10

Das erinnert mich zum einen an Luciano Floridis Blick auf die Infosphäre (Zwischen Realität und Fiktion »), welche jedoch auch Menschen als informationelle Wesen mit in diese Sphäre aufnimmt. Zum anderen an Felix Stalders Betrachtung des raumzeitlichen Horizonts (Neuer Raum – neue Zeit: Neu denken »). Stalder beschreibt dabei, dass alles, was nicht »hier« ist, unerreichbar und alles, was nicht »jetzt« ist, verschwunden ist.
Zudem sehe ich in Bezug auf die netzartige Struktur einen Zusammenhang zu Marshall McLuhan, welcher von der Auflösung von Raum und Zeit spricht, sowie die Veränderung unserer westlich geprägten, sequentiellen Denkweise voraussagt (Das globale Dorf – Raum, Zeit und Dynamik »). Hier sehe ich vor allem das World Wide Web als einschneidendes Medium, welches als non-lineares Format unsere Gewohnheiten grundsätzlich verändert. Hier fände ich spannend, inwiefern nachfolgende Generationen non-linear geprägt werden. Meine Generation (Jahrgang 1986) ist noch sehr sequentiell aufgewachsen und in das Medium Web reingewachsen. Zudem halte ich unsere aktuelle Lebenswelt noch immer für sehr linear ausgelegt.

Human-Computer-Interaction und die Verschmelzung zu einem großen Informatiosnraum

Um das World Wide Web nicht nur als Medium zu sehen, in das man »einsteigen« kann, ist die Zugänglichkeit enorm wichtig. Für Berners-Lee war der Zugang noch sehr umständlich und so hatte er schon damals Ideen, welche für uns heute eine Selbstverständlichkeit sind. Mehrere Minuten warten bis der Computer hochgefahren ist, um sich dann über die Telefonleitung ins Netz einzuwählen, nahm einfach viel zu viel Zeit in Anspruch. Er träumte davon, dass Computerbildschirme immer erreichbar sind, wenn man sie benötigt und hatte die Idee von sofortiger und ständiger Verfügbarkeit.11 Er hat bereits damals die Vorstellung, dass der Computer ein ständiger Begleiter und gutes Werkzeug darstellt, um aufkommende Ideen sofort festzuhalten und sie nicht zu verlieren.12 Zwar gibt es noch immer Leute, die weder Smartphone noch Daten-Flat besitzen, doch im Großen und Ganzen ist genau dieser Fall eingetreten. Das Smartphone ist als kleiner Pocket-Computer ständiger Begleiter vieler, die an den meisten Orten auch durchgehend online sind. Das ist auch die Onlife-Erfahrung von der Floridi spricht (Von Loops und der Hyper-Realität »): Die Unterscheidung von on- und offline wird es zukünftig kaum noch geben.

Eine weitere Selbstverständlichkeit ist, dass Technologie heute zunehmend transparenter wird. Das sieht Berners-Lee als Voraussetzung für den intuitiven Umgang mit ihr. Er denkt diese Transparenz jedoch noch weiter: Computer und Netzwerke sollten seiner Ansicht nach völlig aus dem Weg gehen, da es letztendlich unwichtig ist, wo Information gespeichert wird. Die Daten und die Werkzeuge, um auf sie zuzugreifen sollten unabhängig voneinander sein – er nennt das das Konzept der Ortsunabhängigkeit. Ob Hypertext oder lokaler Ordner – beides sind für ihn gleichermaßen Informationen. Er ist auch der Meinung, dass Dateinamen verschwinden müssen und jede Datei eine andere Art von URL erhalten sollte.
Weiter kann er sich vorstellen, dass URLs komplett verschwinden und man nur noch Hyperlinks sieht.13

Diesen Ansatz halte ich für spannend sowie in seiner Argumentation richtig. Eine Vorstellung davon wie das aussehen könnte, habe ich jedoch nicht. Hierfür müsste sich die komplette Ordnerstruktur auflösen, an der wir in unserer analogen Denkweise festhalten. Grundsätzlich wäre dieser Ansatz genau der richtige, um Daten nicht selbst vorzusortieren, sondern diese Arbeit den »Verbindungen« und einer anderen Art der Kategorisierung zu überlassen. Jedoch stelle ich mir die Sortierung insofern schwierig vor, dass beispielsweise bei der grafischen Arbeit auf lokale Daten zugegriffen werden muss. Zum einen werden dabei nicht alle möglichen Suchergebnisse über dieses Thema oder den Kunden benötigt, zum anderen ist hier eine zeitliche Abfolge in der Dateistruktur sehr wichtig. Zudem kann ich mir vorstellen, dass sich die grafische Nutzeroberfläche, die sehr intuitiv angelegt ist, dadurch grundlegend ändert.

Der Begründer des World Wide Webs sah das Web selbst noch nicht als universellen Informationsraum an. Daten sind auf verschiedenste Art und Weise getrennt voneinander gespeichert und oft nicht in Beziehung gesetzt. Hier kommt das semantische Web ins Spiel, welches auch als Web 3.0 bezeichnet wird. Dabei geht es darum, maschinenlesbare Formate zu nutzen, um den Algorithmen zu ermöglichen, nicht nur stichwortartige, sondern auch kontextuale Zusammenhänge erschließen zu können. Als grundlegenden Baustein nennt er RDF, das Resource Description Framework, das auf XML basiert und logische Aussagen über Dinge trifft. Er nennt das Beispiel, dass durch logische Schlussfolgerungen maschinell erkannt werden kann, dass »Mittlere Tagestemperatur« dasselbe wie »Tagesdurchschnittstemperatur« bedeutet. Das Marktforschungsunternehmen Gartner vermutet in einer Präsentation aus dem Jahr 2007, dass 2017 die meisten Webseiten mit einer Form von semantischem Hypertext ausgestattet sind.14 Inwieweit das semantische Web tatsächlich da ist, kann ich momentan aber weder beurteilen noch sicher herausfinden.

Das semantische Web wird uns dabei helfen, die unzähligen Informationen aus dem World Wide Web zu filtern – ohne maschinelle Hilfe wäre das für uns Menschen zwischenzeitlich unmöglich. Tim Berners-Lee ist davon überzeugt, dass der Computer uns bei der Lösung großer analytischer Probleme helfen wird und hält es für wichtig, dass das Web den Menschen dabei unterstützt, sowohl intuitiv als auch analytisch zu sein. Unsere Gesellschaft benötigt beide Funktionen.15
Zudem ist er sich sicher, dass die Menschheit durch die Zusammenarbeit mit Maschinen nur profitieren kann. Er nennt das World Wide Web als Ort, wo Mensch und Maschine in einer idealen, kraftvollen Mischung koexistieren werden.16
Diese Ansicht teil auch Michael Dertouzos in seinem Vorwort. Er glaubt entgegen vieler Menschen, die davon überzeugt sind, dass Technologie uns entmenschlicht, dass sie ein untrennbares Kind der Menschheit ist. Mensch und Maschine müssen für echten Fortschritt Hand in Hand gehen, ohne dass einer als Diener des anderen handelt.17
Mit dieser Thematik habe ich mich bereits in »Die 4. Revolution« befasst und auch ich bin überzeugt davon, dass wir mit der richtigen Nutzung der jeweils stärkeren Potenztiale eine völlig neue Entwicklungsstufe erreichen und eine wunderbare Koexistenz von Mensch und Maschine führen können.

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 6.
  2. Vgl. Ebd., S. 5.
  3. Vgl. Ebd., S. 10.
  4. Vgl. Ebd., S. 3.
  5. Vgl. Ebd., S. 99.
  6. Vgl. Ebd., S. 36.
  7. Vgl. Ebd., S. 206.
  8. Vgl. Ebd., S. 15.
  9. Vgl. Ebd., S. 201.
  10. Vgl. Ebd., S. 163.
  11. Vgl. Ebd., S. 158 f.
  12. Vgl. Ebd., S. 159 f.
  13. Vgl. Ebd.
  14. Vgl. Gartner Report: »Finding and Exploiting Value in Semantic Web Technologies on the Web« 2007, in: Herman, Ivan: »What is being done today?«, Stand: 14.12.2009, URL: https://www.w3.org/2009/Talks/1214-Darmstadt-IH/Applications.pdf, S. 3, abgerufen am 18.2.2017.
  15. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 201.
  16. Vgl. Ebd., S. 158.
  17. Vgl. Ebd., S. IX.

Technologie als Basis gestalterischer Möglichkeiten

Das World Wide Web ist noch jung und viele Technologien sind noch immer nicht ausgereift. Neue stehen dagegen schon in den Startlöchern und ich bin gespannt, wie sich einige Fragen zukünftig nochmal völlig neu stellen werden.

Innerhalb des Video-Tutorials »Learning HTML5 Video« auf lynda.com erläutert Tom Green in »A short history of web video« die Entwicklung von Videos im Web seit Mitte der 90er Jahre. Während schon nach 1995 die ersten Medienschnipsel in Form von Soundtracks oder Audio-Broadcasts ins Netz gelangten, kam das Video-Format erst zwischen 1996 und 2000 an.1 Sämtliche Unternehmen versuchten anschließend einen geeigneten Video-Player anzubieten und die für mich persönlich bekannteste Lösung war letztendlich ein Plug-In für den Adobe Flash Player.

Laut einer Statistik innerhalb des Artikels »Bye Bye Flash« von Mathias Brandt, nutzten 2011 immerhin noch 50 % aller Webseiten Flash.2

Fakten dieser Art finde ich insofern wichtig, dass ich es immer wieder erstaunlich finde, wie kurz die Geschichte des Webs ist und was tatsächlich erst in den letzten Jahren möglich wurde. Sich das immer wieder ins Gedächtnis zu rufen und seine eigene Denkweise dahingehend zu schärfen, finde ich essenziell, um ein Bewusstsein dafür zu entwickeln, wie sich das Web grafisch, inhaltlich und kulturell verändert hat und verändern könnte. Sämtliche Inhalte nehmen wir als selbstverständlich wahr, obwohl es die Technologie nach wie vor nicht zulässt, alle Inhalte völlig plattformunabhängig zu entwickeln. Je größer die technischen Möglichkeiten sind, umso befreiter kann man auch gestalten, selbst wenn dadurch kreative Umwege in den Hintergrund geraten könnten. Auf der anderen Seite werden die technischen Möglichkeiten auch auf das Bedürfnis der Schaffenden angepasst und evolviert. Daher gehe ich davon aus, dass sich das World Wide Web in den nächsten Jahren noch einmal massiv verändern wird. Zum einen kann man mit immer weniger Einschränkungen das Medium an sich noch besser nutzen, zum anderen stehen schon neue Technologien in den Startlöchern. Vor allem die Verbreitung von Voice Interfaces oder WebVR sehe ich als sehr spannend an, da sich hier die Frage nach grafischen Benutzeroberflächen nochmal völlig neu stellen könnte.

Quellen
  1. Vgl. Green, Tom: »Learning HTML5 Video«, »A short history of web video«, URL: https://www.lynda.com/HTML-tutorials/Up-Running-HTML5-Video/135356-2.html, TC: 00:00:10–00:02:30, abgerufen am 2.2.2017.
  2. Vgl. Brandt, Mathias: »Bye Bye Flash«, Infografik, URL: https://de.statista.com/infografik/3798/flash-nutzung-von-webseiten/, abgerufen am 2.2.2017.

Ursprung der Codes: Die gesprochene Sprache

Die westliche Kultur befindet sich im großen Umbruch, ausgelöst durch die Fortschritte der Technologie. Veränderte Koden, verändern unsere Art zu denken grundlegend. Wie sieht die Zukunft aus?

In meinen vorherigen Beiträgen »Das globale Dorf – Raum, Zeit und Dynamik« sowie »Von der Kultur, die statisch wurde« setzte ich mich bereits mit der Tatsache auseinander, dass die Linearität das Denken in unserem Kulturkreis maßgeblich beeinflusst hat. Meine abschließende Erkenntnis war die, dass sich diese Linearität aufzulösen scheint und unsere Lebenswelt weniger festgezurrt und dynamischer wird.
Sicher wird die Zukunft unserer Kultur durchweg von Algorithmen bestimmt, die sehr wohl eindeutig sind. Jedoch wird das Denken des Menschen sehr viel flexibler sein und grundlegend verändert werden.

Vilém Flusser bringt in Bezug darauf beispielsweise vor, dass wir »nicht mehr Daten zu lernen haben, sondern das zweckmäßige Speichern, Abberufen und Variieren von Daten. Nicht mehr das Repertoire, sondern die Struktur von Systemen. Dieses Prozessieren von Daten, das bisher von der Notwendigkeit der Datenerwerbung gebremst war, heißt ›Kreativität‹, und es ist daher mit einer wahren Explosion der menschlichen Kreativität zu rechnen«1.

Dieser Ansatz Flussers ist vor 30 Jahren schätzungsweise revolutionär, heute im Jahr 2017 sind wir schon mitten im Umbruch. Die Denkweise in unserem Kulturkreis wird bereits auf das Verstehen von Strukturen getrimmt, während wir wissen, dass wir beispielsweise nichts mehr zwingend auswendig lernen müssen. Alles ist abrufbar, die Suchmaschine Google ist nur ein beispielhaftes Werkzeug hierfür. Man muss nicht mehr die Information selbst kennen, es genügt zu wissen, wie wir sie abrufen können. Diesen Ansatz habe ich bereits in diversen Beiträgen verfolgt und halte ihn nach wie vor für eine der grundlegendsten Veränderung unserer Zeit. Dieser Fortschritt der Technologie, unterstützt weiter die Aussage Flussers, dass jede Revolution technisch ist.2 Nicht irgendeine Ideologie, sondern die Technik veränderte unsere Lebenswelt und unser Denken in den letzten Jahrzehnten entscheidend.

Eine weitere maßgebliche Veränderung wird laut Flusser durch die Veränderung der Koden ausgelöst: »Die Veränderung wäre tiefgreifend, weil unser Denken, Fühlen, Wünschen und Handeln, ja sogar unser Wahrnehmen und Vorstellen, in hohem Grad von der Struktur jenes Codes geformt werden, in welchem wir die Welt und uns selbst erfahren. Wir sind ›westliche Menschen‹, weil unsere ›forma mentis‹ von der Linearität des alphanumerischen Codes ausgebildet wurde. Sollten unsere Kinder und Enkel die Welt und sich selbst mittels anders strukturierter Codes (etwa mittels technischer Bilder wie Fotos, Filme und Fernsehen, und mittels Digitalisation) erfahren, dann wären sie anders in der Welt als wir es sind, und als es unsere Vorfahren waren«3. Dieser Aussage möchte ich ein weiteres Zitat zur Auseinandersetzung hinzufügen: »Nun verfügen wir, seit Urzeiten, über einen Code, nämlich über die gesprochene Sprache, welcher diese Aufgabe leistet«4.

Koden dienen grundsätzlich der Kommunikation, aus meiner Sicht unabhängig davon, ob zwischen Menschen oder Menschen und Maschinen. In »Conversational User Interfaces« und »Natural User Interfaces – Die unsichtbaren Schnittstellen« sehe ich daher Ansätze, die seine Denkweise nicht nur bestätigen, sondern weit darüber hinaus gehen. Zudem werden Voice User Interfaces (VUI) immer populärer. Mit VUIs erhalten wir meiner Ansicht nach nicht nur eine zusätzliche Art der Mensch-Maschine-Kommunikation, sondern wir kommen zurück zum ursprünglichen Code – der gesprochenen Sprache.
Insgesamt drängt sich mir hier die Frage auf, wie zukünftige User Interfaces aussehen könnten, wenn sie denn überhaupt noch »aussehen«. Amazons Alexa oder Apples Siri sind nur zwei Beispiele für ein sprachgesteuertes Gerät bzw. sprachgesteuerten Assistenten. Während Siri auch visuell reagiert, existiert Alexa ausschließlich auf der auditiven Ebene. Unter dem Strich können Alexa und Siri alle Fragen gestellt werden.
Mein Problem damit ist momentan noch das, dass ich mir nicht vorstellen kann, wie eine Welt basierend auf Audio Interfaces aussehen könnte. Nach meinem Verständnis müsste man zumindest wissen, welche Informationen vorhanden sind, um die entsprechende Antwort zu erhalten. Ein reines Stöbern oder zufälliges auf Informationen stoßen wären damit ausgeschlossen. Daher stellt sich die nächste Frage, inwiefern Audio Interfaces tatsächlich andere Interfaces ersetzen und ob sie nur als zusätzliche Variante dienen könnten.

Quellen
  1. Röller, Nils; Wagnermaier, Silvia (Alle Hg.): »absolute Vilém Flusser«, Freiburg 2003, S. 171.
  2. Vgl. Ebd., S. 157.
  3. Ebd., S. 71.
  4. Ebd., S. 74.
Abbildungen
  1. Titelbild: Lecourt, Pierre: »Amazon Echo«, abgerufen am 7.11.2016, Lizenz: CC BY-NC-SA 2.0.

CUI – Conversational User Interface

Welche Vorteil bietet das Conversational User Interface zu graphischen Benutzeroberflächen? Sind Einkäufe innerhalb von Messenger-Diensten tatsächlich die Zukunft?

Welchen Vorteil bietet das Conversational User Interface gegenüber graphischer Benutzeroberflächen? Sind Einkäufe innerhalb von Messenger-Diensten tatsächlich die Zukunft? Durch diverse Artikel im Internet bin ich auf Conversational User Interfaces aufmerksam geworden. Was sich auf den ersten Blick spannend anhört, möchte ich im zweiten Schritt genauer überprüfen. Daher möchte ich mich im kommenden weiter mit CUIs auseinandersetzen und innerhalb meiner Dokumentation davon berichten.