John Underkoffler, welcher unter anderem ein Interface für den Minority Report entwickelt hat, hält einen TED-Talk über die Zukunft der Interfaces.
Ein wichtiger Standpunkt, den er vertritt, ist der, dass wir uns grundlegende Gedanken über neue Benutzeroberflächen machen müssen.1 Seit der Entwicklung des Macintoshs und dessen Benutzeroberfläche Anfang der 80er Jahre, hat sich auf technologischer Ebene unglaublich viel verändert. Nichtsdestotrotz arbeiten wir nach wie vor mit ähnlichen Systemen.2
Er führt den Raum als wichtige Komponente an, der Computer und deren Programmiersprachen verstehen die Geometrie der realen Welt jedoch nicht.3 In einem ersten Beispiel zeigt er, wie projizierte Objekte in realen Objekten verschwinden können.4 Er zeigt damit, wie virtuelle und nicht-virtuellen verschmelzen und erklärt, dass Eingabe und Ausgabe im selben Raum stattfinden. Er führt ein weiteres Beispiel an, welches ich besonders beeindruckend finde. Das System Urp für »urban planners« ist ein Werkzeug für Architekten, welche nun mit ihren eigenen Händen im realen Raum mit digitaler Unterstützung arbeiten können. Underkoffler spricht davon, dass den Architekten und Stadtplanern damit Modelle zurückgegeben werden, welche einst durch CAD-Systeme konfisziert wurden. Auf einer projizierten Oberfläche können beispielsweise Häusermodelle verschoben werden, welche Schatten werfen. Die Tageszeit wird dabei auf einer Uhr dargestellt, welche auch als reales Modell vorhanden ist, und die manuelle Veränderung der Zeit verändert gleichermaßen den Schattenwurf. Informationen, ob es beispielsweise Probleme mit der Baubehörde geben könnte, werden umgehend mit einbezogen.5
Diesen Anwendungsfall halte ich für ein gelungenes Beispiel, wie die Verbindung zwischen virtueller und nicht-virtueller Welt sinnvoll eingesetzt werden kann. Erstaunlich ist, dass diese »räumlichen Bedienumgebungen« bereits vor 15 Jahren im MIT und Media Lab entstanden sind.6
Ein weiteres Beispiel von Underkoffler halte ich dagegen für nicht allzu anwendbar. Ihm werden auf der Leinwand (in der realen Arbeitsumgebung vermutlich kleiner) Bilder angezeigt, welche er mithilfe eines Bedienhandschuhs frei anordnen kann. Er navigiert durch die Galerie, zoomt rein und raus und zeigt Beispiele, wie die Bilder auf verschiedene Arten, z.B. nach Farbe, sortiert werden können.7 Er zeigt, wie Bilder einfach per Handbewegung auf andere Bildschirme geschoben werden können, was vor allem bei der Kollaboration verschiedener Teammitglieder spannend ist.8
Das System an sich halte ich grundsätzlich zwar nicht für schlecht, bei der Bedienung frage ich mich jedoch, ob sie alltagstauglich ist. Mit Blick auf die Zukunft und möglicher Interfaces, sehe ich mich nicht den ganzen Tag wild gestikulierend vor einer projizierten Fläche. Ich bin überzeugt davon, dass Interfaces zunehmend den Körper mit einbinden und halte die direkte Arbeit mit Händen auch grundsätzlich für sinnvoll. Aber diese Art von Bedienung sehe ich eher in zeitlich begrenzenden Umgebungen, wie beispielsweise innerhalb einer Präsentation.
Quellen
- Vgl. Underkoffler, John: »Pointing to the future of UI«, URL: https://www.ted.com/talks/john_underkoffler_drive_3d_data_with_a_gesture, TC: 00:01:07–00:02:03, abgerufen am 26.2.2017.
- Vgl. Ebd., TC: 00:00:12–00:01:07.
- Vgl. Ebd., TC: 00:01:07–00:02:03.
- Vgl. Ebd., TC: 00:02:03–00:02:26.
- Vgl. Ebd., TC: 00:04:15–00:05:20.
- Vgl. Ebd., TC: 00:05:20–00:06:29.
- Vgl. Ebd., TC: 00:07:18–00:08:31.
- Vgl. Ebd., TC: 00:09:50–00:10:56.
Abbildungen
- Eigener Screenshot; Underkoffler, John: »Pointing to the future of UI«, URL: https://www.ted.com/talks/john_underkoffler_drive_3d_data_with_a_gesture, TC: 00:10:22, abgerufen am 26.2.2017.