Herausforderungen der Zivilgesellschaft

Der Artikel »Five things we’ve learned about the future of digital rights« präsentiert fünf zentrale Thesen, die sich in einer Diskussion von führenden Experten des »Stockholmer Internet Forums« herauskristallisiert hatten. In der Gesprächsrunde ging es darum wie sich die Zivilgesellschaft den Herausforderungen stellen kann, welche neue Technologien mit sich bringen. Dabei waren Themen wie Cybersicherheit, Kontrolle personenbezogener Daten oder algorithmischen Transparenz im Vordergrund.

Der Artikel »Five things we’ve learned about the future of digital rights« präsentiert fünf zentrale Thesen, die sich in einer Diskussion von führenden Experten des »Stockholmer Internet Forums« herauskristallisiert hatten. In der Gesprächsrunde ging es darum, wie sich die Zivilgesellschaft den Herausforderungen stellen kann, welche neue Technologien mit sich bringen. Dabei waren Themen wie Cybersicherheit, Kontrolle personenbezogener Daten oder algorithmische Transparenz im Vordergrund.1

Als erste These wird aufgeführt, dass Regierungen das Internet bedrohen, sobald es vom Internet bedroht wird. Gbénga Sèsan klärt auf, dass in Ländern teilweise das komplette Internet durch die Regierung abgeschaltet wird, um unrechtmäßig Kontrolle auszuüben. Häufig werden Hassreden oder Fehlinformationen als Ausrede vorgeschoben.2 Die Kontrolle einzelner, vor allem durch die Regierung oder Unternehmen, widerspricht dabei grundsätzlich der Vision des Erfinders des Internets.

Lisa Garcia führt die zweite These an, welche sich damit auseinandersetzt, dass sich Regierungen gezielt in Online-Diskussionen einklinken und versuchen sie zu steuern. Während des Wahlkampfs auf den Philippinen gab es sogar eine »Armee von Tastaturkriegern«, welche offiziell viele Botschaften verbreitet und Kritiker und Journalisten belästigt hat. Sie hält daher Medienkompetenz, vor allem für Leute, die zum ersten Mal online sind, für extrem wichtig.3

Die dritte These betrifft vor allen Dingen das Internet der Dinge. Wenn alles mit allem verbunden ist, werden komplexe ethische Fragen aufgeworfen. So muss es Lösungen geben, wer Zugang zu den Daten hat, wofür sie verwendet werden und wie sich die Entscheidung auf das Leben auswirkt.
Solana Larsen stimmt bedenklich, da zu große Komplexität lähmen kann. Daher ist es extrem wichtig, dass Experten die Menschen aufklären, damit sie zum einen das digitale Leben verstehen und zum anderen die Kontrolle übernehmen können.4

Malaviya Jayaram warnt davor, dass Länder mit niedrigen Einkommen zu Testgebieten werden. Westliche Praktiken werden dabei ohne die nötigen Schutzmechanismen übernommen. So war beispielsweise in Indien das Problem, dass Fingerabdrücke von landwirtschaftlichen Arbeiten aufgrund der Abnutzung der Finger nicht gelesen werden konnte und damit der Zugang zu wichtigen Dienstleistungen verhindert wurde.5

Die letzte These bringt Renato Rocha Souza hervor. Er setzt sich dafür ein, dass Algorithmen transparent sein müssen. Menschliche Entscheidungen, ob beispielsweise ein Darlehen vergeben wird oder wer zu Universität zugelassen wird, werden zunehmend von Algorithmen übernommen und dadurch massiv von den Vorurteilen der Entwickler sowie den nötigen Daten bestimmt. Das Problem ist dabei, dass man als Konsument kein Wissen darüber besitzt, was in den Berechnungen vorgeht. Damit könnte man die Technologie ablehnen oder ihr blind vertrauen.6

Die Thesen eröffnen mir den Weg für neue Gedanken. Es ist absurd, dass viele Länder noch immer keinen Zugang zum Web besitzen, während es für uns schon lange die größte Selbstverständlichkeit ist. Da ich davon überzeugt bin, dass unsere Entwicklung dadurch um ein vielfaches rascher vorangeht, klaffen die Welten dadurch noch weiter auseinander. Eine weitere Schwierigkeit sehe ich, ähnlich wie Garcia, in der fehlenden Medienkompetenz. Selbst der westlichen Welt fehlt hier sicher noch einiges an Kompetenz, doch konnte sie sich immerhin – parallel zur Erfindung des Webs – langsam an das neue Medium gewöhnen. Und trotz der anfänglichen Euphorie war die neue Welt im Web glücklicherweise überschaubarer und mit weniger Gefahren ausgestattet. Jemand, der nun zum ersten Mal online ist, wird sicher seine Probleme haben und zunächst sehr unkritisch mit dem Medium umgehen. Die Arbeit der World Wide Web Foundation beeindruckt mich daher sehr und ich hoffe, dass sie einiges damit bewegen kann.

Quellen
  1. Vgl. Garcia, Lisa; Jayaram, Malavika; Larsen, Solana; Sèsan, Gbénga; Rocha Souza, Renato, World Wide Web Foundation: »Five things we’ve learned about the future of digital rights«, URL: https://webfoundation.org/2017/05/5-things-weve-learned-about-the-future-of-digital-rights/, abgerufen am 14.6.2017.
  2. Vgl. Ebd., Absatz 3.
  3. Vgl. Ebd., Absatz 4.
  4. Vgl. Ebd., Absatz 5.
  5. Vgl. Ebd., Absatz 6.
  6. Vgl. Ebd., Absatz 7.

Die Verformung der Gesellschaft

In einem weiteren Beitrag über das Buch »Weaving the Web: The Original Design and Ultimate Destiny of the World« von Tim Berners möchte ich mich mit der gesellschaftlichen Bedeutung des World Wide Webs befassen. Dabei geht es mir momentan nicht darum, einen Einblick in sämtliche Einzelheiten zu geben, sondern grobe Eckpfeiler für meine weitere Recherche zu definieren. Die Recherche bezieht sich dabei vor allem auf die Jahre zwischen den Anfängen und der geplatzten Dotcom-Blase im Jahr 2000.

In einem weiteren Beitrag über das Buch »Weaving the Web: The Original Design and Ultimate Destiny of the World« von Tim Berners-Lee möchte ich mich mit der gesellschaftlichen Bedeutung des World Wide Webs befassen. Dabei geht es mir momentan nicht darum, einen Einblick in sämtliche Einzelheiten zu geben, sondern grobe Eckpfeiler für meine weitere Recherche zu definieren. Die Recherche bezieht sich dabei vor allem auf die Jahre zwischen den Anfängen und der geplatzten Dotcom-Blase im Jahr 2000.

Die Veröffentlichung des WorldWideWeb

Das »WorldWideWeb«-Programm (Browser) wurde im März 1991 erstmals innerhalb CERNs veröffentlicht, wobei nur Personen mit NeXT Computern Zugang hatten.1 Ursprünglich war das Web nicht für den privaten Gebrauch oder für Einzelunternehmen entwickelt. Während es zunächst für ein besseres Informationsmanagement innerhalb CERNs nützlich sein sollte, machten später auch Universitäten, Forscher und große Unternehmen davon Gebrauch.2
Meinem Eindruck nach waren die Anfänge ein regelrechter Kampf darum, die Wichtigkeit des WWW zu vermitteln. Ob schriftliche Ausarbeitungen oder die Präsentation auf einer Konferenz namens Hypertext im Dezember 1991: Durchweg schien sich die Begeisterung in Grenzen zu halten. Zum einen vermute ich, dass das Verständnis für diese Art von Informationsraum noch nicht weit genug ausgeprägt war – auch heute würde es uns schwerfallen, uns auf dem Papier ein Medium vorzustellen, das die nächsten Jahrzehnte maßgeblich verändern und umkrempeln könnte. Vor allem, wenn noch weitere nicht ausgereifte Systeme miteinander konkurrieren. Zum anderen war die Nutzung noch immer sehr beschränkt. Erst im August 1991 veröffentlicht Berners-Lee das WorldWideWeb für NeXT, einen Line-Mode Browser sowie den elementaren Server außerhalb von CERN.3 Selbst die Nutzung dieser Angebote war längst nicht intuitiv und einfach.

Erschwerter Zugang

Das Web verbreitet sich begrenzt in der Hypertext Community, doch obwohl es durch einen Telnet-Zugang grundsätzlich für Millionen von Menschen zugänglich gewesen wäre, hapert es an – aus heutiger Sicht – kleinen Problemen: Es war einfacher sich ab Oktober 1991 über das Telnet-Protokoll in die Kommandozeile eines anderen Computers innerhalb CERNs einzuwählen, als selbst einen Browser zu installieren. Nur langsam verbreitet sich das Web weiter und wird von Menschen rund um den Globus wahrgenommen. Das wichtigste war laut Berners-Lee, dass die Menschen, die das Web sahen und die unbegrenzten Möglichkeiten verstanden, damit begannen Server aufzusetzen und Informationen zu publizieren. Netterweise bekam er zu Beginn noch Nachrichten, wenn ein neuer Server aufgesetzt wurde.4

Cleverness schlägt Vermögen

Eine dringende Notwendigkeit war die Entwicklung eines tauglichen, systemübergreifenden Browsers, der nicht nur das Lesen von Informationen, sondern auch das Editieren zulässt. Ansätze lieferten 1992 die Browser Erwise (April), ViolaWWW (Mai) oder später Samba (Dezember). Letztendlich war kein Browser wirklich vollkommen oder systemunabhängig. Das führte zum Problem, dass den Menschen das Werkzeug fehlte, um wirklich gut zusammenarbeiten zu können. Das Web wurde zunehmend zu einem Medium, welches das Publizieren eher zulässt als eine vernünftige Zusammenarbeit. Das ironische, was Berners-Lee darin sah, war die Tatsache, dass unzählige Intranets entstanden. Solche zusammenzuschließen war jedoch der ursprüngliche Antrieb, welches das Bedürfnis nach einem ganzheitlichen Netz überhaupt entstehen ließ.5 Erst mit der Erscheinung von Browsern, wurden in immer kürzeren Abständen neue Server aufgesetzt. Ein Server über Rom während der Renaissance beeindruckt den Begründer dabei besonders. In Form eines virtuellen Museums inspiriert es viele weitere Webseiten – auch solch’ beeindruckende Veröffentlichungen begünstigten den Aufstieg des Webs.6

Nachdem im Februar 1993 die erste Version des Browsers Mosaic verfügbar war, gründete der Mitentwickler Marc Andreessen zusammen mit Jim Clark Mosaic Communications Corp. (später Netscape).7 Zunächst wird im Oktober 1994 der Browser Mozilla veröffentlicht8 und am 15.12.1994 die kommerzielle Version, die zwischenzeitlich zu Navigator 1.0 umbenannt wurde.

Das Besondere an der Veröffentlichung: Netscape veröffentlicht den Browser frei verfügbar über das Internet anstatt ihn einzutüten und zu verschicken. Zudem sind zwei weitere Ansätze wichtig: Zum einen ist die Veröffentlichung einer Beta-Version – an der hunderte Nutzer unentgeltlich weiterarbeiten und Verbesserungsvorschläge senden können – bis dahin nicht alltäglich. Zum anderen ist das Vermarktungs-Modell neu, etwas frei im Web anzubieten und erst nachträglich, durch z. B. andere Produkte oder Werbung auf der Startseite, Geld zu verdienen. Innerhalb weniger Monate nutzten die meisten Menschen im Web diesen Browser.9 Damit schlägt er zunächst den Internet Explorer, der erst später im August 1995 zusammen mit Windows 95 veröffentlicht wurde.10

Das Web kommt im Privaten an

Immer mehr Menschen nutzen das World Wide Web und schon zu Beginn des Jahres 1994 zeichnete sich ab, dass es zunehmend wahrgenommen wird. Allein von März bis Dezember 1993 stiegen die Webverbindungen innerhalb des Internets von 0,1 auf 2,5 %.11 Auch die Zugriffe auf info.cern.ch verzehnfachten sich in den ersten Jahren. Waren es im Sommer 1991 noch 100 pro Tag, betrug die Zahl der Aufrufe schon 10.000 im Sommer 1993.12 Im Jahr 1994 übersteigt zudem die Zahl der kommerziellen Nutzer die der wissenschaftlichen Nutzer, bei einer gesamten Zahl von rund drei Millionen Internet-Rechnern.13

Umso wichtiger war es nun, das WWW so einfach wie möglich zugänglich zu machen. Tim O’Reilly entwickelte dabei das Produkt »Internet in a Box«, welches den privaten Nutzer dabei unterstützen sollte, zu Hause Zugang zu erhalten. Es wurde jedoch überflüssig, da nun viele Internet-Service-Provider mit auf den Zug sprangen und den Eintritt als Komplettpaket ermöglichten. Dass Software und Service nun kommerzialisiert angeboten wurden, war ein bedeutender Schritt, da viele Menschen kein Interesse an der Nutzung haben würden, wenn sie nicht sicher sein konnten, dass alles Nötige von einem Unternehmen inklusive Support angeboten wird.14

Scheitern nicht ausgeschlossen

Trotz der wachsenden Zahl der Nutzer gab es schon 1993 erste Anzeichen dafür, dass das Web sich in einzelne Fraktionen aufteilt: In kommerzielle und akademische, freie und kostenpflichtige. Das würde Tim Berners-Lee ursprünglichem Ansatz widersprechen, ein universell zugängliches Hypertext-Medium für den Informationsaustausch zu sein.15 Auch 1994 hätte das Web laut ihm noch immer verschwinden oder von einem anderen System ersetzt werden können, noch immer hätte es zersplittert oder sein Wesen so sehr verändern können, dass es nicht mehr als universelles Medium existiert.16 Ein wichtiger Schritt war hier, dass Tim Berners-Lee das Web nicht sich selbst überlassen und beispielsweise mit monetärem Vorteil jeden Job seiner Wahl angenommen hat. Sondern sich weiter für seine Vision eingesetzt hat. Das W3C zu gründen und aus ihm heraus – gänzlich konzentriert auf die Sache – zu agieren, war hier ein wichtiger Schritt.17 Das Web selbst füllte sich zunehmend mit den verschiedensten Menschen, Organisationen und Unternehmen und das Konsortium würde gleichermaßen gemischt aufgestellt sein. Es sollte das »Web des Lebens« aufrechterhalten.

Money, Money, Money!

Ein weiterer entscheidender Einschnitt war der Börsengang von Netscape im August 1995. Nach nur einem Tag an der Börse war das Unternehmen 4,4 Milliarden Dollar wert und Ende 1996 verzeichnete das Unternehmen Einnahmen von 346 Millionen Dollar. Auf einen Schlag war die Botschaft klar: Das Web ist ein bedeutender Markt geworden, auf dem sich viel Geld verdienen lässt.18

Häufig wurde Tim Berners-Lee mit der Frage konfrontiert, ob ihn das sauer machen würde, dass man nun für einige Web-Angebote Geld zahlen müsste. Für ihn war die Community, die für freie Software sorge zwar fundamental und er sieht sie als Basis der Kreativität. Doch gleichermaßen sah er die partielle Kommerzialisierung als wichtigen Meilenstein für den Erfolg des Webs, ohne die das ganze Konzept nicht aufgegangen wäre. Um ein universelles Medium zu werden, musste es jede Informationen und Verlinkung zulassen. Das bedeutet, dass man kommerzielle Angebote nicht einfach ausschließen durfte.19 Zudem sieht er die Universalität auf jeder Ebene, die auch in der realen Welt existiert. Es musste auf verschiedenen Wegen mit verschiedenen Gruppen verschiedener Größen an verschiedenen Orten des täglichen Lebens funktionieren. Ob zu Hause, im Büro, Schulen, Kirchen, Ländern, Kulturen, etc. Informationen müssten jede soziale Grenze durchbrechen können.20 Dementsprechend war auch die Sorge, dass der bislang von Akademikern als offen und frei verstandene Informationsraum, von Spam-Mails und Werbung überflutet wird zwar verständlich, aber unbegründet.21

Ein Brösel des Kuchens

Während im Jahr 1996 bereits die erste Botschaft des »großen Geldes« versandt wurde, wurden die meisten Dinge noch immer von purer Aufregung und Euphorie angetrieben. Erst 1998 wurde das Web zum Schauplatz des großen Geschäfts und rückte auch in das Interesse der Regierung. Es wuchs der Wunsch das Web zu kontrollieren und jeder mischte sich ein, wo er nur konnte. Gegen Microsoft lief ein Kartellverfahren, der Wert der Internetfirmen stieg und es gab den sogenannten »Kampf der Portale« von Mammut-Webseiten wie Yahoo!, Dienstleister wie AOL oder Anbietern von Inhalten wie Disney.22 Jeder wollte das größte Stück des Kuchens abhaben. Vor allem die steigenden Marktwerte, der starke Expansionsdrang von Unternehmen und überhöhte Gewinnerwartungen führten letztlich 2000 zum Zerplatzen der großen Internetblase. Erwartungen wurden nicht erfüllt, Unternehmen waren nicht profitabel genug oder gingen bereits in Insolvenz. Während viele Kleinanleger und überschaubare Unternehmen zu viel Verluste einstrichen, steckten Teile der »New Economy« diesen Absturz jedoch weg und erreichten ganz neue Aufmerksamkeit. Dazu gehören beispielsweise amazon, eBay oder Google.

Kampf der Moral

Während die Unternehmen, um ihren Platz im Web kämpften, stemmten sich verschiedenste Gruppen – sei es mit religiösen Hintergrund oder z. B. Elterninitiativen – gegen verwerfliche oder schädliche Inhalte im Web.23
Es gab zwar verschiedene Ansätze das Problem zu lösen, doch zum einen stellte sich die Frage nach der Legitimität von Zensur.24 Zum anderen hätte eine Filterung von beispielsweisen pornographischen Inhalten teilweise auch dazu geführt, dass ungewollt andere Inhalte wie z. B. Informationen über Sexualerziehung oder Brustkrebs verbannt worden wären. Ohnehin sind Betrug und Kinder-Pornographie auch im realen Leben strafbar25 – dementsprechend müssten Gesetze nach Handlungen beschrieben werden, nicht in Bezug auf eine einzelne Technologie.26

Verformte Gesellschaft

Natürlich musste sich das Konsortium durchaus über die Auswirkungen auf die Gesellschaft, welche durch das Web geformt wird, Gedanken machen.27 So schreibt Berners-Lee, dass wir alle sicherstellen müssen, dass die Gesellschaft, die wir mit dem Web aufbauen, die von uns beabsichtigte ist. Weiter, dass sie in vielen ethischen, rechtlichen und sozialen Fragen zurückbleiben kann, wenn sich die Technologie zu schnell entwickelt.28 Letztendlich war es aber Aufgabe der Technologie bzw. des Mediums, technische Mechanismen anzubieten und nicht sozialpolitisch zu agieren. Technologie muss losgelöst davon sein, die Welt beherrschen zu wollen.29 Das betrifft unter dem Strich viele weitere Bereiche wie z. B. die Meinungsfreiheit, Privatsphäre oder geistiges Eigentum.30

Um die Gesellschaft zu schützen, sollten wir zudem vorsichtig sein, Dinge zu tun, nur weil sie möglich sind. Die Tatsache, dass es sehr kostengünstig machbar wäre, über politische Fragen im Web abzustimmen, bedeutet nicht, dass wir zwingend von einer repräsentativen zur direkten Demokratie wechseln müssen.31

Ferner hält Berners-Lee es für wichtig, dass das Web Parallelität zulässt. Das menschliche Gehirn übertrifft den Computer in seiner Parallelverarbeitung und auch die Gesellschaft löst die Probleme parallel. Jeder sollte daher in der Lage sein, Arbeiten zu veröffentlichen und zu kontrollieren, wer Zugang zu dieser erhält. Es sollte dabei keine Struktur oder Beschränkungen geben, die irgendeine Form von Idee ausschließt.32
Weiter können viele soziale Prozesse besser maschinell durchgeführt werden: Die Computer sind stets verfügbar, ohne Vorurteile und ohnehin würde keiner diese Systeme verwalten wollen.33

Abschließend ist es aus heutiger Sicht keine Überraschung, dass die Gesellschaft massiv vom World Wide Web verformt wurde. Unternehmen und Nationen wurden zuvor durch geographische Grenzen gebildet und das Web hat uns aus dem zwei-dimensionalen Raum katapultiert.34 Entfernungen sind nichtig geworden und die gesellschaftlichen Probleme sind zum Teil sicher andere geworden.
Doch obwohl wir nun von fast drei Jahrzehnten World Wide Web sprechen, scheinen viele Probleme, die Tim Berners-Lee schon 1999 beschreibt, nach wie vor zu bestehen. Noch immer herrschen riesige Diskussion über Datenschutz und Privatsphäre, noch immer landen unzählige illegale Inhalte im World Wide Web und noch immer – oder durch die Masse gerade jetzt – ist es unmöglich Inhalte zu »kuratieren«. Die weiteren Fragen, die daraus entstehen sind die, wer überhaupt das Recht hätte Inhalte zu zensieren oder wie Rechte generell durchzusetzen sind. Nimmt man Facebook als bekanntes Beispiel, wird einem bewusst, wie schwierig die Lage zu sein scheint. Grundrechte wie das »Briefgeheimnis« werden völlig missachtet und in vielen weiteren Punkten handelt Facebook entgegen dem deutschen Gesetz. Zum einen ist es ein massives Problem, dass das Web international ist, während es nichtsdestotrotz geographische Grenzen mit Gesetzen für diesen begrenzten Raum gibt. Zum anderen ist fraglich, wie solche limitierten Gesetze durchsetzbar wären. Als extremste Form könnte Facebook in Deutschland nicht verfügbar sein bis sich die Plattform an die Gesetze hält und die Rechte der Bürger anerkennt. Doch der Aufschrei wäre groß und ein Argument wäre, dass man immerhin selbst entscheiden kann, ob man Rechte abtritt – was wir immerhin tagtäglich tun. Noch immer scheint es so, als könnte man die Probleme, die im World Wide Web auftauchen, nicht in den Griff kriegen. Zudem ist es aus meiner Sicht so gut wie ausgeschlossen sämtliche Straftaten zu verhindern und auszuschließen. Immerhin ist das Web nicht mehr nur ein Spiegel der Gesellschaft, sondern ein Werkzeug, das wir nicht nur nutzen, sondern durch dass sich unser komplettes Leben verändert hat. Ein Werkzeug, das längst nicht nur ein Medium ist, in das wir bewusst eintauchen, sondern ein täglicher Begleiter. Das uns ständig umgibt und dessen Grenzen zur »realen« Welt verschwinden. Ein großer Kosmos informationeller Entitäten, dessen gesamtes Dasein grundsätzlich überdacht werden müsste.

Auf dieser Basis entstand mein ursprünglicher Titel »Digitale Primaten«. Zwar gehören auch Menschen zu den Primaten, aber im allgemeinen Sprachgebrauch klingt Primaten etwas rückständig. Aus meiner Sicht hinken wir noch immer der Technologie hinterher und sollte sie sich weiter so schnell entwickeln – was ich vermute – wird der Abstand größer und größer. Daher gilt es, so schnell wie möglich Lösungen zu finden, um das Zusammenleben zwischen Mensch und Maschine anzunähern und mit so wenig Hürden wie möglich zu gestalten.

Quellen
  1. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 4.
  2. Vgl. Ebd., S. 45.
  3. Vgl. Ebd., S. 46.
  4. Vgl. Ebd., S. 48.
  5. Vgl. Ebd., S. 56 f.
  6. Vgl. Ebd., S. 59.
  7. Vgl. Ebd., S. 82.
  8. Vgl. Ebd., S. 95.
  9. Vgl. Ebd., S. 99.
  10. Vgl. Ebd., S. 108.
  11. Vgl. Ebd., S. 80.
  12. Vgl. Ebd., S. 75.
  13. Vgl. »Chronologie des Internets« in: »Wikipedia, Die freie Enzyklopädie«, Stand: 3.3.2017, URL: https://de.wikipedia.org/w/index.php?title=Chronologie_des_Internets&oldid=173334077, abgerufen am 9.3.2017.
  14. Vgl. Berners-Lee, Tim; Fischetti, Mark (Hg.): »Weaving the Web – The Original Design and Ultimate Destiny of the World Wide Web«, New York 2000, S. 80 f.
  15. Vgl. Ebd., S. 76.
  16. Vgl. Ebd., S. 83.
  17. Vgl. Ebd., S. 84 f.
  18. Vgl. Ebd., S. 106.
  19. Vgl. Ebd., S. 107.
  20. Vgl. Ebd., S. 164.
  21. Vgl. Ebd., S. 107.
  22. Vgl. Ebd., S. 124.
  23. Vgl. Ebd., S. 124.
  24. Vgl. Ebd., S. 113.
  25. Vgl. Ebd., S. 135 f.
  26. Vgl. Ebd., S. 131.
  27. Vgl. Ebd., S. 110.
  28. Vgl. Ebd., S. 123.
  29. Vgl. Ebd., S. 137.
  30. Vgl. Ebd., S. 124.
  31. Vgl. Ebd., S. 174.
  32. Vgl. Ebd., S. 203.
  33. Vgl. Ebd., S. 172.
  34. Vgl. Ebd., S. 200.
Abbildungen
  1. Titelbild: Foto von Geni: »Photo of the NeXTcube used as the first web server. The label reads ›This machine is a server. DO NOT POWER IT DOWN!!‹. On display at the science museum london.«, Stand: 13.1.2015, via Wikimedia Commons, abgerufen am 13.3.2017, Lizenz: CC BY-SA 4.0 oder GFDL.

Zwischen Realität und Fiktion

Im Bereich transmedialer Erzählungen finde ich besonders das Verschwimmen von Realität und Fiktion spannend. Die parasoziale Kommunikation spielt dabei aus meiner Sicht keine unwichtige Rolle. Neben den möglichen Gefahren und der damit zu Grunde liegenden Verantwortung des Gestalters, eröffnen sich neue Möglichkeiten. Des Weiteren wird zukünftig die Medienkompetenz als solches eine immer größere Rolle spielen.

Im Bereich transmedialer Erzählungen finde ich besonders das Verschwimmen von Realität und Fiktion spannend.

Aus meiner Sicht fällt es heutzutage schwer, virtuelle Inhalte nicht mit fiktionalen zu verwechseln. Virtuelle, entmaterialisierte Gegebenheiten sind als Objekt nicht greifbar, stellen aber dennoch den – berechtigten – Anspruch real zu sein.  

Die Wirklichkeit kann laut dem Informationsphilosophen Luciano Floridi – weit gefasst – als Synonym der Infosphäre verwendet werden. Die Infosphäre beschreibt dabei den Raum, in dem alle informationellen Existenzen angesiedelt sind. Hierzu gehört der Mensch als informationelles Wesen, aber beispielsweise auch Interaktionen, Algorithmen und Prozesse.1 Die »virtuelle« Welt ist damit wirklich.

Ich beobachte in sozialen Netzwerken wie z. B. Facebook, dass wir Nutzer unser virtuelles Ich erstellen und entwerfen. Die digitalen Versionen unser selbst, die ich an dieser Stelle nicht nach Identität oder verzerrten Selbstbildern hinterfragen möchte. Einen viel entscheidenderen Faktor finde ich die „Nicht-Prüfbarkeit“ der Existenz des Gegenübers. Während Personen des öffentlichen Lebens teilweise verifiziert sind, trifft das – meiner Einschätzung nach – nur auf einen kleinen Teil der gesamten Community zu. Das bedeutet, wir müssen uns auf die Authentizität anderer und auf unsere eigene Einschätzung verlassen. Bei Freunden aus dem »realen« Leben ist das meiner Erfahrung nach kein Problem. Mit etwas Kritikfähigkeit sehe ich auch wenig Gefahr, dass einem Unbekannten blind vertraut wird. Mit einer Portion Naivität und gut durchdachten Anstrengungen des Gegenübers authentisch zu sein, kann es jedoch durchaus vorkommen, dass der Wahrheitsgehalt nicht in Frage gestellt wird.

An dieser Stelle möchte ich die parasoziale Kommunikation ins Spiel bringen, deren Einsatz ich im Bereich transmedialer Erzählungen besonders spannend finde.
Innerhalb dieses Formats kann diese Art der Kommunikation eine Interaktion zwischen dem Zuschauer und fiktiven Figuren aus Erzählungen sein. Der Aufbau einer solch‘ »vertrauten« Beziehung wird unter anderem durch soziale Netzwerke ermöglicht, in denen Figuren, die man immerhin schon aus einem anderen Format wie der Serie »kennt«, ein Profil besitzen. Bei Facebook beispielsweise posten sie nicht nur scheinbar selbst, sondern chatten aktiv mit den Nutzern. Sie reagieren damit unmittelbar auf den Zuschauer und verhalten sich aus technischer Sicht wie »normale Freunde« deren Posts man lesen, liken, teilen oder denen man private Nachrichten schreiben kann.2 Laut Dennis Eick werden die Figuren »Teil der sozialen Realität des Zuschauers«.3 Realität und Fiktion verschwimmen hier teilweise massiv.

Die parasoziale Kommunikation gibt es zwar nicht erst seit dem World Wide Web und den sozialen Netzwerken. Jedoch wird diese einseitige Beziehung aus meiner Sicht dadurch begünstigt, dass sich gewisse Dinge im Virtuellen nicht sonderlich voneinander unterscheiden. Aus technischer Sicht sind die Profile der Figuren und die der »wirklichen« Freunde erstmal gleich. Auch die Tatsache Fiktionales als Wirkliches darstellen zu wollen ist nichts Neues, kann aber innerhalb transmedialer Erzählungen sicher deutlich weiter gesponnen werden. Inwiefern das passieren kann, wird eine Fragestellung der kommenden Wochen sein.

Im Fall der crossmedialen Erzählung »About:Kate« (About: Kate ›Wann haben Sie bemerkt, dass Sie nicht mehr wissen, wer Sie sind‹ »)war die Resonanz in Facebook groß. Viele Zuschauer, die nicht verstanden hatten, dass es eine Inszenierung war, begannen ihr persönliches Leid in privaten Nachrichten zu schreiben. Neben dem großen Arbeitsaufwand für das Aufrechterhalten der Profile, bestand die Herausforderung darin, mit diesen Menschen richtig umzugehen. Denn immerhin war das Ganze nur eine Inszenierung und keine Einladung auf die Couch des Psychiaters. Letztendlich war es schwierig den Zuschauern klar zu machen, dass die Facebook-Figuren keine realen Gesprächspartner sind, wie die Regisseurin Janna Nandzik bei der Cologne Conference 2014 berichtet.

Zum einen stellt sich mir hier die Frage, wie viel moralische Verantwortung in den Händen von Gestaltern, Regisseuren, Produzenten und so weiter liegt, solche Interaktionen zu ermöglichen und einzubinden. Zum andern welchen Stellenwert eine gut entwickelte Medienkompetenz zukünftig haben wird, um klare Unterscheidungen zwischen realen und fiktionalen Inhalten treffen zu können. Denn auch der Zuschauer selbst hat aus meiner Sicht die verantwortungsvolle Rolle, kritisch mit neuen Medien umzugehen. Mit diesen und anderen Fragen möchte ich mich in den kommenden Monaten auseinandersetzen.

Auf Grundlage der bisherigen Recherche denke ich, dass durch das Vermischen der virtuellen und nicht-virtuellen Welten in einer Infosphäre, die Grenzen zwischen Realität und Fiktion immer schwammiger werden. Trotz der erwähnten Gefahren eröffnen sich damit aus meiner Sicht völlig neue Möglichkeiten der transmedialen – oder bis dahin anders benannten – Erzählung.

In einem weiteren Beitrag möchte ich mich der filmischen Immersion widmen, sowie der Immersion der virtuellen Realität, die meiner Ansicht nach sehr nahe an der parasozialen Kommunikation liegen.

Quellen
  1. Vgl. Floridi, Luciano: »Die 4. Revolution – Wie die Infosphäre unser Leben verändert«, Berlin 2015, S. 64.
  2. Vgl. Eick, Dennis: »Digitales Erzählen – Die Dramaturgie der neuen Medien«, Konstanz und München 2014, S. 47.
  3. Ebd.

Der digitale Wahn – Zwischen Medienkompetenz und Chaoskopf

Die technologische Entwicklung schreitet schneller voran als die anthropologische. Während aus meiner Sicht sicher ist, dass wir die Technologie nicht mehr einholen werden, stellt sich die Frage danach, welche Kompetenzen wir erlernen müssen, um mit dieser Entwicklung angemessen umgehen zu können.

»Der digitale Wahn«, herausgegeben von Bernhard E. Bürdek, versammelt eine Reihe von Essays verschiedener Autoren zu Themen im Bereich »Digitalisierung der Welt«.

Bürdek selbst beschreibt in seinem Essay »Der digitale Wahn«, dass die »anthropologische und technologische Entwicklung«1 nicht gleich schnell verläuft. Während die technologische Entwicklung rast, bleibt der Mensch auf der Strecke und dadurch entsteht laut ihm die »Problematik des ›Nicht-Verstehens‹ oder des nicht damit Umgehen können.«2

Obwohl die Sammlung bereits 2001 herausgegeben wurde, klingt die Problematik im Jahr 2015 noch immer sehr aktuell für mich und unter Umständen hat sie sich durch die ungleiche Entwicklung sogar zugespitzt. Die technologischen Entwicklungen werden immer unüberschaubarer und neben einer endlosen Masse, scheint auch die Komplexität der Entwicklungen für den Einzelnen nicht mehr greifbar zu sein.

Hans-Dieter Übler zitiert in seinem Essay »Learning by Surfing? – Digitale Lernmythen und Wissensillusionen« einen ZEIT-Artikel3, in dem es folglich heißt, dass die Schlüsselqualifikation der Zukunft Medienkompetenz sei.4
Auch wenn Medienkompetenz nicht gleichbedeutend mit einem allumfassenden Überblick ist, stellt sich mir hier die Frage, was Medienkompetenz heutzutage konkret bedeuten kann und ob eine »vollständige« Medienkompetenz für den Einzelnen überhaupt noch erreichbar ist.

Werden wir die Technologie wieder einholen oder zumindest den Umgang mit ihr erlernen?

Quellen
  1. Bürdek, Bernhard E.: »Der digitale Wahn« in: Bürdek, Bernhard E. (Hg.), »Der digitale Wahn«, Frankfurt am Main 2001, S. 207.
  2. Ebd.
  3. Vgl. Rüttgers, Jürgen: »›Eine Ära geht zu Ende. Das muß auch die Schule lernen und lehren.‹ Lernen in der Medienwelt – die Position von Bundesbildungsminister«, Stand: 19.9.1997, URL: http://www.zeit.de/1997/39/contra.txt.19970919.xml, abgerufen am 6.10.2015.
  4. Vgl. Übler, Hans-Dieter: »Learning by Surfing? – Digitale Lernmythen und Wissensillusionen« in: Bürdek, Bernhard E. (Hg.), »Der digitale Wahn«, Frankfurt am Main 2001, S. 147.