Kampf gegen Filterblasen und Fake News  "Wir können den Hass nicht mehr unsichtbar machen"

Bild von David  Weinberger
Philosoph

Expertise:

David Weinberger ist ein US-amerikanischer Redner, Autor und Philosoph zum Thema Internet. Er forscht an der Universität Harvard. Er beschäftigt sich insbesondere mit der Frage, wie das Internet menschliche Beziehungen, Kommunikation und Gesellschaft verändert.

Filterblasen und Fake News können unsere Gesellschaft verbessern, wenn wir richtig mit ihnen umgehen, meint Harvard-Philosoph David Weinberger. Im Interview erklärt er wieso Facebook nicht am Gemeinwohl interessiert und unser Verstand eine permanente Echokammer ist. 

Nach dem Wahlerfolg von Donald Trump werden Filterblasen und Echokammern eine Mitschuld an der gespaltenen Gesellschaft und dem Erfolg radikaler Politik gegeben. Zu Recht?
Ich finde es schwierig ein komplexes politisches Ereignis auf einen Faktor runterzubrechen. Filterblasen spielen bestimmt eine Rolle, aber ich weiß nicht wie man ihren Anteil an dieser Situation genau messen will. Diese  ganze Diskussion führt in die Irre.

Wir lebten früher in noch kleineren Filterblasen

zustimmen
ablehnen
Ergebnis
Debattenübersicht

Wie meinen Sie das?
Jetzt debattieren wir alle über das Aufkommen von Filterblasen als Ursache für unsere gespaltene Gesellschaft. Wir vergessen aber, dass die Bandbreite an verfügbaren Meinungen vor dem Internet winzig war. Die etablierten Medien von damals waren auch eine Filterblase – sie war nur deutlich professioneller und vertrauenswürdiger, weil sie von ehrwürdigen Männern dominiert wurde. Damals wäre niemand auf die Idee gekommen, von Filterblasen zu reden. Niemand war sich des gesamten Meinungsspektrums bewusst, das wir heute kennen. Man las nur eine Zeitung und tauschte sich auch nur mit dem unmittelbaren sozialen Umfeld aus. Es stimmt, dass wir heute in Filterblasen gefangen sind – waren wir aber auch schon früher, in deutlich kleineren sogar.

Das Internet hat uns gezeigt, dass es andere Meinungen gibt, hält uns aber in unserer eigenen gefangen?
Ein wachsender Anteil der Bevölkerung hat sehr gefährliche Ansichten. Dieser Anteil war immer schon da, aber er ist stetig gewachsen. Vor dem Internet waren wir uns dessen nicht bewusst. Dieser Teil der Gesellschaft wurde ausgefiltert. Heute begegnet man diesen Menschen in den sozialen Netzwerken. Sie sind für jeden sichtbar geworden. Wir können den Hass nicht mehr unsichtbar machen. Vor dem Internet waren Filterblasen das Resultat der Ablehnung von radikalen Meinungen durch die etablierten Medien. Eine wohlwollende Elite veröffentlichte nur, was sie als positiv fürs Gemeinwohl betrachtete. Das ist heute grundlegend anders.

Facebook denkt nicht an das Gemeinwohl 

zustimmen
ablehnen
Ergebnis
Debattenübersicht

Weil Facebook und andere Plattformen andere Ziele verfolgen?
Ich denke, dass Facebook eine gewisse soziale Pflicht empfindet, aber ich bin nicht sicher ob sie unser aller Wohl im Sinne haben. Es gibt gute Gründe zu glauben, dass Facebook nur an unseren Klicks interessiert ist, ganz egal was geklickt wird. Sie handeln sehr libertär. Für Facebook steht der einzelne Nutzer im Fokus. Ihm gegenüber empfindet Facebook eine Verantwortung, nicht aber gegenüber der Gesellschaft an sich. Das Problem ist, dass der jeder einzelne nur an denen Inhalten interessiert ist, die das eigene Gedankengut widerspiegeln. Gesamtgesellschaftlich betrachtet wollen wir jedoch, dass es eine Vielfalt an Meinungen gibt. Facebook scheut sich davor hier Verantwortung zu übernehmen und die alte Rolle des Medien-Vermittlers zu übernehmen.

Ist das denn Facebooks Verantwortung? Gerade mit Hinblick auf Fake News stellt sich diese Frage ja.
Es geht bei Facebook nicht darum zu entscheiden, ob Fake News veröffentlicht werden sollen oder nicht. Facebook – genau wie Google – ist kein Verleger oder Medienhaus. Das ist also der falsche Ansatz um über dieses Problem nachzudenken. Facebook ist ein Filter, der auf Algorithmen basiert. Das Problem aber ist, dass sich Facebook zu einer der wichtigsten Medien-Plattformen entwickelt hat und das Volumen der Fake News auf Facebook sie zwingen, sich dem Thema anzunehmen. Filterblasen und Fake News sind bei einer Plattform wie Facebook unvermeidbar. Jetzt muss überlegt werden, wie man sie im Zaun halten kann.

Der weltoffene Bürger, der alle Meinungen gleich wertet, ist eine Fiktion

zustimmen
ablehnen
Ergebnis
Debattenübersicht

Was schlagen Sie vor?
Es sollte den Nutzern möglich sein Fakten auf Ihre Richtigkeit zu prüfen und Falschnachrichten zu markieren. Das hat Facebook nun auch vorgeschlagen, was mir Hoffnung macht. Auch sollte Facebook seine Algorithmen ändern. Diese sind so ausgerichtet, dass jeder Nutzer nur die Klickköder-Nachrichten angezeigt bekommt, die möglichst nah an den eigenen Vorstellungen dran sind. Das erzeugt die Klicks, von den Facebook abhängig ist. Es sollten uns aber auch Beiträge empfohlen werden, die etwas von unserer Meinung abweichen. Niemand wird Meinungen lesen mit denen man sich überhaupt nicht identifizieren kann. Die Meinungen die unsere eigene ändern können, sind meist nur marginal anders. Sie unterscheiden sich in ein paar Punkten von unserer Meinung, sind aber noch nah genug dran, um für uns interessant zu sein. Ich glaube die Nutzer würden es begrüßen herausgefordert zu werden. Es gibt also durchaus auch einen ökonomischen Anreiz für Facebook uns diese Argumente zu zeigen.

Gerade nach der US-Wahl wurde oft behauptet die liberale Elite hätte kein Verständnis für und keine Vorstellungen über die wütenden „Abgehängten“ der Gesellschaft. Kann denn diese Kluft überbrückt werden mithilfe sozialer Medien?
Wir im Westen glauben an den liberalen Mythos der weltoffenen Person, die alle Standpunkte gleich wertet. So funktioniert Verständnis aber leider nicht. Unser Gehirn nimmt das Neue oder Unverständliche auf und reiht die Informationen in unser bestehendes Verständnis ein. So erklären wir uns die Welt um uns herum. In der Kognitionspsychologie redet man von einem Bestätigungsfehler – die Neigung, Informationen so zu analysieren, dass sie die eigenen Erwartungen erfüllen. Es ist aber kein Fehler, sondern ein Merkmal unseres Denken. Wer einen komplexen Sachverhalt verstehen will, lässt ihn sich zuerst von Quellen erklären, die die eigene Meinung vertreten. Das ist völlig rational. Wenn Erkenntnis wirklich die Synchronisation von neuer Information und existierenden Denkmustern ist, kann Erkenntnis nur eine Echokammer sein. Genau deshalb wird es fast unmöglich werden die beiden Lager der Gesellschaft zusammenzuführen.

Fake News gehören markiert, nicht verboten

zustimmen
ablehnen
Ergebnis
Debattenübersicht

Es wird gerade viel Druck auf Facebook ausgeübt, schärfer gegen Fake News vorzugehen. Leider ist nicht immer klar, wo dieser Begriff anfängt und endet. Auch Satire ist eine Falschnachricht. Wo zieht man die Linie?
Man wird nie hunderprozentig sicher sein, aber ich glaube es ist offensichtlich was Satire ist und was Fake News. Satire verfolgt andere Ziele. Satire will nicht geglaubt werden. Sie ist so absurd, dass ihre Falschheit offensichtlich ist. Fake News zielen darauf ab, Meinungen zu verändern oder zu verstärken und Profit abzuwerfen. Facebook sollte Fake News nicht verbieten, wie es oft gefordert wird, sondern markieren. Es sollte klar sichtbar gemacht werden, dass diese Beiträge von Lesern entlarvt wurden. Ich will nicht, dass ein paar Auserwählte im Silicon Valley entscheiden, was echt und was falsch ist. Das ist das alte, elitäre Zensur-Modell. Ich bin froh, dass Facebook sich nun auch für diesen Weg entschieden hat. 

Sie fordern auch mehr Engagement von den Nutzern?
Das Internet zwingt uns dazu ein besseres Medienverständnis zu haben. Wir können nicht mehr naiv sein und alles glauben. Vor dem Internet konnte man leichtgläubig sein und die Informationen annehmen, die man gefüttert bekam. Das geht nicht mehr, es würde ins Desaster führen. Vielleicht ist das eine positive Nebenwirkung der Filterblasen und der Fake News: sie erinnern uns daran wachsam und kritisch zu sein und können somit Teil unserer moralischen und intellektuellen Evolution sein. 

Das Interview führte Max Tholl 

Sie können an dieser Stelle derzeit keinen Kommentar schreiben.