Hassbotschaften: Wie repariert man die Debatte im Netz? Wie uns das Netz "nasty" werden lässt - und was wir dagegen tun können

Bild von Ingrid Brodnig
Autorin, Medienredakteurin bei "Profil"

Expertise:

Ingrid Brodnig ist Autorin und Medienredakteurin beim österreichischen Nachrichtenmagazin "Profil". Im April 2016 erschien von ihr "Hass im Netz. Was wir gegen Hetze, Mobbing und Lügen tun können". Sie ist außerdem Autorin von "Der unsichtbare Mensch. Wie die Anonymität im Internet unsere Gesellschaft verändert".

Die Autorin und Journalistin Ingrid Brodnig über erstaunliche Forschungsergebnisse zu den Ursachen der Polarisierung im Netz und über wirksame Gegenmittel.

Das Internet ist nicht Ursache von Aggression und Polarisierung, aber ein Katalysator.

zustimmen
ablehnen
Ergebnis
Debattenübersicht

Es wäre natürlich ein Unsinn, so zu tun, als sei das Internet die Ursache für Aggression oder als sei der Grund für die Polarisierung in unserer Gesellschaft die Digitalisierung. Ich bezweifle das. Sehr wohl aber ist das Internet wie ein Katalysator für viele Entwicklungen. Wir können online tatsächlich beobachten, dass ein besonders rauer Ton herrscht. Es ist im Internet anscheinend leichter, verletzende Dinge zu sagen – oder genauer gesagt: Diese in die Tastatur oder das Smartphone einzutippen.

Im Netz fehlen wesentliche empathiefördernde Signale: Mimik, Gestik, Augenkontakt. Das reduziert Hemmungen.

zustimmen
ablehnen
Ergebnis
Debattenübersicht

Genau darum geht es. Die verschriftlichte Kommunikation ist Teil des Problems: Denn bei dieser fallen wesentliche empathiefördernde Signale weg: Mimik, Gestik, Augenkontakt.

Wenn ich mir online wünsche, dass alle Flüchtlinge vergast werden, dann muss ich dabei keinem Flüchtlingskind in die Augen sehe. Wenn ich einer Frau in einem Facebook-Chat ausrichte, sie gehöre vergewaltigt, dann muss ich ihre Reaktion dabei nicht aus nächster Nähe beobachten: Man sieht nicht, was die eigenen Worte anrichten, wie jemand verletzt den Blick abwendet oder gar Tränen in den Augenwinkeln hat.

Dass man sein Gegenüber online nicht sieht, wird als „Unsichtbarkeit“ im Internet bezeichnet. Diese Unsichtbarkeit ist einer der Faktoren, warum Menschen online weniger Hemmungen haben, warum sie oft so grob zueinander sind. Speziell der Augenkontakt scheint eine bedeutende empathiefördernde Rolle zu spielen. Dies legt auch eine Studie der israelischen Forscher Noam Lapidot-Lefler und Azy Barak nahe. Sie zeigte: Wenn Menschen via Webcam Augenkontakt haben, fallen in Onlinediskussionen deutlich weniger Beleidigungen und Drohungen.

In digitalen Echokammern erhalten Menschen Informationen, die ihrer Weltsicht entsprechen. Das fördert Radikalisierung.

zustimmen
ablehnen
Ergebnis
Debattenübersicht

Die Unsichtbarkeit ist der eine wesentliche Grund, warum wir online so viel Wut erleben. Der zweite ist, dass sich Menschen im Netz in ihre Wut richtig hineinsteigern können. Wir können sogar eine Radikalisierung mancher Bürger beobachten.

An sich ist eine der wunderbarsten Facetten des Internets, dass man dort Information ganz nach dem eigenen Geschmack erhalten kann, dass man Gleichdenkende leichter ausfindig macht. Egal, ob man sich für italienische Literatur aus dem 17. Jahrhundert oder für Videos von herumstänkernden Katzen interessiert, man wird online Seiten hierzu finden. Das ist das Schöne am Internet. Problematisch wird dies aber, wenn mit dieser Möglichkeit zur Spezialisierung auch eine Abschottung einhergeht. Wenn Menschen sich in eine digitale Echokammer zu begeben, in der sie hauptsächlich jene Information erhalten, die ganz ihrer Weltsicht entspricht, und sich in erster Linie mit Gleichdenkenden austauschen. Wie ein Echo hallt die eigene Meinung dann online zurück. 

Diese Echokammern gibt es. Sie sind sogar schon messbar. Italienische Wissenschaftler Labor für Computational Social Science in Lucca, Italien, konnten in einer großen Untersuchung bereits aufzeigen, dass es solche Echokammern gibt. Sie analysierten dafür das Nutzungsverhalten auf Facebook: Konkret werteten sie sämtliche Beiträge in den vergangenen fünf Jahren von 32 Fanpages zu Verschwörungstheorien aus sowie von 35 Seiten, die wissenschaftliche Neuigkeiten verbreiten. Es zeigte sich, dass die Anhänger von Verschwörungstheorien großteils unter sich bleiben. Dies führt laut den Forschern zu „einer starken Vermehrung von voreingenommenen Sichtweisen“. Es gibt sozusagen Echokammern der Angst und der Wut, in denen sich Internetnutzer gegenseitig auch noch anfeuern.

Doch wie können wir auf all dies reagieren?

In meinem Buch „Hass im Netz“ habe ich einige Reaktionsmöglichkeiten beschrieben. Ich will drei davon kurz darstellen:

Wir brauchen schimpfwortfreie Diskussionsräume. Schimpfworte polarisieren nachweislich - die Mitte geht verloren.

zustimmen
ablehnen
Ergebnis
Debattenübersicht

Erstens: Wir müssen online schimpfwortfreie Diskussionsräume herstellen. Das mag im ersten Moment nahezu banal klingen, aber es ist wichtig, Schimpfworte ernst zu nehmen. Sie haben eine toxische Wirkung. Wissenschaftler der University of Wisconsin haben eine beeindruckende Studie durchgeführt. Sie ließen mehr als 1100 Amerikaner einem Online-Artikel zum Thema Nanotechnologie lesen, der sehr neutral formuliert war. Sie mussten darunter auch die Leserkommentare ansehen, die eine Hälfte las Kommentare, bei denen lebhaft diskutiert wurde – aber keine Schimpfworte fielen. Die andere Hälfte der Studienteilnehmer las die gleichen Kommentare, nur waren noch ganz geschickt Beleidigungen eingewoben worden. Zum Beispiel hieß es in einem Kommentar dann auch: „...und wer die Vorteile der Nanotechnologie nicht versteht, ist ein Idiot.“

Die Forscher verglichen dann diese beiden Gruppen und nennen ihre Ergebnisse „verstörend“. Diejenigen, die Schimpfworte gelesen hatten, waren deutlich gespaltener in ihrer Meinung. Wer vor dem Experiment Nanotechnologie eher gut gefunden hatte, war nun umso mehr für Nanotechnologie. Wer Nanotechnologie eher bedenklich fand, lehnte diese umso vehementer ab. Sprich: Die Mitte ging verloren. 

Die Forscher selbst nennen dieses Phänomen den „Nasty Effect“, den fiesen Effekt. Denn es ist schon ziemlich fies, wenn man mit reinem Herumschimpfen die Polarisierung rund um ein Thema mitantreiben kann. Deswegen ist es so wichtig, dass wir Schimpfworte in Online-Diskussionen nicht hinnehmen. Denn sie heizen das Diskussionsklima an und verhindern, dass Menschen noch argumentativ zueinander finden können.

Die Debatte eskaliert, wenn der Plattformbetreiber und die Community destruktives Verhalten tolerieren oder fördern.

zustimmen
ablehnen
Ergebnis
Debattenübersicht

Plattformbetreiber müssen beanstandete Inhalte schneller löschen, wenn sie rechtswidrig sind.

zustimmen
ablehnen
Ergebnis
Debattenübersicht

Dementsprechend bedeutend ist auch Moderation, also dass Medienhäuser und große Plattformen wie Facebook nicht einfach bei Tabubrüchen zusehen. Es ist zutiefst toxisch, wenn strafrechtlich relevante Beleidigungen tagelang oder gar wochenlang online stehenbleiben. Hier muss Facebook meines Erachtens transparenter werden und klarer angeben, wie viel es denn genau gegen Hasskommentare tut. Zum Beispiel wissen wir von Facebook nicht, wie viele Moderatoren das Unternehmen insgesamt beschäftigt.

Software kann Kommentatoren zeigen, dass ihre Worte Gewicht haben. Technische Lösungen sollten weiterentwickelt werden.

zustimmen
ablehnen
Ergebnis
Debattenübersicht

Zweitens kann auch Technik ein Teil der Lösung sein. In den USA gibt es ein Startup namens Civil. Ihre Software soll Menschen beim Verfassen von Onlinekommentaren daran erinnern, sachlich und respektvoll zu diskutieren. Will man beispielsweise einen Kommentar zu einem Artikel verfassen, tippt man den Text in die entsprechende Box ein. Daraufhin muss der Nutzer aber noch drei andere Leserkommentare auf ihre Qualität und Freundlichkeit hin bewerten - das geht ganz schnell per Klick. Danach bekommt der User nochmal den eigenen Kommentar eingeblendet, soll ihn auch auf Inhalt und Tonalität bewerten – und kann ihn notfalls noch einmal umschreiben. 

Der ganze Prozess zielt darauf ab, dass Menschen kurz innehalten und reflektieren: Sind ihre Worte inhaltlich relevant und von der Tonalität her angemessen? Den Usern wird hier auch vor Augen geführt: So wie sie andere Nutzer beurteilen, werden sie selbst von anderen beurteilt. Civil kämpft gewissermaßen gegen das Gefühl der Unsichtbarkeit im Netz an: Die Software führt vor Augen, dass die eigenen Worte Gewicht haben. 

Humor ist eine der effizientesten Methoden gegen Aggression im Netz.

zustimmen
ablehnen
Ergebnis
Debattenübersicht

Mein letzter Vorschlag ist Humor. Es ist eine der effizientesten Methoden gegen Aggression im Netz. Zum einen zeigt Humor, dass man sich nicht einschüchtern lässt, dass man weiterhin lachen und froh sein kann. Und zum anderen ist Humor auch eine große Chance für viele Debatten. 

Humor kann ungeheuer viel Aggression aus einer Diskussion nehmen. In dem Moment, in dem ich lache, vergesse ich zumindest für diese einen Moment lang meine Wut. 

Dazu noch eine Anekdote: Der britische Sänger James Blunt ist auf Twitter recht populär, von manchen wird er aber auch angefeindet. Ein Engländer schrieb einmal: „@JamesBlunt sieht aus wie mein linker Hoden.“ Blunt hätte jedes Recht gehabt, wütend darauf zu reagieren, oder den User einfach zu ignorieren, ihn totzuschweigen. Er tat aber etwas, das oft viel schwieriger ist: Er hat keck und durchaus auch mit Humor auf eine fiese Aussage reagiert. Er schrieb dem User: „Dann solltest du dringend zum Arzt gehen.“

Dieser Tweet hat viel Aufmerksamkeit erhalten – und auch den untergriffigen User, der ihn so verschmäht hatte, beeindruckt. Als ihm Blunt zurückschrieb, meinte der Brite: „ICH GLAUBE ES NICHT.“ Und danach: „Er ist nun mein liebster Prominenter.“ Etwas später schrieb der User über James Blunt auch noch: „Ich wünschte, ich hätte seine Pfiffigkeit.“

Mein Tipp: Auf den Hass im Internet sollte man nicht mit Hass reagieren, sich nicht infizieren lassen von dieser Emotion, die sich so stark über die Netzwerke verbreitet. Das ist der wichtigste Schritt, wenn wir zu einem Diskussionsstil zurückfinden wollen, der respektvoll und manchmal sogar witzig ist.

---- Ingrid Brodnig ist Autorin von „Hass im Netz“ (Brandstätter 2016).

___________________________________________________________________________

Hass im Netz: Wie sich die Debattenkultur verbessern lässt.

Dieser Text ist Teil der Dokumentation eines Redaktionsworkshops, zu dem Tagesspiegel Causa, das Online-Debattenmagazin des Tagesspiegels, im Mai 2015 eingeladen hat. Alle Beiträge, unter anderem von Gerd Billen (Bundesjustizministerium), Winfried Wenzel (Polizei Berlin) und Carline Mohr (@mohrenpost, Spiegel Online) sowie eine grafische Übersicht über die wichtigsten Argumente finden Sie hier.

Außerdem aktuell debattiert auf Tagesspiegel Causa: Referenden in der EU: Machen die Bürger Europa kaputt?

Sie können an dieser Stelle derzeit keinen Kommentar schreiben.