Eine Denkschrift mit sieben Beispielen und sieben Vorschlägen.

Die letzten Monate haben gezeigt, dass unsere Demokratien durch eine mediengetriebene Polarisierung in ernsthafte Vertrauenskrisen geraten können. Wenn wir Meinungsfreiheit und Grundrechte weiter schützen wollen, dann liegt ein Haufen Arbeit vor uns: Wir müssen auf breiter Basis klären, was „schädliche Inhalte“ sind und ob und wie wir sie regulieren sollten. Wir müssen klären, wo genau Meinungsfreiheit Grenzen hat. Und wir müssen den Mut aufbringen, unsere Diskurs- und Medienräume sinnvoll zu gestalten. Dafür möchte ich ein paar Vorschläge zur Diskussion stellen.

Diesen Text hören:

.

„Scheuen wir uns nicht, der Wahrheit auf allen Wegen zu folgen und selbst den Irrtum zu dulden, solange Vernunft ihn frei und unbehindert bekämpfen kann.“

..
Dieser Sinnspruch von Thomas Jefferson (1743 – 1826) hat es in sich. „Jawoll,“ denkt man unwillkürlich, „man sollte alles sagen dürfen!“ Auf Dauer wird sich die Wahrheit schon durchsetzen – und gute Ideen, deren Zeit gekommen ist, um so schneller. Wer sollte etwas dagegen haben, außer Tyrannen, verblendete Ideologen oder Leute, die etwas zu verbergen haben!?

Und doch: Ich habe noch niemanden getroffen, der eine so radikal offene Position bei längerem Nachdenken beibehält.

  • In einer Diskussion zum Klimawandel beklagte neulich jemand, dass Wissenschaftler mit Minderheiten-Meinungen totgeschwiegen oder diffamiert würden. „Warum darf man nicht sogar medizinische Falschinformationen zu Corona verbreiten? Sie können doch widerlegt werden!“ Doch dieselbe Person sagte mir 10 Minuten später, es ginge absolut nicht an, dass in deutschen Moscheen auf arabisch gepredigt werde. Meinungsfreiheit?
    .
  • Irgendjemand hielt es für richtig, die brisanten diplomatischen Cablegate-Depeschen der USA unredigiert zu veröffentlichen – selbst wenn damit z.B. Informanten der USA gefährdet würden. Krieg beruht auf Lügen – so die Logik – und je weniger Lügen, desto besser. Sogar WikiLeaks-Initiator Assange wollte so weit nicht gehen, zog dann aber nach, als die Daten einmal geleakt waren. Dafür wurde er auch von seinen Unterstützern viel kritisiert.
    .
  • Manche Libertäre meinen, Auskunfteien und Unternehmen sollten absolut freie Hand haben, Daten zu sammeln und nach Bedarf auszuwerten. Jeglichen Eingriff in die Informationsfreiheit lehnen sie ab, sei es durch den Staat oder durch IT-Konzerne. Andererseits finden sie Kryptowährungen und verschlüsselte Messenger großartig – den fiesen Steuerbehörden soll ja schließlich der Zugriff auf ihre Finanzdaten verwehrt sein. Die Frage nach dem Datenschutz entscheiden sie also allein nach dem Prinzip „Was geht?“.
    .
  • 1949 wurde das obige Zitat Jeffersons in die Berliner Gedenkbibliothek gemeißelt. Doch zeitgleich wurde es durch die antikommunistischen McCarthy-Verfolgungen ad absurdum geführt. Auch die Diskriminierung von Schwarzen oder Homosexuellen, die Propaganda in den diversen Kriegen und Intrigen der USA oder der NSA-Skandal stehen nicht für die versprochene Meinungsfreiheit. .

Dient der Ruf nach Meinungsfreiheit also nur der Durchsetzung des eigenen Weltbildes? Ist uns die „Freiheit der Andersdenkenden“ wirklich so wichtig, wie wir gern sagen?
.

Beispiel 1: Sturm aufs Kapitol

„Wir sind mehr als drei Millionen Menschen. Ein Meer aus rot-weiß-blau.“ Mit euphorischen Worten verabschiedete sich die US-Veteranin Ashli Babbitt mit einer letzten Videobotschaft Richtung Kapitol – und in ihren sinnlosen Tod. Im festen Glauben, Teil einer großartigen Revolution zu sein, wurde sie zur tragischen Antiheldin des Aufstandes gegen Joe Bidens Bestätigung als Präsident. Nach monatelangem Online-Hass und andauernden Falschbehauptungen war sie bereit, alles für diese Sache zu geben.
.
Es waren aber nicht drei Millionen – es waren ein paar Zigtausend aufgeputschte Trump-Anhänger, die der amerikanischen Demokratie diesen Albtraum bescherten. Kurz darauf wurden diverse von Trumps Social-Media-Accounts abgeschaltet. Er hatte diesen Aufstand ausgelöst und sich nicht überzeugend distanziert. Hätten Rupert Murdoch (Fox News) und die sozialen Plattformen Trump nicht fallen lassen, hätte es leicht einen Bürgerkrieg mit fanatisierten und bewaffneten Milizen geben können – auf der Basis von nachweislichen Lügen.

Bild: YouTube

Was sind „schädliche Inhalte“?

.
Doch auch für aufrichtige Pluralisten gibt es einsichtige Gründe, die Meinungsfreiheit zu beschneiden und Informationen, Bilder, Inhalte, Symbole oder Aussagen zu bekämpfen. Schließlich gibt es Inhalte, die allgemein für so schädlich gehalten werden, dass ihre Löschung oder sogar Bestrafung als richtig gilt und allgemein akzeptiert ist (Harmful content).

Zum Beispiel, weil sie …

  • offen zu Gewalt aufrufen
  • die pluralistische Demokratie beseitigen wollen
  • extrem polarisieren oder zu Hass und Terror aufstacheln
  • Gewalt leugnen oder verharmlosen oder deren Opfer verleumden oder verhöhnen
  • Angehörige von Gruppen oder Minderheiten diskriminieren
  • die Privatsphäre oder die Würde von Menschen verletzen
  • übler Nachrede oder Rufmord dienen oder Menschen bloßstellen
  • eine Beleidigung, Demütigung, Belästigung oder Mobbing darstellen
  • Stalking, Doxing, Nachstellung oder sonstige Belästigung darstellen
  • gefährliche Desinformation sind, z.B. im Umfeld von Wahlen oder gewalttätigen Konflikten
  • die öffentliche Ruhe und Ordnung gefährden
  • klassifizierte (Staats-)Geheimnisse preisgeben
  • die öffentliche Meinung unlauter beeinflussen (unlauterer Wettbewerb, Troll-Armeen, Sockenpuppen)
  • einen Betrugsversuch beinhalten (Scam, Dark patterns)
  • der Börsenmanipulation oder Wettbetrug dienen
  • Korruption, organisierter Kriminalität oder Drogenhandel dienen
  • medizinische oder rechtliche Fehlinformationen beinhalten
  • von Sadismus oder sexueller Gewalt gegen Kinder motiviert sind
  • schockierende Gewalt darstellen und / oder Minderjährigen zugänglich machen
  • Pornografie darstellen und / oder Minderjährigen zugänglich machen
  • selbstschädigendes Verhalten fördern
  • Tierleid verursachen
  • zu Umweltschäden führen
  • die Totenruhe stören
  • epileptische Anfälle auslösen können
  • Marken-, Eigentums oder Urheberrechte verletzen (aus Sicht Mancher der brisanteste Punkt überhaupt!)

oder gegebenenfalls (und hier wird es z.T. sehr umstritten – warum sollte man das nicht dürfen?)

  • lästige Werbung oder Spam verbreiten
  • Gewalt verherrlichen oder unnötig realistisch darstellen (z.B. in Computerspielen)
  • religiöse Gefühle, nationalen Stolz o.ä. verletzen (Gotteslästerung, Angriff auf Staatsführer etc.)
  • ein erniedrigendes Menschenbild verbreiten (z.T. unterschwellig, z.B. in Pornografie)
  • Personen markieren oder Todeslisten anlegen (d.h. ohne Vorbereitung einer konkreten eigenen Straftat)
  • unnötige Ängste auslösen (z.B. paranoide Wahnvorstellungen verbreiten, die aber subjektiv „wahr“ sind)
  • einen Aufruhr oder politischen Umsturz anstiften (die Legitimität ist hier jeweils umstritten, Gewalt etc.)
  • über Terror berichten (und damit sein Kalkül bedienen, Angst zu verbreiten oder Gegenreaktionen auszulösen)
  • ungeborenes Leben infrage stellen (Infos oder Debatten zur Abtreibung)
  • Anleitungen zum Suizid geben
  • idealisierte Körper darstellen (was Magersucht fördern kann)
  • Werbung für gesundheitsschädliche Produkte oder Drogen machen
  • Anleitungen für den Bau von Waffen oder Bomben bereitstellen
  • einer gesellschaftlichen Minderheit sonstwie anstößig erscheinen (Puritanismus, verletzende Bezeichnungen etc.)

… usw.

Andererseits gibt es oft genug Gründe, als schädlich empfundene Inhalte gerade nicht zu sperren.

Diese könnten sein

  • Sozial- und Kriegsreportagen (Inhalte dienen der Aufklärung)
  • investigativer Journalismus oder Whistleblowing (verwerfliche Praktiken werden aufgedeckt und Grenzüberschreitungen damit legitimiert)
  • Dokumentation, kritische Auseinandersetzung (Inhalte werden zitiert oder angeprangert)
  • legitime Kritik (etwa an Markenherstellern oder öffentlichen Personen)
  • Kunst (ein ernsthafter künstlerischer oder literarischer Wert – ggf. auch umstritten)
  • erkennbare Satire oder Ironie
  • Wertungen, grenzwertige Ausdrücke etc., die noch der Meinungsfreiheit unterliegen
  • Schutz von oppositioneller Tätigkeit (z.B. um Dissidenten vor vorgeschobenen Löschgründen zu schützen)

… usw.

Eine lange Liste, auf die ich mich noch mehrmals beziehen werde.

Klar ist: Was davon so schädlich ist, dass unsere Gesellschaft es für illegal erklärt, darf und soll aus öffentlichen Medien entfernt werden. Alles, was nicht illegal ist, unterliegt der Meinungsfreiheit und dürfte dort auch nicht entfernt werden.

Allerdings, das werden wir noch sehen, berührt jede Gewichtung die Meinungsfreiheit. Jede Favorisierung ist eine Bevorzugung und jede Beschneidung von Reichweite eine Art Diskriminierung. Inhalte, die legal sind, aber unerwünscht, können auf Basis interner Richtlinien kleingehalten werden. Diese Soft Power von sozialen Netzwerken ist schwer zu kontrollieren.

Und doch ist genau das der Mechanismus, der die Aufmerksamkeitsökonomie der Social Media so mächtig macht, wie Shoshana Zubhoff in ihrem Buch über den Überwachungskapitalismus beschreibt. Er befördert automatisch besonders absurde oder umstrittene Positionen in die Mitte, die normalerweise am Rande der Gesellschaft verbleiben würden – was zu unerwünschter Radikalisierung oder einer Polarisierung der Gesellschaft führen kann.

Nur selten gelingt der Nachweis einer tatsächlichen inhaltlichen Einflussnahme oder Diskriminierung, die für die Grundrechte auch relevant genug ist. Eine Verpflichtung von großen Plattformen zur „Ausgewogenheit“ wäre zu Zeit kaum realisierbar. Sie wird aber diskutiert, etwa durch eine Aufsicht ähnlich der, der die öffentlich-rechtlichen Medien unterliegen.

Das Ziel – da dürften sich alle einig sein – ist eine tolerante und vielseitige, aber auch verantwortbare Medienwelt. Aber wer ist dafür verantwortlich? Die Öffentlichkeit? Die privaten Plattformen mit ihren Hausordnungen? Oder letztlich Gerichte? Alle drei müssen harmonisiert werden: eine ausgewogene Rechtsprechung, das öffentliche Rechtsemfinden und das Einvernehmen der Konzerne. Auf jeden Fall brauchen wir einen Konsens in weiten Teilen Gesellschaft. Und wenn es so ist, dass nur eine der oben genannten Inhaltskategorien als so illegal definiert wird, dass ein Eingriff gerechtfertigt ist (was ich vermute), dann brauchen wir so etwas wie Regulierung. Man kann das auch Zensur nennen. Dann brauchen wir Entscheidungs- und Handlungsgrundlagen und geeignete Maßnahmen.

Und wir müssen sicherstellen, dass diese Maßnahmen nicht missbraucht werden. Denn noch jede ins Totalitäre abgleitende Regierung wird ja Gründe suchen, eine Löschung oppositioneller Inhalte zu legitimieren. Wir sehen das schon heute überall. Wenn eine beschworene „Terrorgefahr“ nicht verfängt, kann man immernoch versuchen, das Urheberrecht in Stellung zu bringen usw.

Bevor wir uns also auf dieses schwierige Terrain wagen, sollten wir noch einige Begriffe genauer verstehen.
.

 

Beispiel 2: Tik-Tok’s Drosselung

.
Die Videoplattform TikTok hat die Accounts von Menschen, die aus der Norm fallen, gedrosselt. Weil sie stark übergewichtig, behindert oder homosexuell sind, wurde ihre Reichweite eingeschränkt. Angeblich geschah dies, um sie vor Mobbing zu schützen, indem man sie weniger sichtbar machte. Doch wenn man sich anschaut, wie in TikToks Heimatland China mit Minderheiten umgegangen wird, könnte man auch eine Diskriminierung vermuten. Als die Maßnahmen in Deutschland publik wurden, hagelte es Kritik. Daraufhin versprach die Plattform Besserung und einen bewussteren Umgang mit dem Thema.

Bild: Nathan Anderson auf Unsplash

Zur Klärung einiger Begriffe

.
1. Objektivität, Ausgewogenheit oder Konsens?

.
Um Inhalte zu bewerten, bedarf es oft eines objektiven Urteils, zumindest aber eines Konsenses über „Wahrheit“ – der aber schwer herzustellen ist. Wir leben in Zeiten eines rasanten Austausches von visuell überzeugenden und uns oft überwältigenden Nachrichten. Eine Hysterie, basierend auf einer blanken Lüge, ist binnen Minuten entfacht. Ein Rufmord ist schnell in die Welt gesetzt, aber unmöglich beizeiten zu entkräften. So benötigen wir einen Kompass, der uns schnell und relativ sicher sagt, was gefördert oder toleriert und was niedergehalten werden soll. Zeit ist dabei ein kritischer Faktor.

Wo also verlaufen die Grenzen zwischen gewöhnlichem Beitrag und schädlichem Inhalt, zwischen legitimer Kritik und gefährlicher Propaganda? Können wir uns auf überprüfbare Kriterien einigen, die verbindlich gelten? Was ist Satire, was ist Ironie und was ist eine Beleidigung? Welche wissenschaftliche Erkenntnis darf als hinreichend gesichert gelten und welche als irrelevant oder widerlegt? Und ändern sich diese Maßstäbe nicht andauernd?

Tatsächlich ist heute vieles normal, was noch vor wenigen Jahren als undenkbar galt – und umgekehrt. Kopftücher waren früher in Europa sehr verbreitet, heute sind sie heiß umstritten. Vielleicht empfinden wir irgendwann fotografisch bearbeitete Models als obszön, vulgäre Ausdrücke aber als völlig normal. Wer früher noch „Frauen an den Herd“ wünschte, echauffiert sich heute vielleicht über ihre Unterdrückung in arabischen Ländern. Vielleicht hält man Werbung für Zucker irgendwann für gefährlicher als Terrorpropaganda – was von den Opferzahlen her betrachtet durchaus vertretbar wäre … – Wir wissen es nicht, die Dinge sind im Fluss.

Deshalb sollte es bei der Meinungsfreiheit gerade nicht um einfachen Konsens gehen oder um Mehrheiten. Vielmehr braucht es die Einsicht der Mehrheit, dass ein Dissens notwendig ist (Demokratie, Pluralismus, Minderheitenschutz, Rechtsstaat). Was es aber braucht, ist ein Konsens darüber, welchen Arten von Inhalten (siehe oben) der Status einer geschützten Meinung nicht zugestanden werden darf. Weil sie zu zerstörerisch oder gefährlich sind. Dieser Konsens kann nur „bis auf weiteres“ gelten, denn dass er oft zeitgebunden ist, zeigt die Geschichte.
.

2. Frei denken – kann man das überhaupt?

.
Das individuelle und kritische Denken hat in Europa eine lange Tradition. „Sapere aude – Habe Muth dich deines eigenen Verstandes zu bedienen!“ lautete der antike Wahlspruch, den Immanuel Kant für die Aufklärung ausgab. Stärker als die Buddhisten, Konfuzianer oder Muslime in Asien, sahen aufgeklärte Europäer sich als losgelöste Individuen. Sich aus eigener Kraft aus jeglicher Knechtschaft zu befreien wurde zum Credo der sozialen Revolutionen seit 1789.

Doch auch das Bewusstsein in der Aufklärung ist bedingt: „Das Sein bestimmt das Bewusstsein“ lehrte Marx. Und Freud legte nach: Unsere frühkindliche Sozialisation bestimmt unser Unterbewusstsein. Auch Individualisten sind also nichts, was sie nicht irgendwie geworden wären. Neue Konzepte der politischen Umerziehung ließen nicht lange auf sich warten, von Goebbels’ Volksempfänger bis zu Maos Kulturrevolution. Dem stellte sich ein pluralistischer Humanismus entgegen, der eine robuste, wehrhafte Demokratie forderte.

Bis heute sind die sich wandelnden Einflüsse massiv: Ob Elternhaus, Schule, Werbung, Unterhaltung, Nachrichten oder Social Media – von überall strömen Ideen und Ideologien auf uns ein. Unsere Kultur und Identität verändern sich schneller denn je. Subkulturen und Peer-Groups stehen zu Wahl, teils mit verlockenden Angeboten. Wer da behauptet, er wolle sich selbst formen und erfinden, unterliegt einer Illusion.

Vielleicht ist aber etwas anderes gemeint: Das Denken möge nicht von fremden Interessen gelenkt werden. Es möge der maximal erreichbaren Erkenntnis dienen und nicht dem Einfluss anderer. Selbstbestimmung kann erst dort entstehen, wo ein Selbstbewusstsein vorhanden ist und seine eigenen Interessen entdeckt und formuliert hat.

Seit es das Internet gibt, hat sich unser Denken verändert. Es hat sich vernetzt und beschleunigt. Neue Ideen jagen um den Globus und begründen Cluster von Anhängern. Manchmal entstehen dabei fast hermetisch abgeschlossene Blasen, ganze Kulte oder Parallelgesellschaften. Menschen können einen Wahn ja nicht mehr wahrnehmen, wenn er sie erst einmal so selbstverständlich umgibt, wie die Luft zum Atmen. Das ist quasi die Geschäftsgrundlage von Sekten und Verschwörungsmythen.

Wenn wir nun mit Menschen aus solch exotischen Gedankenwelten kollidieren, halten wir sie für Außerirdische – unverständliche Volldeppen, die scheinbar nicht auf diesem Planeten leben. Sie scheinen „gesteuert“, sie denken gar nicht selber, sondern folgen einer mächtigen Ideologie. Wie wir selbst vermutlich auch – nur dass unsere Ideenwelt aus unserer Sicht weniger extrem ist, weniger abgeschlossen und unserer gefühlten Selbstbestimmung mehr Raum gibt.

 

Beispiel 3: #allesdichtmachen dicht gemacht?

.
In der Corona-Pandemie haben Schauspieler*innen eine Reihe von sarkastisch gemeinten Statemets veröffentlicht, in denen sie sich über die Maßnahmen der Bundesregierung mokierten. Unter dem Hashtag #allesdichtmachen sorgten die Videos für Kontroversen. Der entsprechende Kanal war auf YouTube schnell sehr frequentiert und sollte entsprechend natürlich auch auffindbar sein. Nach zwei Tagen dann große Aufregung: „YouTube löscht #allesdichtmachen! Unsere Meinungsfreiheit wird beschnitten!“ – Was war passiert?

Nichts. Der Kanal war weiterhin online. Er war aber in der Schlagwortsuche von anderen Medien verdrängt worden, die teils kritisch über die Aktion berichteten und dem Algorithmus vermutlich als rennomierter und relevanter galten. Die Fans der Aktion fühlten sich düpiert und schimpften und klagten auf breiter Front. Nach etwa einer Woche hatte sich das Suchergebnis korrigiert und #allesdichtmachen war wieder weit vorne in den Suchergebnissen zu finden. Oder waren es doch YouTube-Entscheider, die hier Hand angelegt hatten, um die Meinung im Sinne der Bundesregierung zu manipulieren? Denkbar, aber unwahrscheinlich, denn so brisant waren die Videos auch wieder nicht – und illegal natürlich auf keinen Fall. Nach meiner Einschätzung sind die Anwälte der Meinungsfreiheit hier einer Kontrollillusion erlegen, während der Algoritmus nur unbeeindruckt seine Arbeit gemacht hat.

3. Kann man „Framing“ vermeiden?

 

Über Framing wird viel geschimpft: Ein Sachverhalt wird durch geschickte Wortwahl bewusst in ein bestimmtes Licht gerückt. Spricht man von „Kernkraft“ oder „Atomkraft“? Von „Rechtsextremisten“ oder von „Nationalkonservativen“, von „Kommunisten“ oder von „Linken“? Unbewusst tun wir das alle – jede Wortwahl hat schließlich irgendeine eine Vorannahme oder Konnotation.

Allzu rohe Fakten, Tatsachen und Daten ergeben für unsere Gehirne keinen Sinn, sondern führen allenfalls zu Reizüberflutung. Erst wenn sie gefiltert und in Zusammenhänge gebracht werden, ergeben sich Muster. Und diese modellieren dann ein Gesamtbild. Dass dabei Wertungen, Prämissen und gezielte Fragestellungen im Spiel sind, ist selbstverständlich. Eine neutrale Berichterstattung kann es daher nicht geben – allenfalls eine ausgewogene Position. Die Frage kann also nur lauten: Wer steuert unsere Information, die Story, das Framing? Wem vertrauen wir und wie oft werden wir ein wenig misstrauisch? Und ehrlich zu uns selbst, dass unser Wissen nur relativ und erworben und vereinfacht ist.

„Wo gemischt und gemahlen wird, da wird auch betrogen“ lautet eine alte Bauernweisheit. Auf Medien bezogen könnte man sagen: „Wo redigiert und kuratiert wird, da wird Meinung gemacht“. Framing findet also immer statt, genau wie Bewertung, Gewichtung, Auswahl. Immer sind dabei Interessen im Spiel. Sei es eine Ideologie, wirtschaftliche Vorteile oder einfach eine interessante Story zu liefern.

Doch wie schützen wir uns vor Manipulation und massivem Betrug?

  • Ein Hinweis ist das eigennützige Interesse anderer. Das Interesse der Gemeinschaft vor das eigene stellen, den langfristigen Vorteil vor den kurzfristigen – nichts anderes ist ethisches Handeln. Ich kann mir also anschauen: Welche Interessen vertritt eine Journalistin, ein Blogger, eine Werbeagentur, ein Lobbyist, eine Politikerin? Ergibt das einen Sinn und in wessen Sinne ist das? Wem vertraue ich wie weit?
    .
  • Ein anderer Hinweis ist die Ergebnisoffenheit. Wenn ein Gegenstand untersucht wird, wie offen oder einseitig ist das Ergebnis? Manchmal ist offensichtlich, dass ein vorgegebenes, erwünschtes Ergebnis abgeliefert wird. Bei wissenschaftlichen Statistiken ist das z.B. aber nicht einfach zu erkennen. Plausibilität und Gegenstimmen, Faktenchecks und überprüfbare Quellen schaffen Vertrauen und können bei der Einschätzung helfen.
    .
  • Und schließlich: Zu wissen, den ganz großen Betrug gibt es nur sehr selten. Verschwörungen kommen fast immer ans Licht – je mehr Menschen daran beteiligt sind, desto schneller. Und nicht alles, was auf den ersten Blick nach einer Verschwörung aussieht, ist auch eine.
    .

Medienkompetenz ist also ein Teil der Antwort. Bücher wie „Tausend Zeilen Lüge“ oder „Fake Facts“, das gelegentliche Lesen von Faktenchecks oder Berichte über Foren-Netzwerke und Trollfabriken sollten genug Hintergrundwissen vermitteln, um sich einigermaßen gegen Manipulation zu schützen. Doch – reicht das aus?
.

4. Was ist öffentlich – was privat?

.
Das Internet hat einen fließenden Übergang zwischen privater und öffentlicher Kommunikation geschaffen. Eine klare Unterscheidung ist daher heute schwierig, aber eigentlich wichtig. Denn das privat gesprochene Wort, das unter Freunden versendete Bild oder Video, ist zu schützen. Die öffentlichen Medien dagegen unterliegen einer Kontrolle, weil schädliche Inhalte dort auf ein Massenpublikum treffen.

Dass ein verschlüsseltes Smartphone ebenso unbeobachtet bleiben sollte, wie ein am Strand gesprochenes Wort, hat einen guten Grund. Denn alle Versuche, diese Privatsphäre systematisch aufzubrechen, führen über kurz oder lang zur Bedrohung der Meinungsfreiheit. Geht es heute vielleicht darum, Kinderpornografie zu bekämpfen (wie die EU es gerade diskutiert), so sind es morgen terroristische Inhalte, die gefunden werden müssen. Von kurdischen, katalanischen oder demnächst vielleicht schottischen Separatisten zum Beispiel. Gar nicht zu reden von Hongkonger Demokratieaktivisten, griechischen Investigativjournalistinnen, saudischen Atheisten oder deutschen Whistleblowerinnen. In einer Zeit, in der man ohne Smartphone schon fast auffällt, darf diese Technik sich nicht gegen uns wenden (Asimov).

(Wohlgemerkt: Wir sprechen hier von anlassloser Massenüberwachung und Schwächung von Systemen. Dass die Polizei frustriert ist, wenn manche Überwachungspotenziale nicht genutzt werden, ist verständlich. Gezielte Maßnahmen, etwa das Eindringen ist verdächtige Gruppen, sind ein ganz anderes Thema. Sie können durch Gerichte legitimiert werden. Und nebenbei ist dieses Vorgehen auch erfolgreicher.)

Nun kommunizieren manche Leute in verschlüsselten Chatgruppen mit bis zu 200.000 treuen Followern. Da kann man schon von einem Medium sprechen. Es macht einen Unterschied, ob 50 Leute ein Terrorpropaganda-Video sehen, oder zigtausende. Ersteres ist schlimm (und kann auch virale Effekte haben), ist aber in unter Wahrung der Vertraulichkeit nicht zu unterbinden – siehe oben –, es sei denn durch verdeckte Ermittler oder Whistleblower. Das andere ist eine massenhafte, mediale Verbreitung von Inhalten, die einer Regulierung offen stehen sollte.

Eine Mischform aus privater und öffentlicher Kommunikation sind soziale Netzwerke. Hier hat ein Plattformanbieter die Moderatorenrolle. Ab einer gewissen Größe (Besucherzahl) ist er laut NetzDG verpflichtet einzugreifen und illegale Inhalte zu sperren. Er darf eine Hausordnung haben, aber diese muss die Meinungsfreiheit achten und darf nicht diskriminierend sein. Die Praxis sieht anders aus: In der Regel werden die Nutzungsbedingungen eng ausgelegt und es kommt häufig zu Overblocking. Schon eine sichtbare (weibliche!) Brustwarze kann bei Instagram die Alarmglocken klingeln lassen. Aus meiner Sicht dürfte dies aber allenfalls für Accounts gelten, die die Schwelle der privaten Kommunikation überschritten haben, aber diese Unterscheidung wird nicht getroffen.
..

Beispiel 4: Ein Kuss macht Furore

.
Als Amed S. eine Reihe von Fotomontagen auf Facebook und Instagram veröffentlichte, ahnte er natürlich, dass die nicht jedem gefallen würden: Zu sehen war ein Kuss mit Mohamed H. In einem Motiv waren die beiden auf den Hintergrund der Kaaba in Mekka montiert und diese mit der Flagge der Gay-Pride-Bewegung geschmückt. Fundamentalistische Muslime waren sofort auf dem Plan und überzogen die Bilder mit Hass und Wut, bis hin zu Morddrohungen. Besonders in Pakistan wurden die Bilder als schädlicher Inhalt gemeldet. Doch statt zu erkennen, dass es sich hier um eine ganz gezielte Einschüchterung handelt, schlossen Facebook und Instagram Ameds Accounts – und verhielten sich damit ganz im Sinne der schwulenfeindlichen Pöbler.
.
Facebook hat damit ein paradoxes Kalkül erfüllt: Je beleidigter eine Gruppe sich aufregt, desto stärker sieht man die „öffentliche Ordnung“ gestört – aber nicht durch die vermeintlich Beleidigten, sondern durch den Beitrag. Das wollte S. nicht auf sich sitzen lassen. Unterstützt von der Giordano-Bruno-Stiftung, dem Institut für Weltanschauungsrecht und der Initiative für Meinungsfreiheit ging er den beschwerlichen Klageweg. Und hatte Erfolg: „Ich bin überglücklich über dieses wichtige Zeichen für Meinungsfreiheit im Netz“, kommentierte er seinen Sieg. „Ein religiöser Mob darf sich mit seinen menschenfeindlichen Vorstellungen nicht bei Facebook durchsetzen! Ein Kuss ist kein Verbrechen!“

Bild: privat / ifw

Ohne Regeln geht’s nicht – deal with it!

.
So schön sie vielleicht waren, sie sind längst vorbei – die Zeiten der fröhlichen Informations-Anarchie im Internet. Nicht mehr abseitige Spinner, sondern ausgebuffte Agenturen und professionelle Demagogen ziehen heute alle Register und beherrschen die Klaviatur der Desinformation meisterhaft.

Dabei kann man an sich selbst beobachten: Wer sich innerlich entschieden hat, bestimmten Erzählungen zu folgen – etwa in den ersten Wochen der Corona-Pandemie oder vor den US-Wahlen – der bleibt leicht in einer Blase selbstgefälliger Bestätigung hängen. Das kann zu einer scharfen Polarisierung führen, die eine Demokratie aber aushalten muss. Denn vieles ist ja Auslegungssache oder lässt sich als Wertediskussion verstehen, die natürlich wichtig ist. Sogar blanke Desinformation fordert zur Gegenrede heraus, zur Aufklärung und ist bis zu einem gewissen Punkt zu tolerieren, denn sonst wären wir zu schnell am Zensieren.

Der kritische Punkt liegt bei einer ernsten Gefährdung von wesentlichen Schutzgütern (s.o.) oder der pluralen Gesellschaft insgesamt. Mit Selbstverantwortung und der wünschenswerten Medienkompetenz ist es dann nicht mehr getan. Genau wie andere Bereiche, etwa Straßenverkehr, Umweltschutz, Stadtplanung, Bildung oder die Lebensmittelherstellung, kommen auch unsere Informationsräume ohne Regulierung nicht aus, wenn es um diese Werte geht. Denn der oder die Einzelne ist manchmal eben zu egoistisch, zu böswillig oder schlicht zu blöd um ihm/ihr per Massenmedium eine dermaßen zerstörerische Macht einzuräumen. Auch wenn es sich geradezu autoritär anhört: Wenn wir uns darauf einigen, dass manche der eingangs aufgelisteten Inhalte illegal und nicht akzeptabel sind, dann müssen wir uns dazu bekennen, sie auch zu unterdrücken. Genau das ist mit einer „wehrhaften Demokratie“ gemeint.

Eine Regulierung unserer Medien ist demnach legitim und muss ebenso klare Grenzen haben. Doch wie soll das in der Praxis aussehen und funktionieren?
.

Eine Moderation findet statt

.
„Eine Zensur findet nicht statt“ heißt es vollmundig im Artikel 5 des deutschen Grundgesetzes. Doch gemeint ist damit allein das Verbot einer staatlichen Vorzensur:

Jeder darf seine Meinung zum Ausdruck bringen, kann aber nachträglich zur Verantwortung gezogen werden, wenn er dabei gegen Gesetze verstößt. Die Konsequenzen können Einziehung und Indizierung des betreffenden Werkes oder Bestrafung der Person sein. (…) Eine Vorauswahl privater Stellen, ob Beiträge veröffentlicht werden oder nicht (z.B. in einer Zeitungsredaktion oder Online-Foren), ist daher keine Zensur im Sinne des Grundgesetzes und verfassungsrechtlich unbedenklich.
.
Allenfalls im Zuge der sogenannten mittelbaren Drittwirkung von Grundrechten kommt je nach Sachverhalt der Stellenwert von Art. 5 GG auch zwischen Privaten indirekt zum Tragen. Dabei handelt es sich dann allerdings um ein Auslegungsinstrument für andere Gesetze, nicht um eine direkte Anwendung des Zensurverbotes aus dem Grundgesetz.
.
(Quelle: Wikipedia)

Was wir nun ganz sicher nicht tun sollten, wäre irgendjemanden Beliebiges zu bevollmächtigen, unsere Medien zu zensieren. Genau das geschieht aber: Der Staat verlangt von den sozialen Netzwerkplattformen, verbotene Inhalte zu löschen. Gegebenenfalls schon beim Upload. Na super: Ein paar random Glücksritter des Internetzeitalters, die mit Raffinesse und viel Chuzpe zu Milliardären wurden, entscheiden über unsere Meinungsfreiheit! So hatten wir uns das nicht vorgestellt.

Eine „Moderation“ findet also sehr wohl statt und sie unterliegt keiner wirklichen rechtlichen Kontrolle. Im Glauben, doch stets für die gute Sache einzutreten, setzen die Plattformen ihre Hausordnungen nach Gutdünken um. Eine Löschung ist schnell erledigt, dagegen rechtlich vorzugehen ist oft langwierig. Schon ein Tag für den Einspruch kann zu lange sein, denken wir an Wahlkämpfe oder aufflammende Konflikte. Und: Eine Löschung wird ja noch bemerkt, aber eine Gewichtung, die Beschneidung von Reichweite, ein Justieren des Algorithmus kann ebenso brinsante Auswirkungen haben.

.

Kriterien und Umsetzung sind derzeit viel zu plump

.
Wir müssen also einen gesellschaftlichen Konsens darüber finden, was nicht öffentlich gesagt, gesendet, verbreitet werden darf. Und was man auf einer großen, öffentlichen Plattform sagen dürfen muss. Soweit, so schwierig die Theorie. Doch noch komplizierter ist die Praxis: Wo und wie soll eine eine Regulierung (Steuerung, Säuberung, Bewertung, Zensur) eingreifen und durch wen?

Wir sehen jeden Tag, dass es nicht besonders gut funktioniert. Beziehungsweise: Sehr vieles funktioniert gut – aber der Unmut, wenn etwas falsch beurteilt wird, ist zurecht groß. Eine KI unsere Debattenräume ausmisten zu lassen – so einfach ist das nicht. Auch die Content-Moderator*innen sind oft überfordert. Der Aufwand, es gut zu machen, wäre hoch und niemand will für die Kosten aufkommen. Dabei geht es um nichts Geringeres als unsere Meinungsfreiheit.
.

 

Beispiel 5: Facebook-Hetze in Myanmar und in Indien


.
In manchen Ländern ist Facebook quasi die einzige Internetseite, die von der breiten Bevölkerung genutzt wird. So hatte das Militär in Myanmar mit einer massiven Verleumdungskampagne auf Facebook durchschlagenden Erfolg, die es seit 2013 gegen die muslimische Minderheit der Rohingya gefahren hat. Die Volksgruppe ist dort nicht anerkannt und wurde als „staatenlos“ systematisch ausgegrenzt. Ressentiments, illegale Inhaftierungen, Folter, Vergewaltigungen und Morde sind an der Tagesordnung. Die Vertreibung hat 2017 ihren Höhepunkt erreicht, seitdem leben ca. 1,5 Mio. Rohingya oft in Notunterkünften im Ausland. Die Ausgrenzung wurde flankiert von massiven Diffamierungen, Hassrede und offenen Genozidforderungen auf Facebook. Die Plattform hat in großem Stil darin versagt, die volksverhetzenden Inhalte vom Netz zu nehmen, weil sie über Jahre keine entsprechende Infrastruktur in burmesischer Sprache aufgebaut hat.
.
Auch in Indien ist es zu Pogromen gegen Minderheiten gekommen, nachdem Gerüchte die Runde machten, dass diese Kinder mit Motorrädern entführen würden. Eine entsprechende Szene wurde per WhatsApp auf Video verbreitet, es handelte sich aber tatsächlich um eine gespielte Szene von einem Filmset. Wochenlang ist es der Polizei nicht gelungen, für Aufklärung zu sorgen – die Nachrichten wurden ausgeschmückt und weiter geteilt. Auf diese Weise aufgehetzte Mobs haben schließlich eine ganze Reihe völlig unschuldiger Menschen gelyncht. Ein Exzess an Gewalt, ausgelöst allein durch Fake News.

Wie kann es also gehen?

.
Um die schwierige Situation zu beheben, in der unsere Meinungsfreiheit im Reifungsprozess der Social Media steckt, schlage ich die folgenden Konzepte vor:
.

1. Eine Trennung von privater und medialer Kommunikation

Früher war klar: ein Anruf ist privat, ein Leserbrief öffentlich. Doch heute haben wir Zwischenformen wie Profile, Foren oder Chatgruppen, in denen quasi privat, potenziell aber mit großem Wirkradius kommuniziert wird. Wenn wir also sagen
a) privat muss geschützt bleiben und
b) medial muss moderiert werden,
dann kommen wir nicht darum herum, eine künstliche Grenze zu ziehen. Willkürlich schlage ich eine Reichweite von 50 Beteiligten vor:

a) Wer mit bis zu 50 Menschen kommuniziert, unterliegt der vollen Geheimhaltung von Verschlüsselung und ePrivacy, inklusive Metadaten. Dort kann man in einem geschützten Raum sagen und teilen, was man will. Wenn hier zu Mord und Totschlag aufgerufen wird, muss man schon auf einen Denunzianten hoffen. Oder auf gute Polizeiarbeit mit richterlichem Vorbehalt, denn auch Privaträume sind ja nicht rechtsfrei. Alles Weitere müssten wir als Kollateralschaden unserer Meinungsfreiheit akzeptieren. Denn wir wissen, es hätte ebenso gut im Darknet oder bei einem Treffen im Wald geteilt werden können, Überwachung kann das Böse nicht ausrotten.

b) Kanäle, die ein Publikum von mehr als 50 Personen erreichen, gelten als Medien und unterliegen grundsätzlich einer öffentlichen Einsichtnahme und Regulierung. Je nach Verbreitungsgrad und Gefährlichkeit der Inhalte müssen schädliche Inhalte (s.o.) mehr oder weniger schnell vom Netz genommen werden. (Melde- und Reaktionszeiten, Verwarnungen und Filter werden weiter unten ausführlich behandelt.) Ein Messengerdienst müsste dann geschlossene Chatgruppen bei 50 Personen limitieren, Betreiber größerer Foren wären einer Moderation verpflichtet.
.

2. das Melden durch Laien muss funktionieren

Die Meldewege in den großen Netzwerken sind derzeit unbeholfen und inkonsistent gestaltet. Notwendig wäre ein einheitlicher Prozess, in dem niedrigschwellig, schnell und präzise angegeben werden kann, warum ein Inhalt rechtswidrig sei und entfernt werden müsse. Oder, als Beschwerdemöglichkeit, warum der Beitrag keiner Sperrung unterliegen sollte. So kann schon nach ein bis zwei Meldungen ein Warnhinweis gegeben und von der Crowd ein Urteil eingeholt werden. Bald haben wir auf diese Weise mehrere Urteile – und vielleicht einen Meldekrieg. Wenn die Sache kontrovers ist, sollte eine qualifizierte Person sich das ansehen, und zwar innerhalb kurzer Zeit.

Einen großen Haken hat diese Schwarmintelligenz allerdings: Die schiere Menge an schädlichem Material ist ungefiltert für Laien kaum zumutbar. Heerscharen von Content-Moderator*innen („Cleaner“) setzen ihre psychische Gesundheit dafür ein, uns vor Enthauptungsvideos und Abbildungen von Kindesmissbrauch zu schützen. Diese Arbeit ist unzumutbar; innerhalb von Monaten sind diese Menschen fertig mit der Welt. Eine Hoffnung liegt auf KI, aber diese macht zzt. mehr Fehler als im Sinne der Meinungsfreiheit zulässig wäre. Nicht umsonst haben wir uns gegen Uploadfilter noch stets zur Wehr gesetzt. Lügen wir uns hier in die Tasche? Niedrigschwellige Einspruchsmöglichkeiten könnten, in Kombination mit einer besser geschulten KI, langfristig eine Lösung sein. Das Thema bleibt aber brisant. Schon allein die Frage nach der Speicherung von „Trainingsmaterial“ ist ethisch schwer zu beantworten.
.

3. Anerkannte Accounts sorgen für Integrität

Es gibt Methoden, die Qualität von Accounts zu bewerten, ihr „Internet-Karma“. Frisch eröffnet, wenige Follower – diesem Account sollte man keine maßgeblichen Urteile zutrauen. Viele Abmahnungen wegen schädlicher Inhalte, ggf. einem geschlossenen Ring angehörend – offensichtliche Troll-Accounts könnten angezählt werden. Mit Zeitstrafen, weniger Reichweite, weniger Vertrauen beim Melden und im Extremfall mit einer Sperrung. Haben Profile dagegen Hinweise gegeben, die sich bestätigt haben, erhalten sie einen Bonus in ihrem Internet-Karma und gelten irgendwann als qualifizierte User.

Wohlgemerkt: Das Kriterium darf weder die Interaktionsrate sein, noch irgendein Wohlverhalten oder eine Mainstream-Meinung. Registriert wird allein das Verhalten in Beug auf nachweislich schädliche Inhalte gemäß der erarbeiteten Kriterien (s.o.). Wer sich über den politischen Gegner einfach nur mokiert oder den ganzen Tag lang vulgäres Zeug redet, macht sich vielleicht unbeliebt, hat aber ein Recht dies zu tun – und kann durchaus ein intaktes Urteilsvermögen haben.

Ein solches System von Account-Gewichtungen sollte einfach, transparent und einheitlich sein, d.h. quelloffen implementierbar und in jedem größeren Forum für dessen jeweilige Accounts gültig.
.

4. Gerichtlich Autorisierte müssen entscheiden

Schon im nächsten Schritt muss eine juristisch autorisierte Person entscheiden – nicht im Sinne einer Hausordnung, sondern im Sinne des Gesetzes. Zwischen dem sekundenschnellen Urteil der Crowd oder der qualifizierten User einerseits, und einer Wochen dauernden juristischen Entscheidung andererseits, müssten noch zwei weitere Ebenen eingezogen werden. Hierfür bräuchte es einen ganz neuen Typus von Entscheider*innen. Schöffen und Laienrichterinnen, die in einem Crashkurs eine Art Examen abgelegt haben. Nicht jemand, der in einer Amtsstube Akten wälzt, sondern Leute, die sich im Homeoffice zu den Stoßzeiten nebenbei ein paar Euro verdienen. Leute, die unseren Kuturkreis kennen und den Jargon der verschiedenen Subkulturen. Auch hier muss es natürlich Beschwerdemöglichkeiten geben. Aber je höher die Instanz, desto länger wird ein fundiertes Urteil dauern.

So ergäbe sich folgende Hierarchie in der Entscheidung über schädliche Inhalte:

Bisher:

  • User (melden)
  • Cleaner (entscheiden in Tagesfrist)
  • Gerichte (entscheiden über Widerspruch binnen Monaten und Jahren)

Vorschlag:

  • User: melden und beurteilen (Markierung, inkl. Einspruchsmöglichkeit und Gegenmeinungen in Sekunden)
  • qualifizierte User: entscheiden (Freigabe, Warnhinweis oder vorläufige Sperrung innerhalb einer Stunde)
  • Schöffe*in: entscheidet in kontroversen Fällen (Freigabe oder Sperrung mit Einspruchsmöglichkeit in Tagesfrist)
  • Laienrichter*in: entscheidet bei Widerspruch (Freigabe oder weitere Sperrung mit Einspruchsmöglichkeit möglichst in Tagesfrist)
  • reguläre Gerichte: entscheiden abschließend (dauert 3 Monate bis 2 Jahre, Freigabe oder weitere Sperrung mit Weg durch die Instanzen)
    .

Beispiel 6: Böhmermann und die Lex Soraya


.
Auf Majestäts- oder Präsidentenbeleidigung steht in manchen Ländern Gefängnisstrafe. In der Türkei wird dieses Delikt mit zunehmender Härte verfolgt. Der Satiriker Jan Böhmermann hatte 2016 den türkischen Präsidenten Erdoğan in einem Schmähgedicht gezielt verspottet, was zu diplomatischen Animositäten führte. Darf man das? Es wurde bald klar: In einem freien Land darf man das. Die Politik hat es nichts anzugehen, was die Presse in ihrem Land tut, solange keine hier anerkannten Rechtsgüter verletzt werden. Und bei einer öffentlichen Person ist es nun mal so, dass sie sich auch schneidende Kritik gefallen lassen muss – Frau Merkel kann selbst ein Lied davon singen. Zur finalen Klarstellung wurde der überkommene §103 StGB schließlich abgeschafft.
.
Der Fall erinnerte an eine Affäre um die sogenannte „Lex Soraya“ von 1958: Die deutsche Boulevard-Presse hatte sich damals über Trennungsgerüchte im Persischen Herrscherhaus ausgelassen, damit die Wut des Schah von Persien auf sich gezogen und eine diplomatische Krise ausgelöst. Es gab damals tatsächlich Kabinettspläne, ein Gesetz zu verabschieden, dass solche Krisen per Zensur vermeidet. Doch schnell intervenierten der Deutsche Presserat und der Bundesrat – und die Vorlage wanderte in den Papierkorb.

Bild: US Department of Defense / Wikimedia

5. Hilfsangebote bereitstellen

Auch die Phänomene in den Sozialen Medien folgen den Bedürfnissen, Ängsten und Reflexen von Menschen und diese sollte man ernst nehmen. Jede Maßnahme „gegen“ einen User sollte daher mit einem spezifischen (Plattformübergreifenden) Angebot begleitet sein. Warum sind zu meinem Thema so viele Fakes unterwegs? Wie kann ich meine Wut in etwas Konstruktives umsetzen? Wohin kann ich mich wenden, wenn ich bei mir pädosexuelle Neigungen bemerke? Wie kann ich aus einem kriminellen Netzwerk aussteigen? Warum mache ich mich mit einem Inhalt strafbar? Das klingt „gut gemeint“ und ist es auch. Wer dies für eine Bevormundung hält, muss ja nicht teilnehmen.
.

6. Legal – tolerierbar – illegal

Neben den Kategorien „legitime Meinungsäußerung“ (kein Eingriff) und „illegaler Inhalt“ (muss gelöscht werden) sollten wir uns eingestehen, dass es eine dritte Kategorie gibt: Inhalte, die für ein Massenpublikum nicht förderungswürdig, aber noch zu tolerieren sind. Die also aufrufbar sein müssen, aber nicht gepusht werden sollten. Dazu könnten z.B Bekennerschreiben von Terroristen gehören oder die Dokumentation grausamer Kriegsverbrechen. Keine verantwortungsbewusste Redaktion würde so etwas auf Seite eins bringen, aber in den Social Media gibt es bis dato kein solches Bewusstsein.

Hier verlassen wir also den rein rechtlich orientierten Bereich des Schwarz-weiß und betreten den brisanten Graubereich der Gewichtung von Inhalten. Im derzeitigen Wildwuchs ergibt diese Gewichtung sich aus der Interessenlage – also aus den inhaltlichen oder Gewinninteressen der Plattformen oder aus den Kommunikationszielen derer, die diese geschickt zu nutzen wissen. Trauen wir uns zu, auch hier noch wertend einzugreifen? Wie schützen wir diesen Bereich vor Misstrauen, Dünkel und Partikularinteressen? Denn wie gesagt, wo gemischt und gemahlen wird …
.

7. Geschäftsmodelle überprüfen

Wenn wir die Alkohol- oder Zigarettenindustrie oder Sonnenstudios regulieren können, weil wir ihre Produkte für potenziell schädlich halten – warum sollten wir dann zuschauen, wie die Algorithmen der Social Media Polarisierung und Hass schüren? Hier geht es um Geschäftsmodelle. Letztlich müssen sich die großen Plattformen in die Karten schauen lassen: Was pushen sie, was unterdrücken sie? Wo liegt Overblocking oder eine strukturelle Diskriminierung vor? Fördern sie Hass und Desinformation in einem Maß, das eine Gefährdung der Demokratie als Ganzes darstellt und eine Regulierung rechtfertigt?

Zur Zeit setzt sich durch, was der größte Aufreger ist, was am meisten Impact, Involement und Screen time bringt. Hier könnte mit Algorithmen graduell gegengesteuert werden, also auch jenseits von Löschungen. Sie könnten ebensogut fördern, was eine konstruktive Diskussion und Lösungen befördert, also de-radikalisiert. Dieser Eingriff in den Maschinenraum der großen Social-Media-Plattformen würde klare Kriterien verlangen und eine möglichst neutrale Aufsicht, die für Ausgewogenheit und Vielfalt sorgt. Vor einem politisch gefärbten „Gemeinsinn“ müsste man sich dabei hüten, um wertvolles Vertrauen nicht zu verspielen.

Niemand sollte sein Geld damit verdienen, uns mit negativen Basalreflexen wie Angst, Hass und Verunsicherung möglichst lange im Bann zu halten. Aber womit sonst sollen sie sich finanzieren? Ob man große Plattformen als öffentlich-rechtlich definiert (denn staatsfern müssen sie bleiben!), sie mit Rundfunkgebühren statt Werbung finanziert, ob man Margen beschneidet, ob man die User zur Kasse bittet oder vielleicht nur Accounts mit sehr hohen Reichweiten – auch das wäre eine heiße Diskussion wert.
.
.

Beispiel 7: Islamismus – Appeasement oder Trotz?


.
Eine ganze Reihe grauenhafter Morde, Mordversuche und Todesdrohungen in Europa geht auf das Konto radikaler Islamisten. Im Fadenkreuz steht dabei nicht selten die Meinungsfreiheit selbst. Der Regisseur Theo van Gogh oder die Karikaturisten von Charlie Hebdo wurden ermordet. Auch auf den Karikaturisten Kurt Westergaard gab es Mordanschläge. Der Autor Salman Rushdie steht seit 1989 unter der ständig erneuerten Todesdrohung durch iranische Mullahs. Aufgeklärte Muslime wie Seyran Ateş oder der Islamkritiker Hamed Abdel-Samad müssen mitten in Deutschland unter ständiger Bedrohung leben. „Ich teile Ihre Meinung nicht, aber ich würde mein Leben dafür einsetzen, dass Sie sie äußern dürfen.“ – dieser Satz Voltaires hat in Bezug auf den politischen Islam eine buchstäbliche Bedeutung.
.
Es sollte klar sein, dass man hier für die Meiungsfreiheit einstehen muss. „Religiösen Gefühle“ sind in säkularen Staaten kein Rechtsgut. Und doch gibt es immer wieder Stimmen, die aus falsch verstandener Toleranz oder aus Angst als Muslimenfeindlich zu gelten, ein Appeasement einfordern: „Warum muss man immer so provozieren?“ Nun, vielleicht darum: Die radikalen Islamisten werden sich mit kleinen Zugeständnissen nicht abfinden, sie im Gegenteil als Zeichen der Schwäche deuten und niemals zufrieden sein. Die säkulare Sicht, dass religiöse Anschauungen vielfältig und letztlich Privatsache sind, ist für eine freiheitliche Gesellschaft grundlegend.

Bild: Charlie Hebdo

Keine heile Welt – aber vielleicht kriegen wir die Kurve

.
Die genannten Vorschläge sind nicht unbedingt neu. Und sie bieten auch keine Gewähr für Sicherheit. Was wäre, wenn wir sie umsetzen könnten? Die Libertären würden darin Bevormundung sehen und die Marktliberalen eine Gängelung. Wahrscheinlich würde es sogar zu neuen Ungerechtigkeiten kommen. Manch harmloser Querulant würde weiter in der virtuellen Gummizelle einer begrenzten Reichweite landen. Und manchem Meldekartell würde es gelingen, unliebsame Kritiker mundtot zu machen.

Aber klare Grenzen und besser funktionierende Abläufe könnten entscheidend helfen, Social Media aus ihrer derzeitigen Pubertät entwachsen zu lassen. Die Gefahr, dass die Demokratie und der Zusammenhalt in pluralen Gesellschaften an Hass und gezielter Desinformation zerbrechen, wäre vermindert. Der nächsten Krise könnten wir mit mehr Vertrauen zueinander, mit besser funktionierenden Debatten und konstruktiveren Lösungen entgegentreten. Und gleichzeitig blieben die unbeobachteten, dissidentischen Freiräume erhalten – ohne die wir das mit der Demokratie und Gedankenfreiheit auch gleich ganz sein lassen könnten.
.

//

In einer früheren Version dieses Blogbeitrags stand, dass der im Kussfoto mit abgebildete Mohamed H. der Partner von Amed S. sei. Das war eine Fehlannahme, die ich korrigiert habe.