Eine Ausgangsthese

Die Empfehlungsalgorithmen* und Moderationsregeln in sozialen Netzwerken formen unsere Gesellschaft

Ihr Effekt kann kaum überschätzt werden, im Positiven wie im Negativen. Viel von der Polarisierung, Angst und Verunsicherung, die wir heute in unseren pluralistischen Gesellschaften erleben, wird befeuert durch den Einsatz oder die Ausnutzung von Empfehlungs­algorithmen. Sie können uns geradezu abhängig machen und psychisch belasten. Sie können Unsicherheit, Angst, Hass oder Paranoia verstärken und eine Radikalisierung von Positionen auslösen.

Aber wir sind auf sie angewiesen: Ein öffentlicher Diskurs im Internet ist ohne Empfehlungs- und Moderationsregeln kaum vorstellbar. Denn erst sie können aus einer Kakophonie von Aufschneidern ein halbwegs sinnvolles Forum machen. 

*Anmerkung: Algorithmen können sowohl von Menschen als auch von Maschinen erstellt und ausgeführt werden. 

.

Warum ist das so? 

Empfehlungsalgorithmen … 

• … stellen die Zutaten für unseren täglichen (sozialen) Medienmix zusammen. 

• … sind, im Gegensatz zu klarer Zensur, ein subtilerer, unsichtbarer, aber effektiver Eingriff. 

• Die individuelle Überwachung ist nicht ihr Hauptziel, aber sie kennen uns nur allzu gut.

• Durch die Bevorzugung von Inhalten, die uns aufwühlen und Reaktionen provozieren, fördern sie tendenziell Hass, Angst und Dissens. 

• Zu kommerziellen oder politischen Zwecken eingesetzt, können sie unser Verhalten vorhersagen und beeinflussen.

• Sie fördern einfache Erklärungen und die Selbstbestätigung von Gruppen. Dadurch verstärken sie Ideologien und können Menschen leicht radikalisieren. 

• Indem sie unsere Gesellschaft polarisieren, stören sie einen lösungsorientierten öffentlichen Diskurs und gefährden unsere Demokratien.

. 

Was tun? 

Die sozialen Netzwerke sind sich ihrer eigenen Auswirkungen sehr bewusst. Sie forschen darüber und wissen wahrscheinlich auch, was sie besser machen könnten – im Sinne des Gemeinwohls in der Gesellschaft. Aber dies ist nicht ihr Fokus. Gemäß ihrem Geschäftsmodell sehen sie sich dazu genötigt, ihre Geldmaschine am Laufen zu halten. 

Wir, als private Menschen, als Zivilgesellschaft und als politische Entscheider:innen, haben mit den Folgen zu kämpfen. Wenn wir sie eindämmen wollen und (noch weiteren) Schaden verhüten, müssen wir wirksame Mittel finden, um uns einzumischen und Verbesserungen durchzusetzen.
.

TRAP möchte das ganze Bild betrachten – und mehr 

Bei TRAP soll es darum gehen, diese These zu diskutieren und Lösungen zu erforschen. 

Dies aber weniger mit wissenschaftlicher Methodik (im kleinen akademischen Kreis), sondern in einem motivierenden und heuristischen Ansatz. Dies könnte von einer Interview­reihe bis hin zu einer voll finanzierten, interdisziplinären Zusammenarbeit über Organisationen hinweg reichen. 

Am Anfang stehen Gespräche mit Experten, später könnten moderierte Diskussionsrunden stattfinden. Am Ende könnte ein Grundsatzpapier entstehen, das von einigen Teilnehmenden gegengelesen wird. Und – wenn das Ergebnis es wert ist – eine Kampagne zu seiner Verbreitung. Mal sehen, wie weit wir damit kommen …!

.

Welche Fragen stellen sich uns? 

• Ist die Ausgangsthese eigentlich richtig? Und was spricht dagegen? 

• Gibt es wissenschaftliche Studien und belegte Fakten?

• Welche Projekte / Initiativen gibt es bereits, die sich mit Problemlösungen befassen? 

• Gibt es Ansätze, die schädlichen Auswirkungen zu vermeiden? Gibt es z. B. alternative Algorithmen, die Gemeinsinn, Freundlichkeit, Respekt und Verständnis fördern? Wenn ja, warum sind sie nicht im Einsatz – oder sind sie es irgendwo? Mit welchen Resultaten? 

• Wie werden die Algorithmen von den Plattformen gepflegt, getestet, geschrieben, manipuliert, automatisiert, überwacht, geheim gehalten? Wo sind sie selbstlernend?

• Warum ist z.B. Twitter so viel aggressiver als Instagram – und ist doch ein wichtiges Forum für die politische Meinungen und eine wichtige Quelle der Presse? 

• Es gibt Hinweise darauf, dass das Internet seit dem Einsatz von Empfehlungsalgorithmen so kaputt und toxisch geworden ist. Oder haben Extremisten einfach gelernt, um sich diese zunutze zu machen? 

• Was gibt Leuten das Gefühl, exklusive Informationen zu teilen und „selbst zu denken“, während sie gleichzeitig groß angelegten Manipulationen bis hin zum sektenartigem Wahn folgen? 

• Welche anderen psychischen, gesellschaftlichen oder volkswirtschaftlichen Auswirkungen sind mit dem Konzept der „maximierten Bindung“ verbunden – bei Personen, in Familien, in der Arbeitswelt, auf Freundschaften, Gemeinschaften, Nationen und global (z. B. in Bezug auf Selbstwertgefühl, kulturellen Austausch, Prokrastination, Anregungen, Mangel an persönlicher Begegnung, Informationsfluss, Schlafmangel, soziale Bindung, Dogmatismus usw.)?

• Wie denken die Plattformen selbst darüber, nachdem sie sich von netten Start-ups zu Meinungsmaschinen entwickelt haben?

• Welche alternativen Geschäftsmodelle könnte es für Plattformen geben, um ihre Unternehmen zu betreiben, ohne die beschriebenen Kollateralschäden anzurichten?

• Inwiefern wäre eine Regulierung von außen sinnvoll – sei es in Form von Algorithmen-Monitoring, einem Gütesiegel, öffentlich-rechtlichen Institutionen, NGOs, Boykotten, staatlichen Regulierungen usw.?

• Wie wird mit politischen Interessen umgegangen? Gibt es eine vertretbare gemeinsame Basis, die man als „Weg der Mitte“ bezeichnen könnte (z. B. eine Menschenrechts-Agenda), oder geht es nur um die Hausregeln der Plattformen?

.



Kontaktiert / kontaktieren Sie mich gern per E-Mail zu diesem Projekt.
Beste Grüße, Peder Iblher