14. Oktober 2021
Facebook hat in den letzten Monaten viel Kritik einstecken müssen – zu Recht. Doch das liegt nicht einfach an einem Blackout oder brutalem Inhalt. Statt Zensur brauchen wir öffentliche Kontrolle über Monopole.
Mark Zuckerberg muss 2019 vor dem Finanzausschuss des Abgeordnetenhauses aussagen.
Wenn wir darüber nachdenken, wie wir als Gesellschaft mit einem Unternehmen wie Facebook umgehen sollen, sehen wir uns mit zwei widersprüchlichen Sachverhalten konfrontiert: Einerseits ist Facebook eine außerordentlich nützliche Plattform für die alltägliche Kommunikation, die Veröffentlichung von Inhalten, die Ausführung diverser wirtschaftlicher Aktivitäten und vieles mehr, auf die sich Milliarden von Menschen auf der ganzen Welt verlassen. Andererseits ist es ein hochgradig abhängig machendes, profitorientiertes Unternehmen, das die menschliche Psyche ausnutzt und manipuliert, um Geld zu verdienen – mit verheerenden Folgen für den Rest der Gesellschaft.
Neben den wiederholten Serverausfällen in der letzten Woche ist Facebook nun auch dank explosiver Enthüllungen wieder in den Schlagzeilen: Die desillusionierte ehemalige Mitarbeiterin Frances Haugen ließ eine Menge interner Dokumente an die Öffentlichkeit durchsickern. Eine auf dem Leak basierende, laufende Artikelserie im Wall Street Journal und Auftritte der Whistleblowerin im Fernseh-Interviewformat 60 Minutes sowie vor dem US-Kongress zeichnen folgendes Bild: Facebook ist sich der bedenklichen Auswirkungen seiner Plattform sehr wohl bewusst, hat es aber immer wieder versäumt, diese zu beheben, weil dies seinem wirtschaftlichen Wachstum und seinen Profiten zuwiderlaufen würde.
Ein Bericht enthüllt, dass ein Forschungsteam des Unternehmens selbst zu dem Schluss kam, dass Instagram, welches zu Facebook gehört, einen negativen Einfluss auf die psychische Gesundheit von Mädchen im Teenageralter hat, während das Unternehmen dies zugleich öffentlich bestritt. Auch ließ sich Facebook dadurch nicht von dem Projekt abbringen, an einer Version von Instagram für Kinder unter drei Jahren zu arbeiten. Eine andere interne Studie ergab, dass eine 2018 vorgenommene Modifikation des Algorithmus von Facebook, die der Förderung »sinnvoller sozialer Interaktionen« (»meaningful social interactions«, kurz MSI) dienen sollte, stattdessen Anreize für Beiträge und Inhalte geschaffen hat, die auf Empörung, Polarisierung, Gewalt und Blödsinn basieren. Andere Dokumente zeigen, dass Facebook gezielt Kinder anzusprechen versuchte, um sie früh an ihr Produkt zu binden, und dass sich das Unternehmen Zeit dabei ließ, Beiträge zu entfernen, von denen es wusste, dass sie von Drogenkartellen und Menschenhändlern stammen.
Es sind verschiedene Lösungen für diese Probleme vorgeschlagen worden – etwa die Anwendung von Kartellgesetzen zur Zerschlagung von Facebook; Gesetzesänderungen, die es ermöglichen würden, Tech-Unternehmen für Inhalte zu verklagen, die auf ihren Plattformen veröffentlicht werden; oder, wie Haugen selbst dem Kongress vorschlug, mehr Transparenz zu verlangen und eine Aufsichtsbehörde einzurichten. Viele der Enthüllungen wiesen jedoch eher in Richtung von Argumenten, dass Facebook genauso wie andere De-facto-Monopole als Versorgungsunternehmen behandelt oder sogar in öffentliches Eigentum überführt werden sollte.
Die Dokumente machen deutlich, dass Facebook, wie Haugen vor dem Kongress aussagte, Konflikte zwischen seinen Profiten und der Unversehrtheit der Menschen »stets zugunsten der eigenen Profite gelöst hat«. Facebook ist sich bewusst, dass seine Plattformen schlecht für Kinder sind, aber um weiterhin wachsen zu können, muss es diese Kinder frühzeitig an sich binden, um sicherzustellen, dass sie als Erwachsene Teil seiner Nutzerbasis werden. »Sie sind eine wertvolle, aber ungenutzte Zielgruppe«, heißt es in einem internen Scheiben aus dem Jahr 2020 über Tweens, in dem das Unternehmen auch Preteens studiert, neue Produkte plant, um sie anzuziehen, und die Idee von »Spielverabredungen als Wachstumsmotor« erörtert.
Auch ist sich Facebook darüber im Klaren, dass seine Praxis der Förderung von MSI zu Polarisierung, Feindseligkeit und allen möglichen ungesunden Verhaltensweisen unter seinen Nutzerinnen und Nutzern führen kann. Würde man diese Praxis unterlassen, hieße das aber weniger Beteiligung auf der Plattform und damit möglicherweise geringere Profite. Als eine Mitarbeiterin vorschlug, Fehlinformationen und Empörung dadurch entgegenzuwirken, dass der Algorithmus die Priorisierung von Inhalten aufhebe, die von langen Nutzerketten weiterverbreitet werden, sah Zuckerberg davon ab, da, wie sie schrieb, »das eine bedeutende Beeinträchtigung der Wirksamkeit der MSI bedeuten könnte«. Als ein Forschungsteam dem Unternehmen vorschlug, den Algorithmus so zu modifizieren, dass er die Nutzerinnen und Nutzer nicht in immer extremere Nischen befördert – wie zum Beispiel wenn ein Interesse an gesunden Rezepten bald zu Magersucht-Inhalten führt –, ignorierten die Verantwortlichen dies aus Angst, die emotionale Beteiligung mit ihrer Plattform einzuschränken.
»Viele der Änderungen, die ich vorschlage, werden Facebook nicht zu einem unrentablen Unternehmen machen«, sagte Haugen diese Woche vor dem Kongress. »Es wird nur kein so wahnsinnig profitables Unternehmen mehr sein wie heute.«
Wie bei Unternehmen, die ihre Umsätze dadurch ankurbeln, dass ihre Geräte nach ein paar Jahren kaputt gehen, ist es auch bei Facebook der Heißhunger nach Wachstum und höheren Profiten, der es zu unverantwortlichem Handeln verleitet. Da liegt es nahe, diese Anreize auszuschalten – zumal diese Plattformen langsam aber sicher den Charakter »natürlicher Monopole« ähnlich der Eisenbahn und der Telekommunikation annehmen.
Wenn sich ein Unternehmen in öffentlichem Besitz befindet – oder wenn es sich bei ihm um ein streng reguliertes Versorgungsunternehmen handelt –, dann ist es davon befreit, unter der kapitalistischen Logik unendlichen Wachstums und Profitstrebens zu arbeiten, die diese Probleme verursacht. Auch braucht es dann nicht um jeden Preis zu überleben, auch wenn es nicht mehr gebraucht wird und das Interesse der Nutzerinnen und Nutzer an seinen Diensten zurückgeht. Die Tatsache, dass Facebook in der jungen Generation aus der Mode gekommen ist und heute überwiegend von Personen über Dreißig genutzt wird, mag für Mark Zuckerberg, den privaten Eigentümer von Facebook, ein Problem sein – für ein Versorgungsunternehmen, das von einer widerwilligen Regierung verstaatlicht wurde, einfach weil die Bürgerinnen und Bürger so abhängig von ihm geworden sind, wäre das kein so großes Problem.
Tatsächlich klingt die Verstaatlichung erstmal nach der perfekten Lösung, um die ungesunden und abhängig machenden Auswirkungen dieser Plattform einzuschränken. Wenn es den jüngeren Generationen egal ist, ob es Facebook in Zukunft noch geben wird, warum sollten wir sie dazu zwingen, ihre Meinung zu ändern? Wenn die Menschen glücklicher sind, wenn sie ihre Newsfeeds leeren können, warum sollten wir dann Vergeltung üben, wie es Facebook kürzlich mit dem Erfinder jenes Tools getan hat, das genau dies ermöglicht?
Natürlich müssten dazu eine Reihe praktischer Fragen geklärt werden: Facebook ist zwar ein US-amerikanisches Unternehmen, seine versorgungsähnlichen Dienste werden jedoch weltweit verwendet. Damit stellt sich die Frage, wie ein in öffentlicher Hand befindliches oder staatlich reguliertes Facebook in der Praxis aussehen würde: In wessen öffentlicher Hand? Und von wem würde es reguliert?
Außerdem müsste ein solches System mit einer strengen demokratischen Aufsicht und Kontrolle einhergehen, damit die Praxis der Ausbeutung und Manipulation nicht einfach vom privaten Sektor auf die Regierung übergeht. (Wir dürfen dabei aber nicht vergessen, dass die Überwachungsprogramme und Cyberoperationen von Regierungen in Washington wie anderswo schon heute Plattformen wie Facebook nutzen, um Inhalte zu manipulieren und die Daten von Nutzerinnen und Nutzern in aller Welt zu sammeln und zu speichern.) Möglicherweise wird der richtige Weg am Ende eine Kombination aus diesen Lösungen sein: Die Zerschlagung der Monopole und ihre teilweise Übernahme in öffentliches Eigentum.
Auch wenn die optimale Lösung noch nicht genau feststeht, so ist doch klar, dass der gegenwärtige Zustand unhaltbar ist. Abgesehen von den Problemen, die Haugens Leak aufgedeckt hat, wissen wir seit langem, dass Social-Media-Plattformen und andere Technologien nicht gut für unsere psychische Gesundheit sind, da sie gezielt dazu konzipiert wurden, süchtig zu machen – und zwar in einem Ausmaß, dass die Software-Ingenieurinnen und Tech-Mogule es mithin vermeiden, ihre eigenen Kreationen selbst zu verwenden. Vielleicht gibt es ja eine Möglichkeit, die sozialen Medien und ihre nützlichsten Funktionen für unser Leben zu behalten und zugleich ihre schädlichen Eigenschaften loszuwerden; vielleicht stellt sich auch die ganze Sache als ein großer Fehler heraus, der mit der Funktionsweise des menschlichen Gehirns grundsätzlich nicht zu vereinbaren ist. Aber um das herauszufinden, müssen wir zumindest einmal etwas anderes ausprobieren.
Leider ist das nicht der Schluss zu dem die meisten im Wall Street Journal und anderen Nachrichtenmedien erschienenen Beiträge sowie der größte Teil des US-Kongresses zu kommen scheinen. Wie zu befürchten war, haben die Enthüllungen stattdessen zu erneuten Forderungen nach verstärkter »Content-Moderation« – also Zensur – durch diese Tech-Unternehmen geführt, um die Verbreitung aller Arten von Fehlinformation zu verhindern oder die Plattformen davon abzuhalten, »die Entstehung gefährlicher sozialer Bewegungen zu fördern«, wie Haugen es ihnen vorwarf.
Dabei machen ironischerweise die geleakten Dokumente selbst sichtbar, dass Zensur als Lösung für diese Probleme untauglich ist: Die erste Story in der Artikelserie des Wall Street Journal handelt davon, dass Facebook eine »whitelist« einrichtet hat, die viele Zehntausende von namhaften Konten beinhaltet. Diese sind in der Folge von der Zensur ausgenommen, auch wenn sie Inhalte posten, die bei anderen Nutzerinnen und Nutzern zu Zensur, Sperrung oder dauerhaftem Ausschluss führen würden. Währenddessen verfolgte die Zensurabteilung der Unternehmens auch Profile mit geringerem Bekanntheitsgrad und löschten völlig harmlose Beiträge oder solche, deren Aussage sie falsch interpretierten, darunter auch arabischsprachige Nachrichtenagenturen und Aktivistinnen und Aktivisten während des militärischen Vorgehens Israels in den palästinensischen Gebieten Anfang dieses Jahres. Wie ein vergangene Woche veröffentlichter Bericht von Human Rights Watch über die Unterdrückung palästinensischer Inhalte dokumentiert, haben diese Plattformen wiederholt unter Beweis gestellt, dass man sich nicht darauf verlassen kann, dass sie Inhalte korrekt und verantwortungsvoll moderieren.
»Fehlinformationen hat es schon immer gegeben; die Antworten auf diese Fragen können uns helfen, zu verstehen, warum sie derzeit besonders wirkmächtig zu sein scheinen.«
Diese Reaktion reiht sich ein in einen seit langem bestehenden Trend, den Olivier Jutel als Tech-Reduktionismus bezeichnet hat: die Überzeugung, dass Tech-Unternehmen und ihre Produkte nicht nur schädlich und ungesund für uns sind, sondern darüber hinaus verantwortlich für alles Schlechte, das in den letzten Jahren geschehen ist. Wenn wir uns bei der Frage nach dem richtigen Umgang mit diesem Problem für das Mittel der Zensur entscheiden, laufen wir Gefahr, die umfassenderen politischen, wirtschaftlichen und sozialen Faktoren zu übersehen, die für die Turbulenzen unserer Gegenwart verantwortlich sind, und sie stattdessen der fast mystischen Macht der sozialen Medien zuzuschreiben. War Facebook wirklich allein dafür verantwortlich, dass es im Januar dieses Jahres in Washington zum Sturm auf das Kapitol kam? Oder war es nur eines von vielen nützlichen Werkzeugen, die es den Beteiligten ermöglichten, sich im Vorfeld zu organisieren – wobei diese Menschen, von einer Kombination aus ökonomischer Verzweiflung und der von Teilen der politischen Elite und der Mainstream-Medien verbreiteten Lügengeschichten über die Wahl angetrieben wurden?
Haugen erzählte dem Wall Street Journal, sie habe sich dazu entschlossen, an die Öffentlichkeit zu gehen, als sie mitansehen musste, dass ein politisch eigentlich liberal eingestellter Freund von unheimlichen Wahnvorstellungen – »einer Mischung aus Okkultismus und weißem Nationalismus« – mitgerissen wurde, nachdem er »immer mehr Zeit mit dem Lesen von Online-Foren« (interessanterweise nicht Facebook) verbracht hatte, was schließlich zum Ende der Freundschaft führte. Aber ganz zu schweigen von den unzähligen Menschen, die das Internet und die Sozialen Medien einfach so nutzen, gibt es auch viele Personen, die regelmäßig mit Propaganda in Berührung kommen oder diese konsumieren, ohne auf solche Abwege zu geraten. Leider wissen wir nicht, was die Gründe dafür waren, dass Haugens Freund sich in dieses Lügengespinst hineinziehen ließ; ebensowenig erfahren wir, was ihn dazu brachte, sich später wieder von diesen Überzeugungen loszusagen. Fehlinformationen hat es schon immer gegeben; die Antworten auf diese Fragen können uns helfen, zu verstehen, warum sie derzeit besonders wirkmächtig zu sein scheinen.
Wenn wir Bestrebungen massenhafter Zensur vermeiden wollen, bedeutet das nicht, dass wir uns des einzigen Mittels zur Bekämpfung von Fehlinformation berauben. Es gibt reichlich Änderungen, die an den Algorithmen, dem Design, der zentralen Zielsetzung und den Ressourcen von Facebook vorgenommen werden können, die diesen nihilistischen, profitorientierten Moloch eines Unternehmens jenem Dienst an der Allgemeinheit näher bringen würden, den es schon heute zu leisten vorgibt. Und keine von ihnen würde unser Recht auf freie Meinungsäußerung bedrohen oder unsere Fähigkeit beeinträchtigen, mit geliebten Menschen in Kontakt zu bleiben, Veranstaltungen zu organisieren oder andere nützliche Funktionen solcher Plattformen zu verwenden. Wer weiß – vielleicht wollen wir uns ab und zu sogar einmal ausloggen.
Branko Marcetic ist Redakteur bei JACOBIN und Autor des Buchs »Yesterday’s Man: The Case Against Joe Biden«. Er lebt in Chicago, Illinois.