Im US-Wahlkampf rückte Twitter zuletzt wieder stärker in den Mittelpunkt der Aufmerksamkeit. Zunächst akzentuierte die Plattform ihre Planungen zur content moderation am Wahltag sowie im Anschluss an den Wahlgang im Hinblick auf Tweets, die dazu geeignet sind, das offizielle Resultat in Frage zu stellen. Während die Anmutung betreffender Warnhinweise bereits kritisiert wurde, ändert sich zwar nichts an deren Design, aber an den Möglichkeiten zur viralen Verbreitung problematischer Inhalte:
„when people attempt to Retweet one of these Tweets with a misleading information label, they will see a prompt pointing them to credible information about the topic before they are able to amplify it.“
(Aus dem Twitter-Blog)
Diese und andere angekündigte Maßnahmen folgen dem von Twitter proklamierten Leitbild der „Konversation“ (im Gegensatz zum Primat massenhafter Interaktion). Sie intendieren eine Entdramatisierung durch das, was aus der Perspektive des Plattformdesigns als adding friction bezeichnet wird: Dem sonst möglichst bruchlosen Prozess des Teilens von Inhalten werden Hürden hinzugefügt, die Nutzer*innen zum Innehalten und Überdenken bewegen sollen. Damit orientiert sich Twitter am verhaltensökonomischen Modell des Nudging, um bessere Entscheidungen zu provozieren.
Einen anderen Ansatz verfolgen zwei Experten mit dem Vorschlag weiterer Entschleunigung im Fall des meist beachteten Superspreaders von Desinformation:
„We suggest Twitter and Facebook immediately institute the following process for all of Trump’s social media posts, and for those of other political elites: Any time the president taps ‚Tweet‘ or ‚Post,‘ his content is not displayed immediately but sent to a small 24/7 team of elite content moderators who can evaluate whether the content accords with these platforms’ well-established policies.“
(Wired, 10.09.2020, Hinweis: Nur eine begrenzte Anzahl von Artikeln ist kostenfrei abrufbar.)
Sollten diese den Inhalt nicht in kürzester Zeit als unproblematisch erachten oder ihn aber direkt mit Restriktionen versehen, müsse eine elaborierte Evaluation durch eine weitere Verzögerung der Publikation ermöglicht werden.
In ähnlicher Weise verfuhr Facebook dann nach einer etablierten Prozedur mit einem Beitrag des konservativen Boulevardblatts New York Post. Es ging dabei um hack-and-leak von Informationen ähnlich wie bei Hillary Clintons E-Mails 2016, wonach der frühere Vizepräsident Biden in die Geschäftstätigkeiten seines Sohnes in der Ukraine involviert gewesen sein soll. In Berufung auf ihre Vorgaben kündigte die Plattform eine Faktenprüfung und die Reduzierung der algorithmischen Verbreitung des Artikels an. Twitter hingegen blockierte die Internetadresse des Artikels generell ¬ einerseits unter Bezug auf die Hacked Materials Policy, anderseits aus Gründen des Schutzes von in diesem Zusammenhang veröffentlichten Privatdaten. Doch diese Restriktion ließ sich nicht halten, insofern auch die kritische Berichterstattung über den gesamten Vorgang davon betroffen sein konnte. Zudem kann hier vom sogenannten Streisand-Effekt ausgegangen werden, nachdem der ungeschickte Versuch, eine Information zu unterdrücken, das Gegenteil erreicht, und stattdessen zusätzliche Aufmerksamkeit für den Inhalt erzeugt wird. Insofern sah sich Twitter zu einer Revision seiner Entscheidung respektive der inkriminierten Regelung veranlasst:
Ungeachtet dessen nahmen Trump und andere Vertreter*innen der Republikaner die Angelegenheit zum Anlass, um den Vorwurf der Zensur konservativer Inhalte gegen die Plattformen zu wiederholen. Nun wird über eine Vorladung des Twitter-CEOs Jack Dorsey vor das Senate Judiciary Committee abgestimmt. Der Vorfall aktualisiert damit die bereits auf der Agenda stehende Diskussion um eine Beschränkung der „Macht der Informationsintermediäre“, die in den USA mit spezifischen rechtlichen Fragen verbunden ist:
„House Minority Leader Kevin McCarthy went even further Thursday by calling for repealing the statute, known as Section 230 of the Communications Decency Act, which gives broad impunity to internet companies to moderate content on their sites.“
(Politico, 15.10.2020)
Die drohende Beschneidung von Privilegien und umfassende Regulierung der Plattformen schwebt also über Maßnahmen, die in diesen Tagen zur Moderation politischer Inhalte ergriffen werden. Diesem Druck dürften sich die Verantwortlichen der Unternehmen kaum entziehen können.
Plattformisierung und US-Wahlkampf VI
Dr. Erik Meyer ist Politikwissenschaftler und Fellow am Center for Advanced Internet Studies in Bochum. Dort bearbeitet er das Projekt „Die US-Präsidentschaftswahl 2020 im Kontext der Plattformisierung politischer Kommunikation: Algorithmische Öffentlichkeit und datenbasierte Kampagnenführung“. Einen ersten Einblick gibt sein Beitrag für die Bundeszentrale für politische Bildung. Aktuelle Aspekte dokumentiert er in einer Presse- und Social-Media-Schau und bespricht sie hier in weiteren Beiträgen bis zur Wahl.