IN DEN KANINCHENBAU

 

Kaninchen, unsplash.com, Gary Bendig
Der Fall eines durch YouTube radikalisierten jungen Mannes in den USA sorgt derzeit für Aufsehen. Ausgehend von der Geschichte fragt sich Max, welchen Einfluss soziale Medien auf uns haben, wie sie funktionieren und was das für twitternde Wissenschaftler:innen bedeutet. Ein Gastbeitrag des Transferzentrums.

Alle tun es: große Universitäten, Hochschulprojekte, Promovierende. Sie alle sprechen über ihre Arbeit und Forschung in den sozialen Medien. Im Rahmen meiner Arbeit im Transferzentrum der Hochschule unterstütze ich regelmäßig Forschende darin, Instagram, Twitter und YouTube effizient für ihre Arbeit zu nutzen. Ich verstehe es als meine Aufgabe, Interessierte darüber aufzuklären: über die Vorteile und Potenziale, aber auch über Hürden und, ja, Gefahren. In den letzten Wochen ist vor allem in den USA eine neue Kontroverse entbrannt, angestoßen von einem Artikel (und Podcast) der New York Times (NYT). Darin wurde minutiös aufgedröselt, wie YouTubes Mechanismen einen jungen Mann immer weiter in das Kaninchenloch von Verschwörungsmythen warfen.

Wer sich einmal mit sozialen Medien befasst hat, kennt Algorithmen und Filterblasen. Das ist natürlich nicht neu. Was mit dem Beginn der Coronapandemie jedoch verstärkt sichtbar wurde, ist das Potenzial dieser Mechanismen für Verschwörungsmythen, für Desinformation und nicht zuletzt für zerstörerische Gewalt, die besonders den Angriffen auf das US-Kapitol im Januar 2021 sichtbar wurde.

Als ich über die Geschichte der NYT stolperte, kam ich nicht umhin, das Gehörte und Gelesene auf meine Arbeit im Transferzentrum und TRANSFER TOGETHER zu übertragen. Welche Rolle spielen Forschende in diesem Strudel der Desinformation und Verschwörungsmythen? Müssen sie dieses System akzeptieren und adaptieren? Können sie dem ausweichen? Was müssen Forschende über den Kaninchenbau wissen?

The Rabbit Hole

Worum geht es in der Kontroverse? In der achtteiligen Podcast-Reihe Rabbit Hole begleitete der Kolumnist Kevin Roose den 26-jährigen Caleb Cain bei seiner Reise durch den eigenen YouTube-Verlauf. Cain hatte sich von einem aufgeschlossenen College Studenten zu einem radikalen Anhänger diverser Verschwörungsmythen entwickelt. Er glaubte an die große Weltverschwörung, an einen geplanten Bevölkerungsaustausch und an einen geheimen Pädophilen-Ring in einer Washingtoner Pizzeria. Nach Gesprächen mit Entwickler:innen bei YouTube werden die Leser:innen oder Zuhörer:innen mitgenommen in den YouTube-Verlauf von Cain. Welche Videos hatten ihn dazu gebracht, sich immer tiefer in den Kaninchenbau zu begeben? Und wieso wurden ihm solche Videos überhaupt erst vorgeschlagen?

Um das zu verstehen, müssen wir zuerst einen Mechanismus betrachten, der allen sozialen Medien zugrunde liegt: der Algorithmus. Vereinfacht gesagt, handelt es sich dabei um einen selbstständig lernenden Code, der dafür zuständig ist, was wir in den sozialen Medien präsentiert bekommen. Der Algorithmus bestimmt, welchen Beitrag wir in unserem Instagram-Feed zuerst sehen und welche YouTube-Videos uns als nächstes vorgeschlagen werden. Dabei wird unser Online-Verhalten genau analysiert, um herauszufinden, was uns dazu bewegen könnte, online zu bleiben.

Die genaue Funktionsweisen der Algorithmen sind in der Regel jedoch Firmengeheimnisse von Facebook, Google und Co. Dahinter steckt kein böser Plan großer Unternehmen, sondern schlichtweg ein Interesse der Firmen, Menschen auf ihren Plattformen zu behalten. Denn wer online ist, konsumiert auch Werbung.

Die Recherche der New York Times wurde als achtteilige Podcast-Reihe veröffentlicht. Ihr findet die Reportage Rabbit Hole auf der Seite der New York Times: https://www.nytimes.com/column/rabbit-hole und überall, wo ihr Podcast findet.

Hintergründe zur Recherche von Kevin Roose und weitere Einzelheiten findet ihr außerdem in dem öffentlich zugänglichen NYT-Artikel “The Making of a YouTube Radical”. Bild: New York Times.

Das Ergebnis der Recherche der NYT belegte auch genau das: YouTube präsentierte Cain immer mehr von den Inhalten, die der Algorithmus für ihn als interessant bewertete. Sobald der Algorithmus verstanden hatte, dass Caleb auf Verschwörungsmythen ansprang, präsentierte er ihm immer mehr davon. Er steigerte sich in die Thematik hinein und begab sich immer tiefer in den Kaninchenbau. Abweichende Meinungen sah der Algorithmus nicht vor. YouTube ging es nicht um den Inhalt. Das Ergebnis zählte, die Watch Time.

Es geht nicht nur um YouTube

Andere Plattformen sind davon nicht ausgenommen. Wer sich schon einmal durch den Infinite Scroll bei Instagram oder TikTok bewegt hat, kennt diesen Mechanismus. Dabei werden unendlich viele Kurzvideos aneinandergereiht, die für uns interessant sein sollen. Nutzer:innen können sich einfach zurücklehnen und berieseln lassen. Auch ich ertappe mich gelegentlich dabei, wie ich die vom Algorithmus zusammengestellten Videos konsumiere, ohne zu hinterfragen, was das Programm dabei über mein Konsumverhalten lernt. Das Ergebnis stimmt, meine (viel zu lange) Watch Time.

Diese Mechanismen sozialer Medien geraten regelmäßig in die Kritik. Wegen dem laxen Umgang mit Datensicherheit, wegen der Realitätsverzerrung besonders für junge Menschen oder wegen dem hohen Suchtpotenzial. Zwar haben die Plattformen diese Kritik nie richtig abschütteln können, aber ihnen ist es gelungen, wirkliche Veränderungen auf kleine Schönheitsreparaturen zu beschränken (meist begleitet von Marketingkampagnen). Irgendwo ist das nachvollziehbar: Es ist immerhin das Geschäftsmodell von Facebook, Twitter und Co.

Der Weg aus dem Kaninchenbau

Die gute Nachricht vorweg: Wer den Mechanismus versteht, kann ihn auch für sich nutzen. Das zeigt auch die Geschichte von Caleb Cain. Am Ende wirft ihm der Algorithmus von YouTube ein Video vor die Füße, in dem seine Lieblings-Youtuberin und die Logiklücken ihrer Erzählung ins Lächerliche gezogen werden. Cain klickt sich nun auch durch diese Videos und findet so langsam einen Weg aus dem Kaninchenbau heraus – und direkt in den nächsten hinein. Heute ist Cain aktiv auf YouTube, produziert eigene Videos. Er sagt, YouTube werfe ihm nun Videos der Gegenseite vor.

Es ist derselbe Mechanismus. Wieder ein Kaninchenbau, nur eben ein anderer.

Für Menschen, die für solche Mechanismen anfällig sind und vielleicht bereits einen sehr hohen Medienkonsum haben, ist es schwer, dem zu entkommen.

Ohren spitzen!

Das Beispiel für Caleb Cain hat mich zum Nachdenken gebracht. Auf der einen Seite zeigt es, wie die Mechanismen sozialer Medien für Desinformationen ausgenutzt werden können. Andererseits liefert es uns auch einen möglichen Ausweg: Um diesen Kreislauf aus Desinformation zu durchbrechen, brauchen wir faktenbasierte, kritische Inhalte, die dem etwas entgegensetzen. Hiermit ist auch die Wissenschaftscommunity gemeint. Wenn sich Forschende diesen Mechanismus verstehen und zunutze machen, ist es möglich, damit Menschen zu erreichen, die nicht (mehr) anderswo erreichbar sind.

Das bedeutet natürlich gleichzeitig, sich dem auszuliefern. Das bedeutet, dass man in Kauf nimmt, für viele Menschen einen neuen Kaninchenbau zu schaffen. Ob das zielführend ist oder nicht, muss jede:r für sich entscheiden.

Gibt es überhaupt eine gute Lösung für dieses Dilemma? Soziale Medien aufgrund all der oben genannten Probleme zu meiden, halte ich weiterhin für die falsche Antwort. Ich finde Wissenschaft weiterhin instagramable – mehr noch –, ich denke, Wissenschaft muss auf Instagram eine starke Stimme haben.

Ich nehme aus dem Beispiel von Caleb Cain vor allem mit, dass es wichtig ist, diese Mechanismen in ihrer Komplexität zu verstehen – sowohl die positiven, wie negativen Aspekte. Forschende, Hochschulprojekte oder Universitäten, die soziale Medien nutzen möchten, müssen nicht nur wissen, wie Algorithmen funktionieren, sondern sie sollten auch ihre Nutzer:innen regelmäßig darüber informieren.

Die Wissenschaft kann Menschen aus dem Kaninchenbau helfen. Aber sie sollte wissen, dass sie währenddessen vielleicht auch einen neuen gräbt. Also: Ohren spitzen!

Max Wetterauer, Team, Transferzentrum
Max Wetterauer

Open Science und Social Media sind die großen Baustellen, an denen Max im Bereich Offene Hochschule tüftelt. Wenn ihm die 280 Zeichen auf Twitter mal nicht ausreichen, stillt er seinen Schreibdurst mit Artikeln hier auf dem Blog. Zu Max’ Projektseite.

Verwandte Beiträge

Comments (3)

[…] diese Plattformen dank ihrer ausgeklügelten Algorithmen sehr gut (mehr zu Algorithmen in meinem Blogbeitrag „In den Kaninchenbau“). Wer sich auf Twitter bewegt, sollte sich vorab informieren, wie diese Algorithmen funktionieren, […]

Lieber Max,
Solche Beispiele kennt bestimmt jede:r aus dem eigenen Umfeld, aber es ist interessant zu sehen, dass es nicht nur ein kleines subjektives Phänomen ist!
Und ich bin deiner Meinung, dass Wissenschaftler:innen dies nicht nur wissen, sondern nutzen sollten (ja, leichter getippt als getan). Für mich ploppt dabei aber noch ein anderer Bereich auf, der sich nicht nur auf den Wissenschaftsbetrieb beschränkt: Medienkompetent zu sein.
Im schulischen Kontext endet dies leider oft dabei, die Medien nutzen, nicht aber grundlegende Mechanismen, wie Algorithmen, verstehen zu können. Das finde ich persönlich nicht nur schade, sondern gefährlich, weil der Umgang mit Medien und letztendlich auch Informationsbeschaffung, -einordnung und -bewertung gelernt werden müssen – am besten in der Schule, wo jeder Mensch potentiell erreicht werden kann. Wäre super, wenn das auch in der Lehramtsausbildung in der Breite beachtet werden würde 😉
Liebe Grüße aus dem Urlaub,
Laura 🙂

Hallo Laura,

danke für deinen Kommentar! Bis die Thematik in die Schulen getragen werden, dauert das sicher noch ein wenig. Ich bin aber schon froh, dass die Algorithmen nicht nur mit der Marketing-Brille beachtet werden, sondern inzwischen auch von großen Medienhäusern unter die Lupe genommen werden. Aufmerksamkeit für das Thema ist immer gut!

Liebe Grüße
Max

Hinterlasse einen Kommentar