Zunehmend beeinflussen Algorithmen, was wir im Netz zu sehen bekommen. In Verbindung mit einigen allzu menschlichen Eigenschaften führt das zu Problemen.
Auf Twitter verbreiten sich manipulierte Nachrichten, Propaganda und Lügen beinahe doppelt so schnell wie seriöse Artikel. In den Google-Ergebnissen landen hetzerische oder schlicht erfundene Ergebnisse zu Suchanfragen ganz oben. Der Facebook-Newsfeed wird geflutet von Beiträgen politischer Manipulateure, von Trollen und Agitatoren – wenn nicht, wie aktuell in der Causa Cambridge Analytica aufgedeckt, gleich gezielte politische Manipulation eingekauft wird. Was diesen beunruhigenden Entwicklungen gemein ist, ist die Mischung menschlichen (Fehl-)Verhaltens und gut gemeinter, aber sich fatal auswirkender Algorithmen, die, statt für Klarheit zu sorgen, zunehmend Chaos und gesellschaftliche Destabilisierung befördern.
Besonders plakativ zeigt sich das Problem bei YouTube, dem weltgrößten Videoportal. Längst verlässt sich Google, dem die Videoplattform gehört, auch hier auf die Hilfe ausgeklügelter Algorithmen, um seine Nutzer durch das unüberschaubare Angebot zu lotsen. Das bedeutet natürlich immer: seine Nutzer möglichst lange auf YouTube selbst zu halten – schließlich verdient man sein Geld mit Anzeigen. So bekommt jeder Zuseher selbstverständlich Vorschläge, welche Videos als Nächstes angesehen werden könnten, basierend auf den registrierten Sehgewohnheiten und dem Abgleich mit den Profilen anderer User. Dumm nur, dass der clevere Algorithmus dabei eine allzu menschliche Schwäche identifiziert und sie leidenschaftslos und mit maximaler Effizienz ausnutzt: Je extremer ein Inhalt ist, desto mehr erregt er unsere Aufmerksamkeit.
Radikalisiert durch YouTube
Wer sich fürs Joggen interessiert, wird von den YouTube-Vorschlägen unmerklich zu Beiträgen über spektakuläre Ultramarathons geleitet; wer Videos über Vegetarismus sucht und ansieht, landet so auf kurz oder lang bei Videos über Hardcore-Veganer. Wer Informationen zum Impfen sucht, bekommt schnell kontroversielle Impfskeptiker-Dokus präsentiert.
Und wer sich Videos zu gesellschaftspolitischen Fragen zuwendet, sei es von Parteien, Medien oder Einzelpersonen, wird von YouTubes Algorithmen und ihren Vorschlägen Stück für Stück zu immer extremeren Positionen, immer polarisierenderen und radikaleren Standpunkten weitergeleitet, entweder ganz links oder ultrarechts. So werden YouTube-Nutzer radikalisiert – ohne dass sie es überhaupt bemerken.
Die Geschäftslogik dahinter ist simpel: Was mehr Emotion auslöst, erregt größere Aufmerksamkeit – und somit eine längere Verweildauer der Milliarde Nutzer auf dem Videoportal.
Wer seine Nutzer möglichst lange binden will, muss die Intensität erhöhen; bei heiklen gesellschaftspolitischen Themen bedeutet dies unweigerlich eine Radikalisierung des Contents, der angeboten wird. Bei brandaktuellen Themen, etwa den Amokläufen an US-Schulen, erntete YouTube durchaus dafür Kritik, dass die Algorithmen ungerührt und sofort besonders gern plumpe Verschwörungstheorien darüber als Vidos vorschlugen; bei weniger plakativen Themen verfährt das Videoportal allerdings dank seiner Algorithmen genauso.
Extremismus belebt das Geschäft mit der Aufmerksamkeit. YouTube und zahlreiche andere globale Akteure der vernetzten Aufmerksamkeitsöknomie profitieren von der Radikalisierung ihrer Zuseherschaft; die Gesellschaft hat allerdings deren gravierende Nachteile zu tragen. Vor allem im Hinblick auf die Jugendlichkeit großer Teile der Nutzer sollte dieses Geschäft mit der Radikalisierung allen demokratischen Gesellschaften zu denken geben.