Online-Plattformen, die riesige Angebote verwalten, setzen auf Algorithmen, um den Kunden Empfehlungen oder Werbung zu liefern – das funktioniert nicht immer.
Künstliche Intelligenz ist in aller Munde. Ihren Zwillingsbruder, die künstliche Dummheit, trifft man allerdings viel regelmäßiger an. Macht man etwa auf YouTube den Fehler, sich nicht mit händischer Suche, sondern per automatisch vorgeschlagenen Video-Empfehlungen durch das Angebot des Videodiensts zu hangeln, landet man in allerkürzester Zeit bei extremistischen, verschwörungstheoretischen oder ultra-kontroversiellen Videos. Immerhin wird dadurch die Verweildauer auf der Plattform erhöht; die gesellschaftlichen Kollateralschäden sind YouTube egal.
Dabei macht der Algorithmus genau das, was irgendwie sein Lebenszweck ist – nur bereitet er uns damit keine rechte Freude. Und seinen Entwicklern indirekt auch nicht: Gegen die Gefährdung des gesellschaftlichen Diskurses durch soziale Medien und ihre »automatischen« Radikalisierungsbeschleuniger regt sich inzwischen Protest. Zu Recht: Wie man an den sich in sozialen Medien schrill zuspitzenden Diskussionen sieht, hat die durch Algorithmen mitbefeuerte Selbstradikalisierung ganzer Bevölkerungsgruppen die Sprengkraft, ganze Staaten und Gesellschaften in ihren Grundfesten zu erschüttern.
Technische Lösungen für gesellschaftliche Probleme?
Das Grundproblem ist fast schon philosophischer Natur: Lassen sich Auswahlaufgaben rein automatisch besser durch Programme erledigen? Die Hightech-Philosophen des Silicon-Valley-Futurismus beantworten diese Frage traditionell mit einem lauten Ja – wenn genug Information da ist, so das fast religiös verteidigte Argument, liefert ein Algorithmus bessere, schnellere und vor allem kostengünstigere Antworten als menschliche Kuration. Der Irrtum, dem die Tech-Bros dabei aufsitzen, ist allerdings fatal: Es gibt keine echte Objektivität im Umgang mit von Menschen geschaffenen (Kultur-)Gütern – und jede Voreinstellung eines Auswahlalgorithmus trägt bereits Subjektivität mit in die Antwort hinein.
Mit anderen Worten: Wer rein technische Lösungen für gesellschaftliche Probleme sucht, verweigert sich der Tatsache, dass schon dieser Zugang neue gesellschaftliche Probleme mit sich bringt – die herbeifantasierte »Neutralität« einer technischen Lösung ist nur die Illusion jener, die eine simplifizierte Sicht auf die komplexe Realität haben.
Zumindest YouTube hat sich die lauter werdende Kritik in den letzten Monaten zu Herzen genommen und arbeitet an Korrekturen seiner Auswahlmechanismen. Das neue experimentelle Feature »Learning Playlists« soll zumindest für den Bildungssektor kuratierten Content aus vertrauenswürdigen Quellen sammeln, strukturieren und ohne zusätzliche Eingriffe der Empfehlungs-Algorithmen bündeln – als Gegengewicht zum wuchernden Wust an »Impfskeptikern«, »Klimaleugnern«, Flat-Earth-Gläubigen und anderen Verschwörungsfritzen, deren Content nüchterne Fakten oft reichweitenmäßig untergehen lässt.
Die Auswahl für diese Sammlungen treffen dann übrigens keine Maschinen, sondern – wie altmodisch und doch schon wieder modern – eigens geschulte Fachleute. 20 Millionen Dollar will YouTube zunächst dafür in der Learning Fund Initiative bereitstellen.
Man sieht: Für manche Aufgaben, besonders jene, die menschliche Kultur und Gesellschaft betreffen, sind Algorithmen ihren Schöpfern nach wie vor haushoch unterlegen.