2024 ist ein wichtiges Wahljahr. Soziale Medien wie Instagram, TikTok oder X spielen dabei eine große Rolle. Ihre Algorithmen wählen aus der Flut der verfügbaren Inhalte oft diejenigen aus die aufregen, um ihre Nutzer länger auf der Plattform zu halten. Viele dieser Beiträge nehmen es mit der Wahrheit nicht genau. Wie soll man damit umgehen?
Dieser Frage widmet sich Jana Lasser, Professorin für Data Analysis an der Universität Graz. Sie forscht an der Verbesserung sozialer Medien und wurde dafür mit einem ERC-Starting-Grant ausgezeichnet. „Das Ziel sind Algorithmen, die konstruktive Diskussionen fördern, statt Aufregung zu schüren.“
Digitale Zwillinge
Es handelt sich nicht um eine theoretische Aufgabe. Lasser will echte Alternativen entwickeln und testen. Dafür will sie digitale Zwillinge von sozialen Medien wie X oder Reddit bauen. „Auf diesen Kopien können wir unsere Ideen erproben und optimieren. Darauf basierend können wir der Politik Empfehlungen zur Anpassung der Algorithmen geben.“
Doch warum sollten sich die Anbieter sozialer Medien daran halten? Ganz einfach: Die EU hat mit dem Digital Services Act Anfang des Jahres ein Gesetz geschaffen, das diese Firmen dazu zwingt, die Risiken ihrer Algorithmen für die Demokratie zu untersuchen und diese nötigenfalls zu verändern. Lasser’s Forschung könnte dafür eine Grundlage sein.
Es geht hier aber nicht um Zensur“, betont Lasser. „Aktuell sorgen Algorithmen eher dafür, dass jene Inhalte Aufmerksamkeit bekommen, die am meisten Klicks bringen und am meisten aufregen.“ Ein Video einer extremen Verschwörungstheorie wird daher tendenziell viel mehr Menschen gezeigt als ein gut recherchiertes Nachrichtenvideo. Das liegt daran, dass bei der Empfehlung von Inhalten aktuell die monetären Interessen der Plattformen bestimmend sind, und nicht das Interesse der Gesellschaft, z. B. am Erhalt einer gesunden Demokratie.
Konstruktiver Diskurs
„Ein Ziel der Forschung sind Algorithmen, die eher Inhalte anzeigen, die einem konstruktiven Diskurs förderlich sind“, sagt Lasser. Eine Idee wäre, Beiträge durch maschinelles Lernen auf hasserfüllte Sprache oder Polarisierung zu prüfen und entsprechend etwas weniger Reichweite zu geben, oder Nachrichtenseiten, die nach journalistischen Standards arbeiten, einen Bonus zu geben. „Dabei werden aber keine Beiträge gelöscht, sondern Aufmerksamkeit umverteilt.“
Umgang mit Satire
Mit diesem Ansatz könnte ein weiteres Problem gelöst werden: Aktuelle Algorithmen erkennen oft nicht, ob ein Post Kunst oder Satire ist. „Soziale Medien löschen derzeit alles, was einer weiblichen Brust ähnelt, auch wenn es sich um ein berühmtes Kunstwerk handelt.“ Alternativ könnte man den Algorithmus so programmieren, dass dieses Posting einfach nicht so oft gezeigt wird. „So vermeiden wir Zensur und greifen dennoch risikobasiert ein.“ Beiträge mit strafrechtlichen Verstößen müssen natürlich weiterhin sofort entfernt werden."
Lasser betont: „Eine perfekte Lösung gibt es nicht. Die Welt der sozialen Medien verändert sich ständig.“ Politische Akteure würden rasch lernen, wie sie Filterungen umgehen können. „Jeder Algorithmus stößt hier an Grenzen.“ Am Ende brauche es bei kritischen Fällen immer noch echte Menschen, die entscheiden.
Über ihre Forschung spricht Jana Lasser als Keynote-Speakerin bei der DELPHI-Konferenzt vom 16. bis 18. September auf der Universität Graz und beim Technology Impact Summit am 10. Oktober am IdeaLab der Universität Graz.