Olympia 2024: Wie die Athlethen in Paris vor Online-Hass geschützt werden sollen

Hassnachrichten bis hin zu Morddrohungen erhalten Sportler im Netz. In Paris soll Künstliche Intelligenz sie davor schützen. Kann das gelingen?

Die Moderne Fünfkämpferin Annika Zillekens lag auf Goldkurs, als ihr das zugeloste Pferd Saint Boy in Tokio 2020 die Gefolgschaft verweigerte. Sowohl Tier als auch Reiter waren in der Drucksituation heillos überfordert. Zillekens setzte in ihrer Verzweiflung übermäßig Sporen und Gerte ein, in Medien war von Tierquälerei die Rede. Nach den Olympischen Spielen in Paris wird der Moderner Fünfkampf als Disziplin deswegen auf Hindernisläufe statt auf Reiten setzen, die sportliche Debatte war mit dieser Entscheidung vorbei.

Doch Zillekens erlebte nach dem Wettkampf online ein Martyrium. Ihr Konto auf Instagram wurde zur Zielscheibe eines Shitstorms aus Diffamierungen, Beleidigungen und sogar Morddrohungen. Zillekens war mit den Nerven am Ende. In Tokio stand sie im Netz allein da. Die Sportsoldatin deaktivierte ihren Account. 

In Paris hingegen will das IOC in solchen Fällen die Hassposts erspüren, bewerten, sie von den sozialen Netzwerken löschen und je nach Schweregrad die Urheberkonten sperren lassen – im strafrechtlichem Extremfall wie bei einer Morddrohung sollen Klagen eingereicht werden. Im besten Falle, ohne dass ein Sportler viel davon mitbekommt. 

Was macht eigentlich Annika Schleu? 12.12

Online-Gewalt gehört auch zum Sport

„Online-Gewalt ist etwas, das im modernen Sport allgegenwärtig ist. Es ist etwas Tückisches, das im digitalen Zeitalter praktisch überall zu finden ist“, sagt Kirsty Burrows. Sie ist Leiterin des Bereichs für Safe Sport beim Internationalen Olympischen Komitee IOC. Bei Olympia in Paris sollen deshalb alle der fast 11.000 Athleten und Athletinnen geschützt werden. Das Ziel: die Erstellung eines umfassenden Online-Safe-Spaces für die zehntausenden Social-Media-Konten aller Athleten und Offiziellen, so sie das nicht aktiv ablehnen.

Mit Hilfe einer groß angelegten KI-Überwachung soll der übliche Hergang umgekehrt werden: Bisher waren es die Opfer der Cybergewalt, die verletzende Kommentare finden, sichten und anzeigen mussten. Ein für Betroffene oftmals verstörender und schmerzhafter Vorgang. „Paris 2024 wird uns helfen, die Typologien der Online-Gewalt im Sport besser zu verstehen“, sagt Burrows. „Digitale Gewalt ist nicht immer so, wie man sie erwarten würde. Es wird interessant zu sehen, was die Auslöser sind. Durch die Olympischen und Paralympischen Spiele in Paris werden wir in der Lage sein, uns ein besseres Bild davon zu machen.“

Kirsty Burrows (rechts) leitet den Bereich Safe Sport beim IOC. Ihr Team will mit Hilfe von Künstlicher Intelligenz die Sportler vor Gewalt und Hass im Netz schützen

Milliardenaufgabe online

Burrows‘ Aufgabe ist es, vor Diskriminierung und digitaler Gewalt zu schützen. Eine gewaltige Aufgabe, die nur über KI-Power zu erledigen ist: „Wenn wir den Branchendurchschnitt von vier Prozent für missbräuchliche Inhalte nehmen, sind das 20 Millionen potenzielle Beiträge von einer halben Milliarde, die wir während der Spiele erwarten. Und in dieser Zahl sind Kommentare nicht einmal berücksichtigt“, rechnet Burrows vor.

Das fünfköpfige Team der Safe-Sport-Einheit des IOC hat sich deswegen die Unterstützung des britischen Unternehmens signify.ai gesichert, auch wenn die Olympia-Macher das aus Marketinggründen offiziell nicht bestätigen wollen. Auch signify.ai äußert sich auf Nachfrage nicht dazu. Das Londoner Unternehmen hat bereits diverse internationale Veranstaltungen im Tennis oder Rugby digital gegen Hasspostings abgeschirmt, kann also auf Erfahrung setzen. Olympia ist zweifellos seine größte Aufgabe. „Die KI scannt die Millionen von Datenpunkten mithilfe von Natural Language Processing, um gezielt potenziell bedrohliche Open-Source-Daten aufzuspüren“, so Burrows.

Hasspostings müssen dafür jedoch offen einsehbar und nicht im privaten Raum, zum Beispiel in einem Chat untereinander, ausgetauscht werden. „Damit wir etwas unternehmen können, muss es sich um eine gezielte, fixierte Bedrohung handeln.“ Die Konten eines Athleten oder Offiziellen müssen also direkt angesprochen werden, etwa über einen Hashtag oder Kommentar.

Hass im Netz: Künstliche Intelligenze durchforstet jeden Kommentar

Im Fall der deutschen Athletin Zillekens hätte der Sprachalgorithmus also jeden Kommentar auf ihrer Instagram-Pinwand durchforstet oder nach Varianten ihres Namens oder dem des Pferdes im Rest der Netzwerke gesucht, um Postings, die sie beinhalten, nach dem Grad ihrer Bedrohung gegenüber der Athletin zu bewerten. Gemeldete Fälle ließe man nach einer finalen Prüfung eines Mitarbeiters löschen oder weiterverfolgen.

Bedrohlich – das soll alles sein, was nach geltenden Digitalgesetzen als verhetzend, diskriminierend oder eben digital gewalttätig gewertet werden kann, so wie Morddrohungen. Auch einen suggestiven Post, ähnlich den Kommentaren des Satirikers El Hotzo nach dem Attentat auf Donald Trump, spürt die KI auf, schließlich wurde Trump beim Namen erwähnt, und El Hotzo hat eine große Reichweite. In einem solch komplexen Fall wird jedoch die finale Entscheidung, etwa ob es zur Anklage kommt, nicht von der Künstlichen Intelligenz, sondern von einem Menschen getroffen.

Dennis Schröder Fahnenträger Olympia-Eröffnung 17.58

„Es wird ein firmeneigener Bedrohungsalgorithmus angewandt. Die Daten werden nach Art der Gewalt kategorisiert. Und dann geht es an eine menschliche Triage-Ebene“, sagt Burrows. Letzten Endes sollen also Menschen bei signify.ai bei uneindeutigen oder extremen Fällen bewerten, in welchem Kontext die Aussagen getroffen wurden. 

Weibo und VK bleiben außen vor

Alles aufspüren kann die eingesetzte Netzmaschine bisher jedoch nicht, denn es macht einen Unterschied, auf welcher Plattform man agiert. „Wir decken diejenigen Netzwerke ab, die die meisten Nutzer haben, also Facebook, Instagram, TikTok und X.“ Werden Sportler harsch auf den umtriebigen chinesischen oder russischen Pendants Weibo oder VK angegangen, bleiben diese Fälle beim KI-Screening außen vor. „Wenn jedoch jemand auf Weibo oder einer anderen Social-Media-Plattform, die nicht abgedeckt ist, gezielt beschimpft wird, sind unsere Systeme und Dienste, insbesondere die der IOC-Abteilung, immer noch da, um zu helfen“, sagt Burrows. 

Auf welcher Plattform auch immer, im Idealfall werden die Urheber der Online-Gewalt gesperrt oder, wenn nötig, strafrechtlich verfolgt. Dieses Vorgehen gestaltet sich jedoch aufgrund der unterschiedlichen Rechtslagen schwierig. „Es gilt die Gerichtsbarkeit des Ortes, wo die Person, die den Schaden anrichtet, sich aufhält“, so Burrows. Ein Juristen-Team soll sich daher um alle Vorfälle kümmern, die bei den Spielen gemeldet werden. 

Welches Gesetz gilt bei einer Weltveranstaltung online?

Aber was passiert bei politisch missliebigen Äußerungen, die nach der jeweiligen Gesetzeslage zu einer Verurteilung im Land führen könnte? Oder wo es gewalttätige Konflikte wie in Israel oder der Ukraine gibt, die auch – zum Teil über Bots – digital ausgetragen werden. „Unser System wird in keiner Weise für die Überwachung auf der Grundlage breiterer geopolitischer Kampagnen oder Stimmungen oder Politiken verwendet“, betont Burrows. 

Olympisches Dorf Paris 18:08

Eine Sportveranstaltung, die auf dem Wettstreit von Nationen beruht, kann schnell eine Aussage auslösen, die ein kleinkarierter Staat für kritisch oder unpatriotisch hält: Ob Russland, China, Ägypten, Indonesien oder der Iran, überall wurden Menschen schon für kritische, unpatriotische oder als blasphemisch gewertete Kommentare im Netz strafrechtlich verfolgt. 

„Es geht wirklich um gezielte Bedrohungen von Athleten und Offiziellen, auch auf der Grundlage geschützter Merkmale, einschließlich derjenigen, die die Nationalität einer Person berücksichtigen“, versichert Burrows. Eine der schwierigsten Aufgaben ihres Teams wird sein, dass persönlich Diffamierende vom für politische Akteure willkürlich zur Strafverfolgung Nutzbaren zu sezieren – und die gewonnen Daten zudem vor äußerem Zugriff solcher Akteure zu sichern.