Norwegen
[NO] Norwegische Medienbehörde: Visualisierung der wichtigsten Erkenntnisse aus dem Code of Practice zu Desinformation
IRIS 2024-9:1/18
Audun Aagre
Das Gesetz über digitale Dienste (DSA) und die Verhaltensregeln (Code of Practice - CoP) im Fall von Desinformation enthalten Transparenzmaßnahmen für Suchmaschinen, soziale Medien und andere Online-Plattformen. Die Unterzeichnung des Code of practice ist freiwillig, wird aber als eine Maßnahme zur Risikominderung auf der Grundlage der Bestimmungen über systemische Risiken in Artikel 34 und 35 DSA angesehen.
Die norwegische Medienbehörde hat die ersten drei Berichte über die Umsetzung des CoP durch große Plattformen wie Google (YouTube, Google Advertising), Meta (Instagram, Facebook), ByteDance (TikTok) und Microsoft (LinkedIn, Microsoft Advertising) geprüft.
Im Anschluss an diese Prüfung hat die norwegische Medienbehörde ein Dashboard veröffentlicht, das die Entwicklung von ausgewählten gemeldeten Indikatoren über einen bestimmten Zeitraum zeigt, etwa die Zahl der gelöschten Posts, die Desinformation enthalten, Fake Accounts (Scheinkonten) und Demonetarisierungsversuche. Das Dashboard steht auf der Website der Medienbehörde in englischer Sprache zur Verfügung.
Aus den Berichten geht hervor, was sehr große Plattformen in den vergangenen Jahren zur Bekämpfung von Desinformation unternommen haben. So hat TikTok zum Beispiel berichtet, dass in der zweiten Hälfte des Jahres 2023 mehr als 90 Millionen Fake Accounts im Europäischen Wirtschaftsraum (EWR) gelöscht wurden - gegenüber 6 Millionen im ersten Halbjahr 2023. Im selben Zeitraum stieg die Zahl der Anzeigen, die wegen des Verstoßes gegen die Desinformationsbestimmungen auf den analysierten Plattformen im EWR gelöscht wurden, von 13 Millionen auf 80 Millionen.
2024 gab es insgesamt jedoch sehr viel weniger Moderation von Desinformation, Fake Accounts und Fakten-Checks. Die Zahl der Posts, die wegen Desinformation entfernt wurden, ist zurückgegangen, von 330.000 im ersten Halbjahr (H1) 2023, auf 311.000 im zweiten Halbjahr (H2), bis auf 295.000 im ersten Halbjahr 2024. Erheblich zurückgegangen ist auch die Zahl der gelöschten Scheinkonten, von 101 Millionen in H2 2023auf 55 Millionen in H1 2024. Die Zahl der Inhalte, bei denen ein Faktencheck durchgeführt wurde, ist innerhalb von sechs Monaten von 68 Millionen auf 31 Millionen zurückgegangen. Gestiegen ist dagegen die Zahl von politischer Werbung im Internet, die in den letzten sechs Monaten nicht beanstandet wurde, und zwar von 730.000 auf 1 Million.
Bei der Bewertung der Berichte stellte die norwegische Medienbehörde vor allem Folgendes fest:
- Die meisten Plattformen berichten, dass sie Maßnahmen eingeführt haben, um die Risiken zu mindern, die sich aus Desinformation ergeben. Die Qualität der Berichte hat sich im Vergleich zum letzten Bericht verbessert.
- Die Berichte sind sehr ausführlich, wenn es um Content-Moderation der Plattformen und um die Haftung der Nutzer geht, enthalten jedoch nur spärliche Informationen über Indikatoren, die Aufschluss geben über die Haftung der Plattformen, zum Beispiel über Risiken, die sich aus Empfehlungssystemen und der algorithmischen Verstärkung von Falschinformation und Desinformation ergeben.
- Die Berichte von Meta enthalten lediglich Schätzungen. Für einige der Indikatoren enthalten die Berichte Zahlen auf globaler Ebene, aber nicht auf EWR-Ebene. Meta ist die einzige Plattform, die keine Angaben auf EWR/EFTA--Ebene enthält. Nach Auffassung der norwegischen Medienbehörde machen diese Mängel es schwierig, die Maßnahmen für einige der Indikatoren zu vergleichen.
- Die Berichte über Maßnahmen zur Risikominderung in Bezug auf Wahlmanipulationen und KI-generierte Desinformation liefern wertvolle Einblicke, wie Regulierungsbehörden und Plattformen zusammenarbeiten können, um einen Beitrag zur Sicherung freier Wahlen zu leisten. Anhand dieser Bewertungen hat die norwegische Medienbehörde eine Reihe von Empfehlungen vorgelegt:
- Meta muss die Qualität und Genauigkeit seiner Berichterstattung verbessern und Daten auf EWR/EFTA-Ebene angeben. Wenn der Code of Practice in einen Code of Conduct (Verhaltenskodex) umgewandelt wird, kann dies zu Verbesserungen führen.
- Außerdem muss eine Methode für eine unabhängige Bewertung der Effektivität der Maßnahmen der Plattformen entwickelt werden, die sich auf die DSA-Bestimmungen über systemische Risiken stützt.
Referenzen
- NMA Dashboard
- https://www.medietilsynet.no/english/code-of-practice-on-disinformation-in-numbers/
- Dashboard der norwegischen Medienbehörde
- https://www.medietilsynet.no/english/code-of-practice-on-disinformation-in-numbers/
- De globale plattformenes etterlevelse av bransjenormen mot desinformasjon
- https://www.medietilsynet.no/globalassets/publikasjoner/bransjenorm-desinfo/240909_plattformenes_etterlevelse_bransjenormen_desinformasjon.pdf
- Die Einhaltung der Branchennormen zu Desinformation durch globale Plattformen
Dieser Artikel wurde in IRIS Rechtliche Rundschau der Europäischen Audiovisuellen Informationsstelle veröffentlicht.