Home » Datenschutzskandale Manipulation und aktuelles » Der Digital Services Act als Zensur Mechanismus

Der Digital Services Act als Zensur Mechanismus

Der EU's Digital Services Act, oft als bedrohlichen Mechanismus für Online Zensur bezeichnet, wird nun wirksam und ermöglicht somit nationalen und supranationalen Einrichtungen die offizielle Kontrolle über den digitalen Diskurs in Europa. Dies ist lediglich eine von zahlreichen Maßnahmen, die uns einer dystopischen Internetlandschaft näherbringen.

Was ist der Digital Services Act

Der Digital Services Act (DSA) repräsentiert die "Bemühungen" der Europäischen Union, das digitale Ökosystem zu regulieren, insbesondere im Hinblick auf Online-Plattformen. Ziel ist es, die Verantwortung von Plattformen zu erhöhen, Transparenz zu gewährleisten und die Sicherheit und Rechte der Nutzer zu schützen. Trotz dieser noblen Absichten gibt es starke demokratische Bedenken hinsichtlich einiger Aspekte des DSA, insbesondere im Hinblick auf die Rolle der "Trusted Flaggers" und die potenzielle Vermischung von judikativen und exekutiven Funktionen im Krisenzeiten welches die EU selber definiert und reguliert.

Die Regulierung des Internets und digitaler Plattformen durch den Digital Services Act (DSA) der Europäischen Union wurde eingeführt, um den digitalen Raum "sicherer und transparenter" zu gestalten. Die Beschreibungen des Gesetzes werden von sämtlichen Staatstreuen Plattformen als wohlwollend dem Individuum gegenüber beschrieben. Der Verbraucher soll vornehmlich geschützt werden. Zwei Aspekte des DSA – das Konzept der Trusted Flaggers und die speziellen Befugnisse der EU in Krisenzeiten – könnten jedoch, wenn sie missbraucht werden, als Instrumente zur Zensur dienen. Wir schauen uns an, wie solch ein hypothetisches Szenario aussehen könnte.

Zu was genau werden die Plattformen verpflichtet

Die Plattformen werden verplfichtet "Illegale" Inhalte, nach Identifzierung durch Benutzer oder sogenannter Truster Flaggers zu entfernen. Laut Europäischer Union geht es wiederum erstmal nur um die Standards wie Hassreden, terroristische Propaganda, kinderpornografische Inhalte und mehr.... Das "und mehr..." ist dabei wieder mal interessant. "Und mehr..." beinhaltet auch "Falschinformationen", "Irreführung" und Ich nenn es mal "andere Ansichten"

Wer legt diese Einstufen fest was illegal ist, und was nicht

  1. Staatliche Organe: In den meisten Ländern legen Gesetzgeber und Regulierungsbehörden fest, was als illegaler Inhalt gilt.
  2. Gerichte: Oft ist es Aufgabe der Gerichte, in strittigen Fällen zu entscheiden, ob ein bestimmter Inhalt als illegal betrachtet werden sollte oder nicht.
  3. Die Plattformen selbst: Neben den gesetzlichen Verpflichtungen haben viele Plattformen ihre eigenen Gemeinschaftsrichtlinien, die festlegen, welche Inhalte akzeptabel sind und welche nicht. Diese Richtlinien können strenger sein als die gesetzlichen Mindestanforderungen.
  4. Sogenannte Truster Flaggers - das können Behörden, Faktenchecker, andere Plattformen oder Insitute sein

Trusted Flaggers als priorisierte Kontrollorgane

Einer der umstrittensten Punkte des DSA ist eben das Konzept der "Trusted Flaggers". Dies sind Organisationen oder Einrichtungen, die von Mitgliedstaaten als besonders zuverlässig bei der Meldung illegaler Inhalte anerkannt sind. Der DSA verlangt von Online-Plattformen, diese Meldungen priorisiert zu behandeln.

Das Problem ist, dass die Einrichtung solcher "Trusted Flaggers" einen demokratischen Prozess der Evaluierung von Inhalten potenziell aushebelt da der Prozess zur Ernennung von Trusted Flaggers vollkommen unklar ist. Sogenannte Fakt Checkers, die desöfteren in der Vergangenheit bereits vollkommen falsch lagen, könnten ebenso priviligiert werden. Es besteht die Gefahr, dass diese solche Akteure übermäßigen Einfluss auf den Diskurs oder die Informationsfreiheit ausüben könnten:

  1. Mangel an Rechenschaftspflicht: Es gibt keine klaren Mechanismen, um sicherzustellen, dass Trusted Flaggers stets im besten Interesse der Öffentlichkeit handeln. Ihre Entscheidungen könnten von politischen, finanziellen oder anderen Interessen beeinflusst sein.
  2. Mangel an Transparenz: Die Kriterien und Prozesse, die zur Identifizierung und Anerkennung von Trusted Flaggers verwendet werden, könnten undurchsichtig sein.
  3. Mangel an Überprüfung: Da ihre Entscheidungen als vorrangig betrachtet werden, könnten Fehlentscheidungen oder Missbräuche schwer zu korrigieren sein.

EU als Judikative und Exekutive in Krisenzeiten

Ein weiterer Punkt von Bedenken ist die potenzielle Vermischung von judikativen und exekutiven Funktionen innerhalb der EU-Struktur. In Krisenzeiten sieht der DSA vor, dass die EU-Kommission Maßnahmen ergreifen kann, um die Verbreitung bestimmter illegaler Inhalte zu verhindern oder zu beschränken.

  1. Konzentration von Macht: Ein solches Arrangement könnte zu einer unangemessenen Machtkonzentration führen. In demokratischen Systemen wird die Macht oft zwischen verschiedenen Zweigen (Exekutive, Legislative und Judikative) verteilt, um Checks and Balances zu gewährleisten.
  2. Mangelnde Überprüfung und Balance: Wenn die EU sowohl die Regeln setzt als auch deren Einhaltung überwacht, könnte dies zu einer unangemessenen Anwendung oder Interpretation dieser Regeln führen, ohne dass effektive Kontrollmechanismen vorhanden sind.

Krisenzeiten könnten sein, Kriege, Pandemien, Umweltkatastrophen, politische Unruhen.

Hohe Strafen führen zur Überregulation

Konzerne, die die Vorschriften des DSA missachten, können mit hohen Geldstrafen belegt werden, die bis zu 8% ihres weltweiten Jahresumsatzes ausmachen können. Bei einem Konzern wie Facebook, mit einem Umsatz von ca 110 Milliarden Euro im Jahr, wären dass schlappe 9 Milliarden Euro Strafe mit nicht Einhaltung der Regularieren und sollten "illegale Inhalte" nicht sofort gelöscht werden. Dies stellt sicherlich einen bedeutenden finanziellen Anreiz für Unternehmen dar, sich an die vorgeschriebenen Regulierungen zu halten. Solch drastische Strafen setzen ein klares Signal, ein Signal sich ganz bestimmt an die Regulationen zu halten.

Stellt Euch vor Ihr seid vor einem Abgrund bei dem es mehrere Hundert Meter den Berg hinunter geht, damit ganz bestimmt nichts passiert, und Ihr nicht die Klippe hinunter stürzt, stellt Ihr sicher, dass Euer Sicherheitsabstand wirklich gross genug ist, um Gefahren aus dem Weg zu gehen. Diese Metapher könne wir auch auf Konzerne übertragen.

Angesichts der potenziellen finanziellen Folgen dieser Strafen könnten Großkonzerne dazu neigen, übermäßige Sicherheitsmaßnahmen zu implementieren, um sicherzustellen, dass sie nicht gegen das DSA verstoßen. Dies könnte dazu führen, dass Inhalte vorschnell entfernt werden, auch wenn sie nicht unbedingt gegen die Bestimmungen verstoßen. Die Gefahr besteht darin, dass Plattformen in ihrer Angst vor Strafen den freien Informationsfluss und den Meinungsaustausch, der für demokratische Gesellschaften von zentraler Bedeutung ist, übermäßig einschränken.

Die Einführung übertriebener Sicherheitsprotokolle und automatisierter Moderationstools könnte zudem das Risiko falsch-positiver Erkennungen erhöhen. Das bedeutet, dass legitime Inhalte fälschlicherweise als problematisch oder regelwidrig eingestuft und somit entfernt werden könnten.

Zusätzlich könnten die Bemühungen von Konzernen, dem DSA gerecht zu werden, kleinere Unternehmen und Start-ups benachteiligen. Große Konzerne haben in der Regel mehr Ressourcen, um in fortgeschrittene Moderationswerkzeuge zu investieren und sich an die Vorschriften anzupassen. Kleinere Unternehmen hingegen könnten Schwierigkeiten haben, die gleichen Standards zu erfüllen, was zu einer ungleichen Wettbewerbslandschaft führen könnte.

Ein hypotetisches Beispiel wie das Gesetz wirken kann

Schauen wir uns an was das Gesetz mit anders denkenden kurzerhand legal tun kann:

Clara ist eine politische Bloggerin aus einem EU-Land und schreibt regelmäßig kritische Beiträge über die Entscheidungen und Maßnahmen der Europäischen Union. Sie hat eine treue Leserschaft, die ihre Analysen und Meinungen schätzt.

Eines Tages veröffentlicht Clara einen besonders kritischen Beitrag, in dem sie eine neue EU-Richtlinie hinterfragt. Der Beitrag wird von ihren Lesern weit verbreitet und erreicht eine große Reichweite auf den sozialen Medien.

Ein "Trusted Flagger", eine von einem EU-Mitgliedstaat offiziell anerkannte Organisation zur Überwachung von Online-Inhalten, sieht Claras Beitrag und interpretiert ihn als Falschinformation. Obwohl die Bloggerin ihre Meinung auf fundierten Recherchen und Fakten basiert, entscheidet der Trusted Flagger, dass der Beitrag entfernt werden soll, da er potenziell schädlich für die öffentliche Ordnung ist.

Clara erhält eine Benachrichtigung von ihrer Blogging-Plattform, dass ihr Beitrag gelöscht wurde, basierend auf den Vorschriften des Digital Services Act. Sie versucht, gegen diese Entscheidung Einspruch zu erheben, stellt jedoch fest, dass der Prozess langwierig und komplex ist. Da der Trusted Flagger Priorität bei seinen Entscheidungen hat, gibt es wenig Raum für eine schnelle Überprüfung oder Revision.

Infolgedessen fühlt sich Clara zensiert und ihre Meinungsfreiheit eingeschränkt. Ihre Leser sind ebenfalls empört über die Entfernung des Beitrags, und es entsteht eine Diskussion über die potenziellen Gefahren des Digital Services Act und wie er die Freiheit des digitalen Diskurses in Europa beeinflussen könnte.

Solche Beispiele geschahen in der Vergangenheit bereits auch schon regelmässig, nur gab es dafür bisher aber keine Legitimation. Dies wurde mit dem DSA jetzt nun nachgereicht.

Schlussfolgerungen

Während der DSA in angeblich guter Absicht entwickelt wurde, um die digitale Landschaft sicherer und transparenter zu gestalten, gibt es legitime demokratische Bedenken. Ein ausgewogener Ansatz, der sowohl den Schutz der Nutzer als auch demokratische Prinzipien gewährleistet, wäre wünschenswert. Stattdessen werden nun zum Artikel 13 Urheberrechtsgesetz weitere Einschränkende Gesetze erlassen die absolut nichts besser machen. Die Rechte des Individuums wurden leider kaum bis garnicht nicht verbessert. Es ist entscheidend, Mechanismen zur Rechenschaftspflicht und Überprüfung in das System zu integrieren, um sicherzustellen, dass die Macht nicht unangemessen konzentriert wird und die Grundrechte gewahrt bleiben. Wie immer, ist das leider wiedermal nicht passiert, und man hat eine Riesenchance vertan, die Demokratie in der digitalen Welt zu bekräftigen.

Quellen

https://www.tichyseinblick.de/daili-es-sentials/dsa-tritt-in-kraft/

https://www.youtube.com/watch?v=e8rV808RFcc&t=10s

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert