12.11.2024

Die Freiheit des Einzelnen endet dort, wo sie die Freiheit und die Würde anderer beeinträchtigt. So könnte man den derzeit so viel und auch als Zensurmaßnahme gebrandmarkten Digital Services Act (DSA) umschreiben.

Kaum ein EU-Gesetz erhitzt derzeit so die Gemüter, wie das für digitale Dienste (GdD) – auf Englisch Digital Services Act (DSA). Viele wittern dahinter schon eine versteckte Zensur oder Einschränkung der Meinungsfreiheit und Meinungsvielfalt. Dabei geht es den Gesetzgeber:innen darum, die Meinungsfreiheit zu schützen, aber nicht uneingeschränkt.

Denn es gilt auch, die User sozialer Medien vor Beleidigung, Verleumdung, Verhetzung und Gewaltandrohung zu schützen. Politiker:innen sind selbst oft Zielscheibe und mussten sich teilweise sagen lassen, dass sie das als öffentliche Personen einfach so hinnehmen müssen.

Meinungsfreiheit gilt nicht unbeschränkt

Das müssen sie aber nicht, was mehrere Gerichtsurteile klargemacht haben. Wie Falk Steiner von heise online schreibt, ist die Meinungsfreiheit dabei ein auch in der europäischen Grundrechtecharta besonders schützenswertes Gut. Sie kann aber eben durch andere Rechte eingeschränkt sein, etwa durch das Urheberrecht – oder durch das Recht auf Unversehrtheit Anderer.

Gerichtshammer, Digitalisierung
Gerichtsurteile zeigen, dass die Meinungsfreiheit durch andere Rechte wie das Urheberrecht oder den Schutz der Persönlichkeitsrechte begrenzt werden kann. (Bildquelle: Adobe Stock/OMGAi)

Der für große Akteure schon zwei Jahre früher, für alle anderen Anbieter ab Februar 2027 geltende Digital Services Act hat seine Tücken für private Betreiber. Sie sind zwar von der Pflicht der Vorabmoderation von Content und einer betreffenden Haftung weitgehend befreit, aber das gilt nur, solange sie keine Kenntnis von illegalen Inhalten haben. Sie sind dazu verpflichtet, einfach zugängliche Meldewege zu schaffen und müssen sich mit ihnen zur Anzeige gebrachten mutmaßlich gesetzeswidrigen Inhalten auseinandersetzen.

Meldungen einfach ignorieren laut DSA nicht gestattet

Dabei sieht die EU-Gesetzgebung aber vor, dass mit der Größe die Verantwortung steigt. Plattformen mit mehr als 45 Millionen Nutzer:innen unterliegen dabei jeweils strengeren und mehr Vorschriften als kleinere.

Eine Verpflichtung, mutmaßlich illegale Inhalte zu löschen oder zu sperren, gibt es nicht. Die Anbieter müssen aber selbst entscheiden, ob ein bestimmter Content tatsächlich gesetzeswidrig ist. Andererseits dürfen sie Inhalte auch nicht einfach löschen und müssen etwa im Fall von Satire auch ansonsten Strafbares trotzdem zulassen. Sollten Inhalte aber gegen die eigenen Nutzungs- oder Geschäftsbedingungen verstoßen, dürfen die Betreiber diese sperren oder entfernen und auch den Vertrag mit dem oder der Nutzer:in aufkündigen.

Trusted Flagger haben Vorrang, BKA & Co. aber mehr Befugnisse

Manche Anbieter stehen laut Steiner im Verdacht, die Entscheidungen darüber so abzuarbeiten, dass ihnen möglichst kein Aufwand entsteht und sie Inhalte oder Konten schneller sperren, wenn sie davon ausgehen können, dass sie auf keine Reaktion oder keinen Widerstand stoßen.

Willkürliche Sperrungen sind aber gemäß dem DSA ausdrücklich verboten, und User haben das ausdrückliche Recht, gegen eine Sperrung oder Löschung ihrer Inhalte Beschwerde einzulegen.

Lupe mit Hacken, Prüfung Aufsichtsbehörden
Schlichtungsstelle und Trusted Flagger helfen bei der Meldung problematischer Inhalte, ihre Entscheidungen sind jedoch nicht rechtsverbindlich.(Bildquelle: Adobe Stock/Johannes)

Das Gesetz sieht auch die Möglichkeit vor, eine Schlichtungsstelle anzurufen. In Deutschland gibt es diese bereits. Allerdings arbeitet die nur mit ausgewählten Plattformen zusammen und ihre Entscheidungen sind nicht rechtsverbindlich.

Außerdem sieht der DSA sogenannte Trusted Flagger („vertrauenswürdige Hinweisgeber“) vor, die vorher eine Prüfung durch nationale Aufsichtsbehörden wie der Bundesnetzagentur durchlaufen müssen. Und auch die gibt es in Deutschland schon.

Kommt von der Stelle eine Meldung über unzulässige Inhalte, ist der Plattformbetreiber verpflichtet, diese möglichst schnell zu prüfen und vorrangig zu behandeln. Im Vergleich zu anderen Rechtsrahmen wie dem Jugendmedienschutz oder der Terrorist Content Online Regulation sind die Trusted Flagger aber eher zahnlose Papiertiger. Bei Verdacht einer Straftat, die eine Gefahr für Leib und Leben einer Person darstellt, sind laut Artikel 18 DSA auf jeden Fall die Ermittlungsbehörden wie das BKA zu benachrichtigen. Alle anderen strafbaren Inhalte sind nur zu melden, wenn sie etwa durch Trusted Flagger zur Anzeige gebracht werden.

Quelle Titelbild: Adobe Stock /  igor.nazlo

Diesen Beitrag teilen:

Weitere Beiträge

11.12.2024

BSI-Lagebericht: Mehr Resilienz gegen eine immer bedrohlichere Sicherheitslage

Redaktion Digital Chiefs

Der im November 2024 vorgelegte BSI-Lagebericht zur Cybersicherheit in Deutschland zeigt weiter steigende ...

Zum Beitrag
11.12.2024

Ideen für die Zukunft – Die Gewinnerprojekte der VINCI Energies AI Challenge 2024

Hendrik Kahmann

Mit den Möglichkeiten von KI lassen sich viele Herausforderungen lösen. Es braucht aber die notwendigen ...

Zum Beitrag
10.12.2024

Neuer Aufbruch mit KI und Co. – Electronica 2024 feiert 60. Geburtstag

Redaktion Digital Chiefs

Einst als reine Stecker- und Kabelshow gestartet, hat die Electronica 2024 in München mit rekordverdächtigen ...

Zum Beitrag
05.12.2024

Weltweiter Vergleich der Rechenzentren-Kapaziäten: Deutschland fällt zurück

Redaktion Digital Chiefs

Deutschland verliert laut Bitkom im Bereich Rechenzentren den Anschluss. Während die Spitzenreiter USA ...

Zum Beitrag
04.12.2024

Zunehmende Ransomware-Angriffe auf kritische Infrastrukturen

Redaktion Digital Chiefs

Während die EU mit neuen Richtlinien gegenzusteuern versucht, mehren sich die Hacker- und Ransomware-Angriffe ...

Zum Beitrag
03.12.2024

Die Zukunft der digitalen Signatur: Von der Signaturkarte zur Fernsignatur

Alexander Marschall

Seit 2010 müssen die Akteure der Entsorgungswirtschaft ein elektronisches Signaturverfahren einsetzen. ...

Zum Beitrag