12.11.2024

Die Freiheit des Einzelnen endet dort, wo sie die Freiheit und die Würde anderer beeinträchtigt. So könnte man den derzeit so viel und auch als Zensurmaßnahme gebrandmarkten Digital Services Act (DSA) umschreiben.

Kaum ein EU-Gesetz erhitzt derzeit so die Gemüter, wie das für digitale Dienste (GdD) – auf Englisch Digital Services Act (DSA). Viele wittern dahinter schon eine versteckte Zensur oder Einschränkung der Meinungsfreiheit und Meinungsvielfalt. Dabei geht es den Gesetzgeber:innen darum, die Meinungsfreiheit zu schützen, aber nicht uneingeschränkt.

Denn es gilt auch, die User sozialer Medien vor Beleidigung, Verleumdung, Verhetzung und Gewaltandrohung zu schützen. Politiker:innen sind selbst oft Zielscheibe und mussten sich teilweise sagen lassen, dass sie das als öffentliche Personen einfach so hinnehmen müssen.

Meinungsfreiheit gilt nicht unbeschränkt

Das müssen sie aber nicht, was mehrere Gerichtsurteile klargemacht haben. Wie Falk Steiner von heise online schreibt, ist die Meinungsfreiheit dabei ein auch in der europäischen Grundrechtecharta besonders schützenswertes Gut. Sie kann aber eben durch andere Rechte eingeschränkt sein, etwa durch das Urheberrecht – oder durch das Recht auf Unversehrtheit Anderer.

Gerichtshammer, Digitalisierung
Gerichtsurteile zeigen, dass die Meinungsfreiheit durch andere Rechte wie das Urheberrecht oder den Schutz der Persönlichkeitsrechte begrenzt werden kann. (Bildquelle: Adobe Stock/OMGAi)

Der für große Akteure schon zwei Jahre früher, für alle anderen Anbieter ab Februar 2027 geltende Digital Services Act hat seine Tücken für private Betreiber. Sie sind zwar von der Pflicht der Vorabmoderation von Content und einer betreffenden Haftung weitgehend befreit, aber das gilt nur, solange sie keine Kenntnis von illegalen Inhalten haben. Sie sind dazu verpflichtet, einfach zugängliche Meldewege zu schaffen und müssen sich mit ihnen zur Anzeige gebrachten mutmaßlich gesetzeswidrigen Inhalten auseinandersetzen.

Meldungen einfach ignorieren laut DSA nicht gestattet

Dabei sieht die EU-Gesetzgebung aber vor, dass mit der Größe die Verantwortung steigt. Plattformen mit mehr als 45 Millionen Nutzer:innen unterliegen dabei jeweils strengeren und mehr Vorschriften als kleinere.

Eine Verpflichtung, mutmaßlich illegale Inhalte zu löschen oder zu sperren, gibt es nicht. Die Anbieter müssen aber selbst entscheiden, ob ein bestimmter Content tatsächlich gesetzeswidrig ist. Andererseits dürfen sie Inhalte auch nicht einfach löschen und müssen etwa im Fall von Satire auch ansonsten Strafbares trotzdem zulassen. Sollten Inhalte aber gegen die eigenen Nutzungs- oder Geschäftsbedingungen verstoßen, dürfen die Betreiber diese sperren oder entfernen und auch den Vertrag mit dem oder der Nutzer:in aufkündigen.

Trusted Flagger haben Vorrang, BKA & Co. aber mehr Befugnisse

Manche Anbieter stehen laut Steiner im Verdacht, die Entscheidungen darüber so abzuarbeiten, dass ihnen möglichst kein Aufwand entsteht und sie Inhalte oder Konten schneller sperren, wenn sie davon ausgehen können, dass sie auf keine Reaktion oder keinen Widerstand stoßen.

Willkürliche Sperrungen sind aber gemäß dem DSA ausdrücklich verboten, und User haben das ausdrückliche Recht, gegen eine Sperrung oder Löschung ihrer Inhalte Beschwerde einzulegen.

Lupe mit Hacken, Prüfung Aufsichtsbehörden
Schlichtungsstelle und Trusted Flagger helfen bei der Meldung problematischer Inhalte, ihre Entscheidungen sind jedoch nicht rechtsverbindlich.(Bildquelle: Adobe Stock/Johannes)

Das Gesetz sieht auch die Möglichkeit vor, eine Schlichtungsstelle anzurufen. In Deutschland gibt es diese bereits. Allerdings arbeitet die nur mit ausgewählten Plattformen zusammen und ihre Entscheidungen sind nicht rechtsverbindlich.

Außerdem sieht der DSA sogenannte Trusted Flagger („vertrauenswürdige Hinweisgeber“) vor, die vorher eine Prüfung durch nationale Aufsichtsbehörden wie der Bundesnetzagentur durchlaufen müssen. Und auch die gibt es in Deutschland schon.

Kommt von der Stelle eine Meldung über unzulässige Inhalte, ist der Plattformbetreiber verpflichtet, diese möglichst schnell zu prüfen und vorrangig zu behandeln. Im Vergleich zu anderen Rechtsrahmen wie dem Jugendmedienschutz oder der Terrorist Content Online Regulation sind die Trusted Flagger aber eher zahnlose Papiertiger. Bei Verdacht einer Straftat, die eine Gefahr für Leib und Leben einer Person darstellt, sind laut Artikel 18 DSA auf jeden Fall die Ermittlungsbehörden wie das BKA zu benachrichtigen. Alle anderen strafbaren Inhalte sind nur zu melden, wenn sie etwa durch Trusted Flagger zur Anzeige gebracht werden.

Quelle Titelbild: Adobe Stock /  igor.nazlo

Diesen Beitrag teilen:

Weitere Beiträge

08.07.2025

Neura Robotics stellt KI-gestützte humanoide Roboter vor

Redaktion Digital Chiefs

Das deutsche Startup Neura Robotics hat auf der Messe Automatica Ende Juni 2025 in München menschenähnliche ...

Zum Beitrag
03.07.2025

Vernetzte Industrie immer mehr durch IoT-Ransomware gefährdet

Redaktion Digital Chiefs

Das Industrielle Internet of Things (IIoT) bietet große Chancen für das produzierende Gewerbe, gerät ...

Zum Beitrag
17.06.2025

Greenpeace-Studie sieht Energiewende durch KI gefährdet

Redaktion Digital Chiefs

Der bereits vollzogene und geplante Ausbau von KI-Rechenzentren geht laut einer Greenpeace-Studie weltweit ...

Zum Beitrag
02.06.2025

Weltgrößter Batteriespeicher entsteht in der Schweiz

Redaktion Digital Chiefs

Das Technologiezentrum auf der Schweizer Seite von Laufenburg am Rhein soll nach Plänen dort ansässiger ...

Zum Beitrag
30.05.2025

Wachsende IT-Komplexität wird zur Herausforderung

Redaktion Digital Chiefs

Einer internationalen Umfrage des Monitoring-Spezialisten Checkmk zufolge sehen sich IT-Fachkräfte zunehmend ...

Zum Beitrag
23.05.2025

Sorge vor KI Abhängigkeit vom Ausland wächst

Redaktion Digital Chiefs

Zwei Drittel der Deutschen nutzen bereits generative KI. Die wachsende KI Abhängigkeit von den USA und ...

Zum Beitrag