Der Digital Service Act: Neue Pflichten für Hosting-Diensteanbieter

von am 13. Dezember 2023

Der Digital Service Act (DSA) soll ganz umfassend die Verbreitung von rechtswidrigen Inhalten in digitalen Diensten einschränken (wir berichteten hier). In die Pflicht genommen werden sollen unter anderem Hosting-Diensteanbieter.

Wichtig: Deadline für die Umsetzung dieser Pflichten ist der 17. Februar 2024.

 

1. Wer fällt unter Hosting-Diensteanbieter?

„Hosting“-Dienst ist ein „Dienst, der darin besteht, von einem Nutzer bereitgestellte Informationen in dessen Auftrag zu speichern“ (Art. 3 (g) (iii) DSA). Zu Diensten zählen „Dienstleistung(en) der Informationsgesellschaft, d. h. jede in der Regel gegen Entgelt elektronisch im Fernabsatz und auf individuellen Abruf eines Empfängers erbrachte Dienstleistung“ (Art. 3 (a) i.V.m Art. 1 (b) Richtlinie (EU) 2015/1535).

Hosting umfasst damit sämtliche Angebote der Speicherung von Inhalten, unabhängig davon, ob sie für die Öffentlichkeit oder einzelne Dritte zugänglich sind. Alle Anbieter, die Inhalte gleich welcher Art für Dritte speichern, sind daher von dem nachfolgend genannten Pflichtenkatalog betroffen.

 

2. Konkrete Pflichten als Hosting-Diensteanbieter

In den Artikeln 11 bis 18 DSA werden die Pflichten für Hosting-Diensteanbieter geregelt:

Diese werden nachfolgend in Kurzform aufgezählt, weiter unten finden sich Einzelheiten zu jedem einzelnen Punkt.

  • Benennung von zentralen Kontaktstellen als Ansprechpartner für Behörden und Nutzer (Ziffer 3.1.);
  • Transparenz in AGB: Erläuterung der Inhaltemoderation in dem Dienst (Ziffer 3.2.)
    Inhaltemoderation bedeutet die Kontrolle von Inhalten auf dem Dienst, etwa die Etablierung von Vorgaben, welche Inhalte nicht veröffentlicht werden dürfen, weil sie entweder rechtswidrig (= verbotene Inhalte) sind oder gegen die Nutzungsbedingungen eines Dienstes verstoßen (siehe etwa Nudity-Vorgaben bei Meta).
    Es geht konkret darum zu erläutern, welche Inhalte auf dem Dienst verboten/nicht erwünscht sind, und wie mit verbotenen/nicht erwünschten Inhalten umgegangen wird (Sperrung, Löschung, keine Monetarisierung, Sperrung von Nutzerkonten etc.);
  • Jährliche Veröffentlichung von Transparenzberichten (z.B. auf der Website) zur stattgefundenen Inhaltemoderation (Ziffer 3.3.);
  • Meldepflicht beim Verdacht auf Straftaten, die eine Gefahr für das Leben oder die Sicherheit einer Person oder von Personen darstellen (Ziffer 3.4.);
  • Etablierung von Melde- und Abhilfeverfahren („Notice and action“) für die Meldung rechtswidriger Inhalte, die auf dem Dienst gespeichert werden (Ziffer 3.5.);
  • Erstellung von Vorlagen für die Erfüllung der Begründungspflicht bei Entscheidungen im Rahmen der Inhaltemoderation („Statement of Reasons“) (Ziffer 3.6.).

 

3. Zu den einzelnen Pflichten:

3.1. Benennung von Kontaktstellen

Nach Art. 11 und 12 DSA müssen „zentrale Kontaktstellen“ benannt und veröffentlicht werden für die unmittelbare elektronische Kommunikation

  • mit nationalen Behörden, EU-Kommission und dem „Gremium für digitale Dienste“;
  • mit den Nutzern; diesen muss die Wahl des Kommunikationsmittels überlassen sein, das nicht ausschließlich auf automatisierten Instrumenten beruhen darf; nur einen Chatbot bereitzustellen genügt nicht.

Die Informationen zu den beiden Kontaktstellen müssen „leicht zugänglich sein“, also am besten im Impressum bei den „Angaben, die eine schnelle elektronische Kontaktaufnahme und unmittelbare Kommunikation mit ihnen ermöglichen“ (§ 5 Abs. 1 Nr. 2 TMG, der Art. 5 der Richtlinie 2000/31/EG umsetzt), sprich E-Mail-Adresse oder Kontaktformular.

Zur Kontaktstelle für Behörden muss auch angegeben werden, in welchen Sprachen die Behörden kommunizieren können (hier Deutsch als Amtssprache in Deutschland und zusätzlich eine in der EU von möglichst vielen Menschen verstandene Sprache, z.B. Englisch).

3.2. Transparenz zur Moderation von Inhalten in den AGB

Diensteanbieter müssen in den AGB Angaben machen, wie sie mit rechtswidrigen Inhalten und solchen, die gegen ihre AGB verstoßen, umgehen.

Das umfasst folgende Angaben:

  • zur Vorgehensweise bei rechtswidrigen oder nach den AGB unzulässigen Inhalten;
  • zu möglichen Sanktionen wie Löschung/Sperrung der Inhalte oder Suspendierung/Ausschluss von Nutzern;
  • ob rechtswidrige/unzulässige Inhalte automatisiert bewertet oder menschlich überprüft werden;
  • zu den Verfahrensregeln für das interne Beschwerdemanagement (siehe unten „internes Beschwerdemanagement“)

Richtet sich der Dienst „in erster Linie an Minderjährige oder wird er überwiegend von Minderjährigen genutzt“, müssen die Erläuterungen für diese verständlich sein. Daher ist es sinnvoll, in den AGB dafür einen besonderen Abschnitt zu haben, der kindgerecht formuliert wird.

3.3. Veröffentlichung von Transparenzberichten

Mindestens einmal jährlich muss auf leicht zugängliche Weise in einem maschinenlesbaren Format ein Transparenzbericht über die im Berichtszeitraum „durchgeführte Moderation von Inhalten“ zu folgenden Punkten veröffentlicht werden (z. B. auf der Website):

  • Anzahl der behördlichen Anordnungen;
  • Anzahl der Meldungen von Inhalten;
  • eigeninitiative Moderation von Inhalten mit Angaben zu eingesetzten Werkzeugen und Mitarbeitenden, ergriffenen Maßnahmen;
  • Angaben über erhobene Beschwerden gegen Entscheidungen, dazu getroffene Entscheidungen, Mediandauer der Entscheidungsfindung und Anzahl der rückgängig gemachten Entscheidungen; ggf.
  • Informationen zum Einsatz automatisierter Tools mit Angaben zur Genauigkeit und möglichen Fehlerquote.

Die EU-Kommission soll in Durchführungsrechtsakten Vorlagen für die Transparenzberichte bereitstellen. Das sollte daher im Auge behalten werden.

3.4. Pflicht zur Meldung von Straftaten

Bei „Informationen, die den Verdacht begründen, dass eine Straftat, die eine Gefahr für das Leben oder die Sicherheit einer Person oder von Personen darstellt, begangen wurde, begangen wird oder begangen werden könnte“, ist eine unverzügliche Meldung an Strafverfolgungs- oder Justizbehörden des betroffenen Mitgliedsstaates (Ort der Straftat oder Wohnsitz/Aufenthalt des Verdächtigen oder des Opfers) erforderlich oder (falls der betroffene Mitgliedstaat nicht sicher zu ermitteln ist) eine Meldung an eine Polizeidienststelle/Staatsanwaltschaft in Deutschland oder an Europol.

Wichtig: Es geht nur um Straftaten, von denen die Diensteanbieter im Rahmen der Inhaltemoderation Kenntnis erlangen, etwa auf Grund von Meldungen anderer Nutzer – es gelten keine proaktiven Recherchepflichten bezüglich rechtswidriger Inhalte (Art. 8 DSA).

3.5. Etablierung von Melde- und Abhilfeverfahren („Notice and action“)

Der Diensteanbieter muss ermöglichen, ihm leicht zugänglich und benutzerfreundlich auf ausschließlich elektronischem Weg rechtswidrige Inhalte zu melden.

3.5.1. Vorgaben für Meldungen

Der Anbieter muss sicherstellen, dass solche Meldungen aussagekräftig sind und folgende Punkte enthalten:

  • Begründung, warum der Inhalt rechtswidrig sein soll;
  • genaue Angabe des Speicherorts (z.B. URL);
  • Name und E-Mail-Adresse der meldenden Person/Einrichtung;
  • Erklärung, dass die meldende Person/Einrichtung in gutem Glauben richtige und vollständige Angaben macht.

Anbieter müssen also entweder in einem Kontaktformular Felder vorgeben oder bei der Nennung einer E-Mail-Adresse für die Meldung von Inhalten diese Vorgaben erläutern.

3.5.2. Reaktion gegenüber der meldenden Person/Einrichtung

Falls die meldende Person/Einrichtung eine E-Mail-Adresse angegeben hat, muss sie unverzüglich eine Empfangsbestätigung erhalten. Die getroffene Entscheidung ist ihr ebenfalls unverzüglich mitzuteilen.

3.6. Etablierung von Begründungsprozessen („Statement of Reasons“)

Werden von einem Nutzer bereitgestellte Inhalte beschränkt oder der Dienst für den Nutzer ausgesetzt/beendet oder das Nutzerkonto suspendiert/geschlossen, muss eine Begründung der Entscheidung gegeben werden.

Diese Begründung muss laut Gesetz Folgendes umfassen:

  • Angabe, ob Entfernung, Sperrung, Herabstufung oder Einschränkung der Anzeige des Inhalts;
  • Tatsachengrundlage, auf der die Entscheidung beruht, mit Angabe, ob aufgrund eigeninitiativer Kontrollen des Anbieters oder einer Meldung Dritter;
  • ggf. Angabe zu automatisierter Entscheidungsfindung;
  • Angabe der gesetzlichen Vorschrift bzw. AGB-Regelung, gegen die der Inhalt verstößt, mit Erläuterung;
  • Information über Rechtsbehelfe, insbesondere internes Beschwerdemanagement, außergerichtliche Streitbeilegung und gerichtliche Rechtsmittel.

Für solche Begründungen sollte man eine Vorlage vorbereiten.

Außerdem sollte man, da man wie erwähnt die Verfahrensregeln in den AGB erläutern muss, auch die Zuständigkeiten und Prozesse für das interne Beschwerdemanagement festlegen.

 

4. Zusammenfassung der ToDos

Diensteanbieter sollten also vor dem 17. Februar 2024 Folgendes prüfen und in die Wege leiten:

  • Benennung der Kontaktstellen als Ansprechpartner für Behörden und Nutzer;
  • Sicherstellung von Transparenz in AGB bezüglich der Inhaltemoderation;
  • Veröffentlichung der Transparenzberichte auf der Website zu stattgefundener Inhaltemoderation;
  • Prozess zur unverzüglichen Meldung des Verdachts auf Straftaten, die eine Gefahr für das Leben oder die Sicherheit einer Person darstellen;
  • Etablierung von Melde- und Abhilfeverfahren („Notice and action“);
  • Vorbereitung der Vorlage für das Statement of Reasons bei Maßnahmen wegen rechtswidriger/unerwünschter Inhalte.
Share this