Digital Law

Beeinflussung durch Algorithmen in sozialen Medien

21. September 2022

Gastbeitrag von Finja Mieze

Soziale Medien wie Instagram, Facebook oder Tik Tok nehmen immer mehr Bedeutung und Raum im Leben des Einzelnen ein. Wie weit dienen diese Internetintermediäre tatsächlich der individuellen Unterhaltung oder werden diese hauptsächlich nur noch zur Massenspeicherung und Analyse der einzelnen Person eingesetzt, um die Nutzer*innen zu beeinflussen?

Weiter…

Haftung für Internetanschlüsse

10. Februar 2022

– Gastbeitrag von Paul Benk

So normal der Internetanschluss auch in den letzten Jahrzehnten geworden ist, die Haftungsrisiken bleiben für Internetanschlussinhaber*innen nach wie vor hoch. Die Gefahr, als Täter*in haftbar gemacht zu werden wächst, während die Störer*innenhaftung abgeschafft ist. Dabei bleibt fraglich, ob das neue Haftungssystem den Rechteinhaber*innen hinreichenden Schutz gewährt. Diese Situation soll anhand der folgenden drei Thesen erläutert werden.

Weiter…


Google und Facebook in Frankreich verurteilt

9. Februar 2022

Die französische Datenschutzbehörde, die CNIL (Commission Nationale de l‘ Informatique et des Libertes), hat gegen Google ein Bußgeld in Höhe von 150 Millionen Euro und gegen Facebook ein Bußgeld von 60 Millionen Euro verhängt.

Die Regulierungsbehörde hatte eine Reihe von Beschwerden erhalten.

Aufgrund dieser stellte sie einen Verstoß gegen Art. 82 des französisches Datenschutzrechts und gegen die strengen Standards des EU-Rechts durch die Technologiekonzerne fest. Diese würden ihre Nutzer*innen durch manipulative Muster zu einer Zustimmung aller nicht wesentlichen Cookies und somit zu einem kompletten Tracking zwingen.

 

Weiter…



YouTube veröffentlicht „Copyright Transparency Report“

8. Februar 2022

Im Dezember 2021 veröffentlichte YouTube seinen ersten „Copyright Transparency Report“. Der Bericht umfasst Maßnahmen zur Durchsetzung des Urheberrechts von Januar 2021 bis Juni 2021 und gewährt Einblicke in die verschiedenen Urheberrechtsmanagementsysteme von YouTube.

Weiter…



Der Erschöpfungsgrundsatz bei digitalen Werken

1. Februar 2022

– Gastbeitrag von Aline Altenhoff

I. Rechtsquellen und Einordnung

Der Fragenkreis um die Anwendbarkeit des urheberrechtlichen Erschöpfungsgrundsatzes auf sog. digitale Werke ist exemplarisch für die Anpassungserfordernisse des traditionellen Urheberrechts an die Gegebenheiten der voranschreitenden Digitalisierung. In den §§ 17 Abs. 2 und 69c Nr. 3 S. 2 UrhG normiert, ordnet der Erschöpfungsgrundsatz an, dass ein mit Zustimmung des oder der Urheber*in innerhalb der Union oder des EWR in den Verkehr gebrachtes Werk ohne weitere Zustimmungserfordernisse weiterverbreitet werden darf. Essentiell ist mithin das Vorliegen einer Verbreitungshandlung. Zweck der Normen ist es, die Verkehrsfähigkeit von Waren sicherzustellen.[1] Während § 17 Abs. 2 UrhG durch Art. 4 Abs. 2 InfoSoc- Richtlinie (RL 2001/29/EG) geprägt ist, ist für den § 69c Nr. 3 S. 2 UrhG der Art. 4 Abs. 2 Software- Richtlinie (RL 2009/24/EG) maßgebend.

Seiner originären Konzeption nach bezieht sich der Erschöpfungsgrundsatz auf körperliche Werke. Nun ist jedoch längst nicht mehr jedes Schriftwerk in einem Buch verkörpert und nicht jede Software befindet sich etwa auf einer CD. E-Books und Software, die via Download erworben werden, sind Teil unseres Alltags geworden. Was bedeutet das nun für die Frage der Erschöpfung am zugrundeliegenden Werk?

Weiter…


Automatisierung von Dokumenten

6. Januar 2022

Die von Contractbook durchgeführte Umfrage zum Einsatz automatisierter Dokumente stützt sich auf Feedback von fast 7.000 kleinen und mittleren Unternehmen (KMU). 

Weiter…



Digitalisierung im Koalitionsvertrag

14. Dezember 2021

Vergangene Woche wurde der Koalitionsvertrag durch die Ampelkoalition unterzeichnet.

Weiter…



Gutachten zu Maßnahmen gegen Desinformation

11. Dezember 2021

Die Landesanstalt für Medien NRW hat am 9. November 2021 ein juristisches Gutachten des Leibniz-Instituts für Medienforschung vorgestellt, welches sich mit verschiedenen Formen von Desinformation und deren Risikopotenzial befasst (https://www.medienanstalt-nrw.de/fileadmin/user_upload/NeueWebsite_0120/Themen/Desinformation/Leibnitz-Institut_LFMNRW_GutachtenDesinformation.pdf).


Ziel des Gutachtens war es, ein Verständnis der Risiken für individuelle Rechte und gesellschaftliche Interessen zu gewinnen und Ansätze für eine mögliche Regulierung von Desinformation aufzuzeigen.


Zum Schutz der Meinungsfreiheit muss trotz der Menge an Kommunikation im Netz die Überprüfung von Aussagen durch unabhängige Stellen erfolgen. Probleme bei der Regulierung von Desinformation ergeben sich auch daraus, dass etwaige Regelungen durch private Akteure (bspw. Social-Media-Anbieter) umgesetzt werden müssten, die ihrerseits über Gestaltungsfreiheiten ihrer Angebote und Vertragsbedingungen verfügen. Staatliche Regulierungen von Desinformation stehen mit dem Ziel in Konflikt, eine freie und unabhängige Meinungsbildung zu ermöglichen. Aus diesem Grund empfiehlt das Gutachten, dass Maßnahmen gegen Desinformation abhängig vom Inhalt und der Falsifizierbarkeit der Äußerung ergriffen werden. Diese Maßnahmen sollen dann nicht nur vom EU-Gesetzgeber und nationalen Gesetzgebern umgesetzt werden, sondern auch von den privaten Anbietern. In Betracht kommen neben gesetzlichen Verboten u.a. die Kennzeichnung zweifelhafter Äußerungen und die Verpflichtung zum Fact Checking.



Einfluss von Algorithmen bei der Verbreitung politischer Tweets

1. Dezember 2021

Die Studie untersuchte den Einfluss von Algorithmen bei der Verbreitung politischer Tweets.

Die von Twitter initiierte Analyse ist Teil eines größeren Projekts Twitters, welches die Auswirkungen von maschinellem Lernen auf den öffentlichen Diskurs untersucht.

Im konkreten Fall wurden chronologische Timelines mit durch Algorithmen gerankten Timelines verglichen. Analysiert wurden Tweets von Mandatsträger*innen aus 7 Ländern (Kanada, Großbritannien, Deutschland, USA, Frankreich, Spanien, Japan) und Nachrichtenportalen (lediglich solche mit Politikbezug) in dem kurzen Zweitraum vom 1.04.2020 bis zum 15.08.2020.

Unter den Fragestellungen:

  1. Werden Tweets von Mandatsträger*innen verstärkt angezeigt?
    – Variiert dies zwischen Parteien/innerhalb der Partei?
    – Begünstigung bestimmter politischer Gruppierungen?
  2. Werden Nachrichtenportale verstärkt angezeigt und gibt Begünstigungen bestimmter politischer Spektren?

Als Ergebnis stellte Twitter fest:

  1. Tweets von gewählten Mandatsträgern werden verstärkt angezeigt
    – unabhängig davon, ob ihre Partei in der Regierung ist
    – Personen derselben Partei erhalten nicht zwangsläufig die gleiche Verstärkung
  2. 6/7 Ländern: politische Rechte erhält mehr Verstärkung als politische Linke (Ausnahme Deutschland)
  3. rechtsgerichtete Nachrichtenagenturen erhalten mehr Verstärkung als linksgerichtete

Die gesamte Studie in englischer Sprache finden Sie unter: https://blog.twitter.com/en_us/topics/company/2021/rml-politicalcontent



EU-weite Umfrage zu Hass im Internet

26. November 2021

Eine repräsentative Umfrage im Auftrag von HateAid hat 2.000 Personen im Alter zwischen 18 und 80 Jahren aus allen EU-Staaten zu ihren Erfahrungen mit digitaler Gewalt befragt.

Weiter…