Digital Law

Beeinflussung durch Algorithmen in sozialen Medien

21. September 2022

Gastbeitrag von Finja Mieze

Soziale Medien wie Instagram, Facebook oder Tik Tok nehmen immer mehr Bedeutung und Raum im Leben des Einzelnen ein. Wie weit dienen diese Internetintermediäre tatsächlich der individuellen Unterhaltung oder werden diese hauptsächlich nur noch zur Massenspeicherung und Analyse der einzelnen Person eingesetzt, um die Nutzer*innen zu beeinflussen?

Dazu stellt sich zunächst die Frage der Geeignetheit der Algorithmen zur Beeinflussung der einzelnen Person oder gar Personengruppen. Algorithmen werden dazu genutzt, um auszuwählen, welche Inhalte der individuellen Person in der Timeline angezeigt werden sollen, in welcher Reihenfolge die Inhalte angezeigt werden oder welche möglicherweise gar nicht vorgeschlagen werden sollen. Dies beruht grundsätzlich darauf, dass Algorithmen das Surf-Verhalten der jeweiligen Person ablesen und darauf basierend Inhalte vorschlagen, die die Nutzer*innen ansprechen. Dies ist von Vorteil für die Nutzer*innen, da mehr für sie interessante Inhalte angezeigt werden und gleichzeitig von Vorteil für den Internetintermediär, der durch die Generation von „traffic“ seinen Wert generiert und dadurch das Unternehmen attraktiver macht für andere Firmen, die den Internetintermediär zu Werbezwecken nutzen möchten.

Wenn also einer Person nur noch Inhalte zugespielt werden, die dem berechneten Interesse entsprechen, dann spricht man von dem Phänomen der Filterblase. Wenn man sodann nur noch in Gruppen surft, wo sämtliche Personen der gleichen Ansicht sind, und sich die jeweilig bekräftigen Argumente zugeschoben werden, dann von Echokammern.

Die Existenz von Filterblasen und Echokammern ist aber nicht wissenschaftlich belegt. Dies liegt vor allem daran, dass man die Big-Data-Masse aus ethischen Gründen nicht für die Forschung nutzen kann. Zumindest nicht ohne Einwilligung. Eine Einwilligung würde aber eine Studie zum Verhalten im Internet verfälschen. Außerdem trifft man sich außerhalb von sozialen Medien mit seinen Freunden, mit denen man bestimmte Interessen teilt, die eben eine Freundschaft begründen. Es würde streng genommen auch hier eine Echokammer vorliegen.

Das Nutzen der Auswahlalgorithmen zum Anzeigen von spezifischen Inhalten ist jedoch real und wird als Microtargeting bezeichnet. Das Microtargeting kann so exzessiv verfolgt werden, dass Daten einer Person in Echtzeit ausgelesen werden und in ein Schattenprofil eingelesen werden. Es werden daran auch Emotionen der Person abgelesen, damit passgenaue Inhalte angezeigt werden können, sodass die Person im schlimmsten Falle einer solchen Beeinflussung gar keine wirkliche Wahl mehr hat, eine bestimmte Sache zu kaufen oder nicht zu kaufen.

Nimmt man hierzu noch Social Bots und Desinformationskampagnen im Internet, so zeichnet sich langsam ein gefährliches Bild ab. Social Bots sind selbst Algorithmen, die darauf programmiert sind, bestimmte Konversationen und Inhalte im Internet zu führen. Ohne, dass ein Mensch an einem elektronischen Gerät sitzen und tippen muss.

Es stellt sich dann die Frage, inwieweit dies ein Problem des Gesetzgebers ist.

Dazu muss man sich die verschiedenen Beziehungen und auch rechtlichen Bezüge näher anschauen. Soweit sich mittels des Internetintermediäres ein*e Verbraucher*in und ein Unternehmen gegenüberstehen, so will der Gesetzgeber den Schutz der Verbraucher*innen erreichen. Dies gilt in vielen Fällen auch im Verhältnis zum Internetintermediär selbst. Dass der Gesetzgeber nicht nur Verbraucher*innen beispielsweise vor Überforderungskäufen schützen will, sondern auch sämtliche Nutzer*innen vor einseitigen, manipulativen Inhalten ergibt sich mittelbar aus den Grundsätzen der Freiheit der Meinungsbildung aus Art. 5 GG und der Wahlfreiheit in Art. 21, 38 GG. Denn es hat jede Person, die wahlberechtigt ist, einen Anspruch auf freie, allgemeine Wahlen. Dazu gehört auch die Möglichkeit, überhaupt eine fundierte eigene Entscheidung treffen zu können. Zu diesem Schutz des Informationszugangs und dem Schutz der öffentlichen Meinungsbildung hat der Gesetzgeber beispielsweise den Medienstaatsvertrag verabschiedet, in welchem in § 94 I MStV festgelegt ist, dass ein Internetintermediär keine Inhalte diskriminieren darf. Weiterhin ist in § 93 I MStV eine Kennzeichnungspflicht für Social Bots geregelt. Es sollen dadurch keine Inhalte gepusht werden oder verloren gehen, die die Nutzer*innen im Informationszugang beschränken.

Des Weiteren ist das Internet natürlich kein rechtsfreier Raum. Besondere Relevanz zum Schutz der einzelnen Person vor anderen Nutzer*innen des Internetintermediäres fällt hierbei dem Strafrecht zu, denn das Internet bietet Gelegenheit für Betrug, Erpressung, Beleidigung und viele andere Straftaten. Durch öffentliche und zivilrechtliche Mediengesetze sollen die Nutzer*innen vor den Internetintermediären und vor Unternehmen geschützt werden, die die Daten der Nutzer*innen in missbräuchlicher Art nutzen können. Damit wird ein*e Nutzer*in sowohl vor anderen Nutzer*innen geschützt, als auch vor möglichem Datenmissbrauch durch den Internetintermediär.

Regelungen, die mit den Daten von Privatpersonen zu tun haben, sind mittlerweile durch EU-Recht geregelt, vor allem durch die DSGVO. In Art. 5 DSGVO sind die Grundsätze der Datenspeicherung und Verarbeitung geregelt. Soweit die Grundsätze erfüllt sind, so unter anderem das Transparenzgebot und das Datenminimierungsgebot, ist die Speicherung und Verarbeitung nur unter den bestimmten Voraussetzungen des Art. 6 DSGVO erlaubt. Da häufig nicht alle Grundsätze aus Art. 5 DSGVO erfüllt werden, ist bei der Nutzung von Internetintermediären üblich, in die Datenerhebung und Speicherung einzuwilligen, um Zugriff auf die Inhalte zu bekommen.

Jedoch sind die Aufklärungen über die Erhebung und Speicherung häufig so undurchsichtig, dass in Frage gestellt werden kann, ob die einwilligende Person überhaupt tatsächlich einwilligungsfähig ist und eine fundierte Entscheidung treffen kann. Möglicherweise hat eine Inhaltskontrolle nach den §§ 305 ff BGB in so einer Situation Aussicht auf Erfolg.

Für die Verfolgung von Straftaten oder Hate Speech gibt es zum einen das Netzdurchsetzungsgesetz, das Internetintermediäre verpflichtet, Daten von Personen, die Hate Speech verbreiten, anzuzeigen.

Außerdem besteht nunmehr in § 21 II TTDSG ein Anspruch auf Herausgabe von Bestandsdaten von anderen Personen, die Beleidigungen oder Hate Speech verbreiten, zur gerichtlichen Verfolgung von zivilrechtlichen Ansprüchen.

Es verbleibt jedoch abzuwarten, inwieweit diese Möglichkeiten auch zur Verfolgung von Straftaten im Internet und von zivilrechtlichen Ansprüchen genutzt werden. Die bisherige Rechtslage auf europäischer und deutscher Ebene ist gerade in Bezug auf die DSGVO eine Grundlage, auf die vor allem in Bezug auf die Transparenz der Datenspeicherung aufgebaut werden kann. Es besteht dabei jedoch zumindest auf Bundesebene Handlungsbedarf, um den Nutzer*innen von Internetintermediären besseren Schutz vor den Internetintermediären und voreinander zu gewähren, beispielsweise durch zeitlich beschränkte Einwilligungen oder durch eine Verpflichtung zu regelmäßigen Datenlöschungen. Auch fehlt eine Möglichkeit zur Kontrolle der Einhaltung der Grundsätze wie dem Diskriminierungsverbot. Die Algorithmen sind nicht öffentlich und unterliegen dem Betriebsgeheimnis. Einen Verstoß gegen das Diskriminierungsgebot zu beweisen ist damit sehr schwierig, wenn schon ein hochwertiger Social Bot ohne Kennzeichnung schon auch nicht mehr als Social Bot erkannt werden kann. Eine weitere Möglichkeit ist das Aufklären über Risiken des Nutzens von Internetintermediären und das Schulen von Kompetenzen in der Gesellschaft, beispielsweise im Schulunterricht.