KI-Training mit Nutzerdaten: Datenschützer legen Beschwerde gegen Meta ein

Der Meta-Konzern, zu dem Facebook und Instagram gehören, will seine KI-Modelle künftig mit Nutzer-Beiträgen trainieren. Doch Datenschützern geht das zu weit. Die europäische Datenschutz-Organisation Noyb hat sich an elf europäische Länder gewandt, um Metas Vorhaben noch zu stoppen.

Im Wettlauf um die leistungsstärksten KI-Systeme gegen Konkurrenten wie OpenAI, Google und Microsoft entwickelt der Konzern eine eigene "Meta AI", die Texte und Bilder erzeugen können soll. Um das System zu trainieren, werden viele Texte menschlicher Nutzer verwendet. Im konkreten Fall handelt es sich um Einträge auf Facebook und Instagram. Ähnlich funktioniert das Training mit Fotos und anderen Bildern.

Meta schreibt in diesen Tagen massenhaft die Nutzer von Facebook, Instagram und Threads an, um sie über die Anpassung seiner Datenschutzerklärung zu informieren. "Wir aktualisieren unsere Datenschutzrichtlinie, da wir KI bei Meta ausweiten", heißt es in der E-Mail. In dem Text werden die Anwenderinnen und Anwender auch auf ein Widerspruchsrecht hingewiesen.

Nach Einschätzung der Datenschutzaktivisten von Noyb verstößt Meta damit gegen die DS-GVO, selbst wenn persönliche Chat-Nachrichten von der KI-Nutzung ausgeklammert werden. Statt nur eine Widerspruchsmöglichkeit einzuräumen, hätte Meta nach geltendem Recht eine aktive Zustimmung der Nutzer einholen müssen, bevor Daten für ein KI-Training genutzt werden dürfen, erklärte die von Datenschutzaktivist Max Schrems in Leben gerufene Gruppierung.

Daher habe man Beschwerden in Österreich, Belgien, Frankreich, Deutschland, Griechenland, Italien, Irland, den Niederlanden, Norwegen, Polen und Spanien eingereicht. Der Verein fordert von den Behörden der elf angeschriebenen Länder die Einleitung eines Dringlichkeitsverfahrens, um diese Nutzung sofort zu stoppen.

Noyp: Metas Datenschutzrichtlinie besorgniserregend

In der E-Mail von Meta ist von "Beiträgen, Fotos und deren Bildunterschriften sowie Nachrichten, die du an eine KI sendest" die Rede. Die deutsche Verbraucherzentrale interpretiert das so, dass auch ein Beitrag, den man bei Facebook nur für Freunde oder bestimmte Menschen sichtbar gepostet hat, für das KI-Training benutzt werden kann. Nur private Nachrichten an Freunde, etwa im Messenger, sollen nicht verwendet werden.

Noyb bemängelt, es bleibe unklar, zu welchem Zweck die KI-Technologie verwendet werden soll. Das widerspreche klar den Anforderungen der DS-GVO. "Metas Datenschutzrichtlinie würde theoretisch jeden beliebigen Verwendungszweck erlauben. All das ist äußert besorgniserregend, weil es um die persönlichen Daten von etwa vier Milliarden Menschen geht."

Meta vertritt die Auffassung, dass sein Vorgehen nicht gegen die DS-GVO verstößt. In der Mail an die Nutzer heißt es: "Um dir diese Nutzungserlebnisse anbieten zu können, berufen wir uns zukünftig auf die Rechtsgrundlage des berechtigten Interesses, wenn wir deine Informationen verwenden, um KI bei Meta weiterzuentwickeln und zu verbessern."

Der Wiener Jurist Schrems hatte dem Facebook-Konzern Meta bereits mit zwei Klagen das Fürchten gelehrt - und dabei zweimal vor dem Europäischen Gerichtshof Datenabkommen zwischen den USA und Europa gekippt. So erklärte der EuGH im Juli 2020 die EU-US-Datenschutzvereinbarung "Privacy Shield" für ungültig. Bereits 2015 hatte der EuGH die zwischen der EU und den USA ausgehandelte Vorgängerregelung "Safe Harbor" gekippt.

Redaktion beck-aktuell, gk, 6. Juni 2024 (dpa).