Die Europäische Kommission hat am Montag eine formelle Untersuchung eingeleitet, ob X gegen EU-Digitalregeln verstoßen hat, indem es angeblich versäumt hat, seinen Grok KI-Chatbot daran zu hindern, illegale Inhalte zu generieren und zu verbreiten, darunter sexuell explizite Bilder von Kindern. Die Untersuchung wird bewerten, ob das Unternehmen die Risiken vor dem Einsatz der Bildgenerierungsfunktionen von Grok ordnungsgemäß eingeschätzt und gemindert hat, erklärte die Kommission in einer Stellungnahme am Montag. Die Kommission sagte auch, dass Risiken durch die tatsächliche Generierung und Verbreitung illegaler sexueller Inhalte entstanden sind, was EU-Bürger ernsthaft gefährdet.
Dies geschieht vor dem Hintergrund zunehmender internationaler Überprüfung der Rolle von Grok bei der Erstellung nicht-einvernehmlicher Deepfakes. Vor zwei Wochen führte X Einschränkungen ein, die die Bildgenerierung auf zahlende Abonnenten beschränkten, und fügte technische Barrieren hinzu, um zu verhindern, dass Nutzer Menschen digital manipulieren, um Kleidung zu enthüllen. Das Unternehmen blockierte die Funktion auch geografisch in Jurisdiktionen, in denen solche Inhalte illegal sind. Trotz dieser Maßnahmen stellten Forscher fest, dass etwa ein Drittel der sexualisierten Bilder von Kindern, die im CCDH-Beispiel identifiziert wurden, weiterhin auf der Plattform von X zugänglich waren. „Mit dieser Untersuchung werden wir feststellen, ob X seine gesetzlichen Verpflichtungen im Rahmen des DSA erfüllt hat oder ob es die Rechte europäischer Bürger – einschließlich der Rechte von Frauen und Kindern – als Kollateralschaden seines Dienstes behandelt hat“, sagte Henna Virkkunen, Vizepräsidentin für Tech Souveränität, Sicherheit und Demokratie, in der Erklärung.
Anfang dieses Monats verurteilte der EU-Kommissionssprecher Thomas Regnier die „Spicy Mode“-Funktion von X bei einer Pressekonferenz in Brüssel. „Das ist nicht würzig. Das ist illegal. Das ist empörend. Das ist ekelhaft. Das hat in Europa keinen Platz“, sagte Regnier. Fraser Edwards, Mitgründer und CEO von cheqd, sagte Decrypt, dass „jeder Schöpfer kontrollieren können sollte, wie sein Abbild in KI-generierten Medien verwendet wird.“ Er erklärt, dass die „Gegenreaktion auf den Missbrauch von Deepfakes eine grundlegende Fehlfunktion des Internets selbst unterstreicht.“ „Es gibt immer noch keinen nativen Weg, um zu verifizieren, wer ein synthetisches Werk erstellt hat oder ob dessen Nutzung jemals autorisiert wurde“, fügte Edwards hinzu, und lässt die Haftung weiterhin bei „Intermediären wie X anstatt bei den Verantwortlichen für den Missbrauch.“ Wenn die Vorwürfe bestätigt werden, würden die festgestellten Versäumnisse Verstöße gegen Artikel 34(1) und (2), 35(1) und 42(2) des Digital Services Act darstellen, die Plattformen verpflichten, systemische Risiken zu bewerten und zu mindern, einschließlich illegaler Inhaltsverbreitung und negativer Auswirkungen im Zusammenhang mit geschlechtsbasierter Gewalt. Die EU-Untersuchung baut auf einem DSA-Fall Ende 2023 auf, der im Dezember zu einer Geldstrafe von 140 Millionen US-Dollar (€120 Millionen) gegen X wegen irreführender Gestaltung, Mängeln bei der Transparenz von Anzeigen und eingeschränktem Zugang für Forscher führte. Die Kommission hat die Untersuchung inzwischen auch auf Grok ausgeweitet, einschließlich früherer Bedenken hinsichtlich antisemitischer Inhalte, die vom Chatbot generiert wurden.
Decrypt hat sich für weitere Kommentare an xAI gewandt.