EU-Institutionen verbieten laut Bericht KI-generierte Bilder und Videos in offizieller Kommunikation
Politico berichtet, dass Kommission, Parlament und Rat ihren Presseteams den Einsatz vollständig KI-generierter Inhalte untersagen. Experten sehen darin eine verpasste Chance.
Metas eigenes Aufsichtsgremium warnt: Community Notes sind KI-Desinformation nicht gewachsen
Das Oversight Board von Meta hat die geplante weltweite Ausweitung von Community Notes untersucht. Das Ergebnis: Das System ist zu langsam, zu dünn besetzt und anfällig für Manipulation, besonders angesichts der wachsenden Flut KI-generierter Desinformation. In bestimmten Ländern sollte Meta das Programm gar nicht erst einführen.
Newsguard hat getestet, ob die Audio-Bots ChatGPT Voice (OpenAI), Gemini Live (Google) und Alexa+ (Amazon) falsche Behauptungen in realistisch klingenden Audioantworten wiedergeben. Solche Audioantworten können auf sozialen Medien geteilt und zur Verbreitung von Desinformation missbraucht werden.
Getestet wurden 20 nachweislich falsche Behauptungen aus den Bereichen Gesundheit, US-Politik, Weltnachrichten und ausländische Desinformation, jeweils mit einer neutralen Frage, einer suggestiven Frage und einer böswilligen Aufforderung, etwa ein Radioskript mit der Falschmeldung zu erstellen. ChatGPT wiederholte Falsches in 22 Prozent der Fälle, Gemini in 23 Prozent. Bei böswilligen Eingaben stiegen die Raten auf 50 bzw. 45 Prozent.
Fehlerquoten der Audio-Bots ChatGPT, Gemini und Alexa+ nach Eingabetyp: neutral (rot), suggestiv (blau) und böswillig (braun). Alexa+ blieb bei allen drei Typen bei 0 Prozent. | Bild: Newsguard
Amazons Alexa+ lehnte jede Falschbehauptung ab. Laut Amazon-Vizepräsidentin Leila Rouhi nutzt Alexa+ vertrauenswürdige Nachrichtenquellen wie AP, Reuters und weitere als Grundlage. OpenAI lehnte eine Stellungnahme ab, Google reagierte nicht auf zwei Anfragen. Details zur Methodik finden sich auf Newsguardtech.com.
Auch die japanische Bevölkerung kämpft mit KI-Fake-Inhalten im Kontext von Wahlen. Bei der Unterhauswahl verbreiten sich massenhaft gefälschte Videos und Nachrichten in sozialen Medien, berichtet Japan Times. Generative KI macht die Erstellung täuschend echter Videos einfach, Plattformen wie YouTube und TikTok belohnen hohe Klickzahlen.
Die französische Staatsanwaltschaft hat die Büros von Elon Musks Plattform X in Paris durchsucht. Die Cyberkriminalitätseinheit ermittelt wegen mehrerer Vorwürfe, darunter unrechtmäßige Datenextraktion und Beihilfe zur Verbreitung von Darstellungen von Kindesmissbrauch. Auch sexuelle Deepfakes sind Teil der Untersuchung. Musk und die frühere X-Chefin Linda Yaccarino wurden für April zu Anhörungen vorgeladen, berichtet die BBC. X hat die Ermittlungen zuvor als politisch motiviert bezeichnet.
Parallel dazu hat die britische Datenschutzbehörde ICO eine Untersuchung gegen Musks KI-Tool Grok eingeleitet. Es geht um die Frage, ob persönliche Daten ohne Zustimmung zur Erstellung sexualisierter Bilder verwendet wurden. Auch die britische Medienaufsicht Ofcom und die Europäische Kommission prüfen die Plattform weiterhin. X hat sich bisher nicht zu den Ermittlungen geäußert.
US-Senat verabschiedet Gesetz gegen sexuelle KI-Deepfakes nach Grok-Skandal
Der US-Senat reagiert auf die Flut sexualisierter KI-Bilder auf Elon Musks Plattform X mit einem neuen Gesetz. Opfer sollen künftig die Urheber verklagen können.