Falsches Weinen erkennen
von Christina Quast
Hat Ricarda Lang beim Blick auf die Wahlergebnisse in Sachsen und Thüringen einen weinerlichen Gesichtsausdruck – oder nicht? Im Video ist „05:43 moma“ eingeblendet, ein Hinweis auf das ZDF-Morgenmagazin. Dort ist die Szene tatsächlich zu sehen, aber mit einem anderem, etwas gefassterem Gesichtsausdruck der Grünen-Politikerin. Dieses Video kursiert offenbar mit einem KI-generierten „Face Filter“, der Ricarda Lang den Tränen nahe bringt.
Mit künstlicher Intelligenz erstelltes oder manipuliertes Material wird immer häufiger genutzt, um Falschinformationen zu verbreiten. Und es wird für Menschen – auch in Redaktionen – zunehmend schwierig, Texte, Bilder, Audios und Videos als KI-generiert zu erkennen. Deshalb gibt es immer mehr digitale Detektoren, die versprechen, KI-Material erkennen zu können. Hier ein Blick auf die umfangreichen Tools von Hive Moderationund TrueMedia.
KI-Urteil für alle Medien
Die AI generated Content Detection ist bei Hive bislang kostenfrei und ohne Anmeldung zugänglich. Lokalredaktionen können so Text, Audio, Bilder oder Video beurteilen lassen – als Resultat wird „not likely to contain AI generated content“ oder „likely to contain AI generated content“ mit einer Prozentzahl angezeigt. Und so bedient man die Detektoren von Hive:
- für Text: Der zu prüfende Text muss kopiert und eingefügt werden. Benötigt werden mindestens 750 Zeichen, empfohlen sind 1.500 bis maximal 8.200 Zeichen, um gute Resultate zu erzielen. Nach dem Klick auf „Submit“ werden das Urteil und auch Prozentzahlen für einzelne Abschnitte angezeigt.
- für Audio: Das Material muss hochgeladen werden – möglich sind etwa 15 Dateiformate, darunter auch Videoformate wie mp4 oder avi, sodass auch die Audiospur von Clips geprüft werden kann. Nach dem Hochladen startet direkt die Beurteilung.
- für Bilder und Video: Fast 10 Dateiformate sind für den Upload von Bildern oder Videos möglich. Dafür wird zusätzlich zum Resultat auch aufgelistet, welche KI-Modelle am wahrscheinlichsten zur Generierung verwendet wurden.
Auch nützlich ist die Erweiterung für den Chrome-Browser, mit der man Bilder und Videos im Internet nur mit rechts anklicken und „Hive AI Detector“ im Menü auswählen muss, um eine Analyse direkt auf der Website zu starten.
Die Resultate von Hive sind schwankend, denn komplett echtes oder KI-generiertes Material wird recht zulässig mit hohen Prozentzahlen erkannt, bei bearbeitetem Material ist Hive häufig unschlüssig, so wird der Clip mit Ricarda Lang nur mit 13,2 Prozent als KI-generiert erkannt und mit „not likely to contain AI-generated or deepfake content“ beurteilt.
Multi-Tool für Social-Media-Links
TrueMedia aggregiert die Resultate von mehreren Detektoren – darunter auch Hive –, um Material auf KI zu prüfen. Das Werkzeug beurteilt Bilder, Audios und Videos, aber keinen Text. Man kann es nach dem Anmelden kostenfrei nutzen, indem man per „Query“ entweder Material hochlädt – mit maximal 100 MB oder vier Minuten Länge – oder den Link zu einem Social-Media-Beitrag mit Bildern, Audios oder Videos einfügt.
TrueMedia arbeitet mit den Resultaten „substantial evidence“ oder „little evidence“ und liefert eine Liste, welche Aspekte mit wie vielen Detektoren beurteilt wurden, zum Beispiel Gesichter, Stimmen, Semantik. Darunter sind die Ergebnisse der einzelnen Detektoren aufgedröselt. Praktisch ist, dass die Resultate unter „History“ gespeichert werden, sodass man zu schon geprüftem Material zurückkann. Für Redaktionen ist interessant, dass sich TrueMedia auch als Team nutzen lässt und mehrere Menschen einer Organisation die „Query“- und „History“-Funktion verwenden können.
Die Resultate von TrueMedia sind ebenfalls durchwachsen: Ein TikTok mit Tom Cruise wird eindeutig als KI-generiert erkannt und sogar mit einem Link zu weiteren Informationen ergänzt. Hingegen wird ein Video von einer Fahrt durch wechselnde Jahreszeiten mit AI-Logo nicht erkannt, aber durch menschliche Prüfung als KI markiert. TrueMedia gibt selbst an, dass bei schnell geschnitten Clips oder nicht englischsprachigen Audios mehr Fehler auftreten können.
Hilfsmittel mit Fragezeichen
Sind digitale KI-Detektoren für Lokalredaktionen geeignet? Jein. Es sind Hilfsmittel beim Erkennen von KI-generiertem Material, wenn man weiß, welche Probleme vorliegen. Die KI-Detektoren liefern nur eine Einschätzung, aber kein verlässliches Ergebnis, denn es treten immer wieder Fehler auf. Nicht immer ist klar, wie die Werkzeuge arbeiten und wie die Resultate zu deuten sind. So wird Material auf die populärsten KI-Modelle geprüft, sodass neue KIs wie die chinesische Kling AI zunächst nicht erkannt werden. Und: Handelt es sich bei der Prozentzahl um eine Wahrscheinlichkeit oder den Anteil im Material? Deshalb sollten Resultate von KI-Detektoren immer mit einem menschlichen Urteil kombiniert werden.
Links:
Zu Hive: hivemoderation.com/ai-generated-content-detection
Zu TrueMedia: truemedia.org
Faktencheck zu Ricarda Lang: t1p.de/faktencheck-lang
Veröffentlicht am
Kommentare
Einen Kommentar schreiben