Internetwerkstatt

Falsches Weinen erkennen

von

Manipulierte Bilder mit Hive erkennen
Manipulierte Bilder mit Hive erkennen

Hat Ricarda Lang beim Blick auf die Wahlergebnisse in Sachsen und Thüringen einen weinerlichen Gesichtsausdruck – oder nicht? Im Video ist „05:43 moma“ eingeblendet, ein Hinweis auf das ZDF-Morgenmagazin. Dort ist die Szene tatsächlich zu sehen, aber mit einem anderem, etwas gefassterem Gesichtsausdruck der Grünen-Politikerin. Dieses Video kursiert offenbar mit einem KI-generierten „Face Filter“, der Ricarda Lang den Tränen nahe bringt.

Mit künstlicher Intelligenz erstelltes oder manipuliertes Material wird immer häufiger genutzt, um Falschinformationen zu verbreiten. Und es wird für Menschen – auch in Redaktionen – zunehmend schwierig, Texte, Bilder, Audios und Videos als KI-generiert zu erkennen. Deshalb gibt es immer mehr digitale Detektoren, die versprechen, KI-Material erkennen zu können. Hier ein Blick auf die umfangreichen Tools von Hive Moderationund TrueMedia.

Manipulierte Bilder mit Hive erkennen
Manipulierte Bilder mit Hive erkennen

KI-Urteil für alle Medien 

Die AI generated Content Detection ist bei Hive bislang kostenfrei und ohne Anmeldung zugänglich. Lokalredaktionen können so Text, Audio, Bilder oder Video beurteilen lassen – als Resultat wird „not likely to contain AI generated content“ oder „likely to contain AI generated content“ mit einer Prozentzahl angezeigt. Und so bedient man die Detektoren von Hive:

  • für Text: Der zu prüfende Text muss kopiert und eingefügt werden. Benötigt werden mindestens 750 Zeichen, empfohlen sind 1.500 bis maximal 8.200 Zeichen, um gute Resultate zu erzielen. Nach dem Klick auf „Submit“ werden das Urteil und auch Prozentzahlen für einzelne Abschnitte angezeigt.
  • für Audio: Das Material muss hochgeladen werden – möglich sind etwa 15 Dateiformate, darunter auch Videoformate wie mp4 oder avi, sodass auch die Audiospur von Clips geprüft werden kann. Nach dem Hochladen startet direkt die Beurteilung.
  • für Bilder und Video: Fast 10 Dateiformate sind für den Upload von Bildern oder Videos möglich. Dafür wird zusätzlich zum Resultat auch aufgelistet, welche KI-Modelle am wahrscheinlichsten zur Generierung verwendet wurden.

Auch nützlich ist die Erweiterung für den ­Chrome-Browser, mit der man Bilder und Videos im Internet nur mit rechts anklicken und „Hive AI Detector“ im Menü auswählen muss, um eine Analyse direkt auf der Website zu starten.

Die Resultate von Hive sind schwankend, denn komplett echtes oder KI-generiertes Material wird recht zulässig mit hohen Prozentzahlen erkannt, bei bearbeitetem Material ist Hive häufig unschlüssig, so wird der Clip mit Ricarda Lang nur mit 13,2 Prozent als KI-generiert erkannt und mit „not likely to contain AI-generated or deepfake content“ beurteilt.

Analyse mit TrueMedia
Analyse mit TrueMedia

Multi-Tool für Social-Media-Links 

TrueMedia aggregiert die Resultate von mehreren Detektoren – darunter auch Hive –, um Material auf KI zu prüfen. Das Werkzeug beurteilt Bilder, Audios und Videos, aber keinen Text. Man kann es nach dem Anmelden kostenfrei nutzen, indem man per „Query“ entweder Material hochlädt – mit maximal 100 MB oder vier Minuten Länge – oder den Link zu einem Social-Media-Beitrag mit Bildern, Audios oder Videos einfügt.

TrueMedia arbeitet mit den Resultaten „substantial evidence“ oder „little evidence“ und liefert eine Liste, welche Aspekte mit wie vielen Detektoren beurteilt wurden, zum Beispiel Gesichter, Stimmen, Semantik. Darunter sind die Ergebnisse der einzelnen Detektoren aufgedröselt. Praktisch ist, dass die Resultate unter „History“ gespeichert werden, sodass man zu schon geprüftem Material zurückkann. Für Redaktionen ist interessant, dass sich TrueMedia auch als Team nutzen lässt und mehrere Menschen einer Organisation die „Query“- und „History“-Funktion verwenden können.

Die Resultate von TrueMedia sind ebenfalls durchwachsen: Ein TikTok mit Tom Cruise wird eindeutig als KI-generiert erkannt und sogar mit einem Link zu weiteren Informationen ergänzt. Hingegen wird ein Video von einer Fahrt durch wechselnde Jahreszeiten mit AI-Logo nicht erkannt, aber durch menschliche Prüfung als KI markiert. True­Media gibt selbst an, dass bei schnell geschnitten Clips oder nicht englischsprachigen Audios mehr Fehler auftreten können.

Analyse mit TrueMedia
Analyse mit TrueMedia

Hilfsmittel mit Fragezeichen

Sind digitale KI-Detektoren für Lokalredaktionen geeignet? Jein. Es sind Hilfsmittel beim Erkennen von KI-generiertem Material, wenn man weiß, welche Probleme vorliegen. Die KI-Detektoren liefern nur eine Einschätzung, aber kein verlässliches Ergebnis, denn es treten immer wieder Fehler auf. Nicht immer ist klar, wie die Werkzeuge arbeiten und wie die Resultate zu deuten sind. So wird Material auf die populärsten KI-Modelle geprüft, sodass neue KIs wie die chinesische Kling AI zunächst nicht erkannt werden. Und: Handelt es sich bei der Prozentzahl um eine Wahrscheinlichkeit oder den Anteil im Material? Deshalb sollten Resultate von KI-Detektoren immer mit einem menschlichen Urteil kombiniert werden.

Links:

Zu Hive: hivemoderation.com/ai-generated-content-detection

Zu TrueMedia: truemedia.org

Faktencheck zu Ricarda Lang: t1p.de/faktencheck-lang

 

Christina Quast

Christina Quast

berichtet als freie Journalistin über digitale Tools und Themen und ist seit Mitte 2018 für den Blog „Journalisten Tools“ verantwortlich. Für Journalisten gibt sie auch Seminare und organisiert Barcamps.

E-Mail: quast@journalisten-tools.de
Internet: journalisten-tools.de

Veröffentlicht am

Zurück

Kommentare

Einen Kommentar schreiben

Kommentieren

Bei den mit Sternchen (*) markierten Feldern handelt es sich um Pflichtfelder.