Mit dem Fortschritt der generativen Künstlichen Intelligenz (KI) wird es zunehmend wichtiger, zwischen synthetischen und echten Inhalten zu unterscheiden. Im Jahr 2024 ist die Fähigkeit, realistische Bilder und Videos aus einfachen Textaufforderungen zu erstellen, nicht mehr nur Experten vorbehalten, was Bedenken hinsichtlich der Authentizität aufwirft.
Experten empfehlen, dass der erste Schritt zur Identifizierung synthetischer Medien darin besteht, sich bewusst zu machen, dass jeder Inhalt potenziell von KI generiert sein könnte. Siwei Lyu, Professor an der Universität Buffalo, betont die Bedeutung dieses Bewusstseins über spezifische Indikatoren.
Derzeit weisen KI-generierte Bilder oft verräterische Anzeichen auf, wie verzerrte menschliche Merkmale. Mit der Weiterentwicklung der Technologie könnte die Unterscheidung jedoch weniger klar werden. Besonders die bevorstehenden Video-Generatoren von OpenAI, Google und Meta werden den Identifikationsprozess weiter erschweren.
Es gibt zwei Haupttypen manipulierte Videos: Deepfakes, die Gesichter in bestehenden Aufnahmen austauschen, und Videos, bei denen der Ton verändert wird, um Personen Dinge sagen zu lassen, die sie nie gesagt haben. Wichtige Indikatoren für diese Manipulationen sind unnatürliche Gesichtsbewegungen und Inkonsistenzen im Lippen-Synchronisieren.
In einer Zeit, in der die Grenzen zwischen Realität und Fälschung verschwimmen, entwickeln Unternehmen Wasserzeichen und versteckte Metadaten, um synthetische Inhalte anzuzeigen. Benutzer werden ermutigt, Quellen zu überprüfen und skeptisch gegenüber sensationellen Behauptungen zu bleiben, um Fehlinformationen zu vermeiden.