С развитием технологий генеративного искусственного интеллекта (ИИ) становится все важнее различать синтетический и реальный контент. В 2024 году возможность создавать реалистичные изображения и видео по простым текстовым запросам больше не ограничивается экспертами, что вызывает опасения по поводу подлинности.
Эксперты рекомендуют, что первый шаг в определении синтетических медиа — это осознание того, что любой контент потенциально может быть сгенерирован ИИ. Сивей Лю, профессор Университета Буффало, подчеркивает важность этого осознания по сравнению с конкретными индикаторами.
В настоящее время изображения, созданные ИИ, часто имеют выдающиеся признаки, такие как искаженные человеческие черты. Однако с развитием технологии различие может стать менее очевидным. В частности, предстоящие генераторы видео от OpenAI, Google и Meta еще больше усложнят процесс идентификации.
Существуют два основных типа манипулированных видео: дипфейки, которые меняют лица в существующих записях, и видео, где звук изменяется, чтобы заставить людей говорить то, чего они никогда не говорили. Основные индикаторы этих манипуляций включают неестественные движения лиц и несоответствия в синхронизации губ.
В эпоху, когда границы между реальностью и подделкой стираются, компании разрабатывают водяные знаки и скрытые метаданные для обозначения синтетического контента. Пользователям рекомендуется проверять источники и оставаться скептичными к сенсационным утверждениям, чтобы избежать дезинформации.