Контент, созданный ИИ: как распознать синтетические медиа

С развитием технологий генеративного искусственного интеллекта (ИИ) становится все важнее различать синтетический и реальный контент. В 2024 году возможность создавать реалистичные изображения и видео по простым текстовым запросам больше не ограничивается экспертами, что вызывает опасения по поводу подлинности.

Эксперты рекомендуют, что первый шаг в определении синтетических медиа — это осознание того, что любой контент потенциально может быть сгенерирован ИИ. Сивей Лю, профессор Университета Буффало, подчеркивает важность этого осознания по сравнению с конкретными индикаторами.

В настоящее время изображения, созданные ИИ, часто имеют выдающиеся признаки, такие как искаженные человеческие черты. Однако с развитием технологии различие может стать менее очевидным. В частности, предстоящие генераторы видео от OpenAI, Google и Meta еще больше усложнят процесс идентификации.

Существуют два основных типа манипулированных видео: дипфейки, которые меняют лица в существующих записях, и видео, где звук изменяется, чтобы заставить людей говорить то, чего они никогда не говорили. Основные индикаторы этих манипуляций включают неестественные движения лиц и несоответствия в синхронизации губ.

В эпоху, когда границы между реальностью и подделкой стираются, компании разрабатывают водяные знаки и скрытые метаданные для обозначения синтетического контента. Пользователям рекомендуется проверять источники и оставаться скептичными к сенсационным утверждениям, чтобы избежать дезинформации.

Вы нашли ошибку или неточность?

Мы учтем ваши комментарии как можно скорее.