Профессор цифровых коммуникаций Роб Ковер из Мельбурнского королевского технологического университета
Дипфейки появились несколько лет назад, так принято называть видеоролики, где лицо и/или тело одного человека изменены с помощью цифровых технологий так, чтобы он был похож на другого. Методика основана на искусственном интеллекте.
Начиналось все с создания таким образом копий известных актеров — для развлечения публики. Например, на нескольких платформах существует уже популярный аккаунт автора высокотехнологичных подделок — Криса Уме, который выкладывает короткие видео с дип-Томом Крузом. Их набралось уже несколько сотен, а подписчики исчисляются миллионами.
И хотя, по словам Уме, такие ролики не создаются просто нажатием кнопки, широко распространились и продолжают появляться специальные приложения для дипфейков. То есть неквалифицированный пользователь может скачать подобный инструмент и сделать свой дипфейк. В результате получаются более примитивные, но все-таки похожие видео. Недавно в соцсетях трендом стали созданные таким образом ролики с танцующим Робертом Паттинсоном и Киану Ривзом.
Настораживает то, что с помощью дипфейков пытаются дискредитировать не только знаменитостей, но и обычных людей, например, создав лицо вашего друга, по видеосвязи вас попросят занять денег. Программное обеспечение для обнаружения дипфейков и их блокировки пока не успевает за мошенниками. Отстает и законодательство.
Исследователь констатирует: технология дипфейков более совершенна и дешева по сравнению с записью на хромакее и компьютерными изображениями. Она уже никуда не денется, и необходимо учиться с ней жить. Можно, например, использовать ее для появления в фильме актера, которого нет в живых. Технология способна воссоздавать облик умерших родственников, это может быть полезно для людей, которые переживают потерю и проходят терапию.
Негативные сценарии применения дипфейков:
«доказательства» фейковых новостей от имени известных лиц;
дискредитация людей, которым важна репутация в соцсетях;
предвыборные фейки;
дипфейковая порнография.
По данным 2019 года, к последнему пункту относятся 96% из исследованных 14 тысяч подделок. Речь о созданных в бесплатных приложениях видео, где одетых женщин превращали в раздетых, чтобы использовать ролики для мести или шантажа.
Пока владельцы платформ не поспевают за мошенниками, ученые предлагают использовать здравый смысл и наблюдательность.
Как разоблачить дипфейк
Перечислим главные признаки подделок.
Неестественность. Слишком гладкое лицо и/или волосы, необычные тени на скулах, бессвязная мимика, движения губ не совсем соответствуют словам, которые произносит персонаж ролика.
Контекст. Если на видео делают провокационное заявления, обсуждают актуальные в обществе темы (например, вакцинацию от коронавируса) или есть контент 18+, отнеситесь к ролику критически.
Надежность источника. В соцсетях уточняйте, подтверждена ли учетная запись автора. Если удалось вычислить дипфейк, лучше сразу сообщать об этом администрации через опцию «пожаловаться».
Во всех случаях стоит проверить информацию по другим источникам. Например, вбейте слова героя в кавычках в поисковую строку и посмотрите, процитировало ли их хотя бы одно авторитетное издание. Если это речь крупного политика или всемирно известного артиста, ее наверняка использовали как инфоповод многие новостные сайты.
А еще почитайте о 10 правилах безошибочного распознавания фейков в интернете.