«Дипфейки» против правды: как выглядит дезинформация будущего

В последние годы немало внимания было уделено опасности «фейковых новостей» и дезинформации. По версии словаря Dictionary.com, словом 2018 года стало «misinformation», то есть ложная информация. Впереди мир ожидает новый вызов ‒ так называемые «дипфейки», которые заставят людей буквально сомневаться во всем, что они видят.

11 декабря этого года в российском городе Ярославль открылся форум «ПроэкториЯ». Телеканал «Россия-24» показал кадры с роботом Борисом на сцене, умеющим ходить и говорить.

Автор репортажа констатировал, что робота «уже научили» танцевать, причем «достаточно неплохо». В конце концов Борис оказался простым человеком, переодетым в костюм.

Когда в интернете начали насмехаться над «подставным» роботом, телеканал «Россия-24» удалил сюжет с YouTube-канала, а затем объяснил, что это просто недоразумение, произошедшее из-за «художественного оборота».

«Я был точно уверен, что по аналогии с дедом морозом все вполне точно узнают аниматора в костюме», ‒ пояснил автор сюжета.

Независимо от того, какими именно были мотивы корреспондентов, догадаться, что современный робот ‒ переодетый человек, бдительному зрителю оказалось не так сложно.

Но через несколько лет на любые подобные сомнения придется потратить гораздо больше времени.

Слово 2018 года

Англоязычный онлайн-словарь Dictionary.com определил словом 2018 года «ложную информацию» (misinformation).

«Безудержное распространение неправдивой информации ставит новые вызовы для ориентирования в жизни в 2018 году», ‒ говорится на сайте словаря.

Ложную информацию при этом не следует путать с дезинформацией, «фейковыми новостями» или, например, «дипфейками».

Но в чем разница? В намерениях распространения.

Ложная информация

Ложная информация ‒ та, в которую верят люди, ее распространяющие.

«Это ложные сведения, распространяемые независимо от того, есть ли намерение ввести в заблуждение», ‒ уточняет словарь.

Дезинформация

Дезинформация ‒ это «намеренное введение в заблуждение или предвзятая информация, манипулирование рассказом или фактами, пропаганда», ‒ объясняет словарь.

Если политик стратегически распространяет информацию, не являющуюся правдивой, и политик об этом хорошо знает, в виде публикаций в СМИ, фотографий и т.п., это дезинформация.

Но когда человек видит эту дезинформацию и верит ей, еще и начинает распространять ‒ это становится ложной информацией, поясняет издание The Washington Post.

Следующий уровень ‒ «дипфейк»

Если, казалось бы, словом «дезинформация» удивить кого-то в 2018 году сложно, и даже если люди будут доверять только потому, что увидели собственными глазами ‒ здесь новости тоже неутешительны. Ведь неизбежное появление так называемых «дипфейков» заставит сомневаться буквально во всем, что человек видит на экранах.

Если, например, человек на видео увидит, как президент какого-либо государства выступает с призывом к ядерной войне ‒ при этом он будет выглядеть вполне реалистично ‒ в это, вероятно, поверят.

«Дипфейк» ‒ чрезвычайно реалистичные манипуляции аудио- и видеоматериалами. Слово состоит из двух английских слов: «deep» ‒ глубокий и «fake» ‒ фальшивка».

Иными словами, «дипфейк» ‒ управляемый искусственным интеллектом механизм замещения лица человека на видео лицом другого человека путем машинного обучения ‒ такое определение предлагает один из онлайн-словарей.

БОЛЬШЕ ПО ТЕМЕ: «Дипфейки»: как бороться с фальшивыми видео

Пример 1: Обама называет Трампа «засранцем»

В 2018 году американский режиссер Джордан Пил и издание BuzzFeed опубликовали якобы видеообращение бывшего президента США Барака Обамы, в котором он называет Дональда Трампа «засранцем».

На самом деле Обама ничего такого не говорил. Ролик создали с помощью программы Fakeapp и графического редактора Adobe After Effects. Журналисты и режиссер намеревались показать, какой вид в будущем будут иметь «фейковые» новости.

Пример 2: Искусственный телеведущий

А вот, например, государственное информационное агентство Китая «Синьхуа» недавно представило нового, цифрового члена своей редакции ‒ телеведущего, работающего на основе искусственного интеллекта.

Он не является примером «дипфейка», но демонстрирует, как реалистично может выглядеть «цифровой» человек, которому «вложили слова в уста».

«Я буду работать без устали и продолжать информировать вас о последних событиях ‒ тексты загружаются в систему, руководящую мной, непрерывно», ‒ говорит виртуальный журналист.

Обозреватель издания Futurism, правда, замечает: «Пока англоязычная версия телеведущего оставляет желать лучшего... этот конкретный пример никого не сможет обмануть».

Но это ‒ только начало. Со временем такие технологии могут позволить любому создавать видеоролики о реальных людях, где они будут говорить то, чего никогда не говорили, сообщало ранее агентство Associated Press.

Этот высокотехнологичный способ «вкладывать слова в чьи-то уста» станет самым современным оружием в условиях информационных войн, убеждены эксперты.

Есть и плюсы

С одной стороны «дипфейки» могут быть полезным инструментом, например, для обучения: какая-то историческая фигура может рассказывать детям о своей жизни. Но на политической арене использование «дипфейков» будет действительно «пугающим» явлением, говорится в статье Foreign Affairs.

Ведь для чего угодно можно будет привести «реальные доказательства»: будь то выступление мирового лидера, международной организации, акты насилия и тому подобное.

Кровоток соцсетей

Социальные сети, как и с «фейковыми новостями», станут плодородной почвой для циркуляции таких «дипфейков», что будет иметь потенциально опасные последствия для политики. «Попытка России повлиять на американские президентские выборы в 2016 году из-за распространения противоречивых и политически зажигательных сообщений в Facebook и Twitter уже продемонстрировала, как легко можно ввести дезинформацию в кровоток социальных сетей. «Дипфейки» завтрашнего дня будут более яркими и реалистичными, а значит, ими будут больше делиться, чем «фейковыми новостями 2016 года», ‒ замечает автор.

БОЛЬШЕ ПО ТЕМЕ: «Дипфейк» – информационное оружие будущего

«Дипфейки» смогут использовать и негосударственные игроки, среди них и террористические группировки, целью которых может быть, например, провокация.

И еще одна проблема

Еще одна проблема в том, что люди со временем будут знать о существовании «дипфейков», и чиновникам, совершившим какое-то правонарушение, будет легко сослаться на то, что это очередная подделка. Более того, люди перестанут верить настоящим записям и будут меньше доверять новостным агентствам.

Самим журналистам тоже будет сложнее ориентироваться в том, что является настоящим материалом, а что «дипфейком», замечает автор.

И хотя технологии для создания «дипфейков» развиваются достаточно быстро, также появляются и ресурсы, имеющие целью их выявлять.

«Но, хотя «дипфейки» и опасны, они не обязательно будут иметь катастрофические последствия. Улучшится система их выявления, прокуроры и истцы иногда будут получать юридические победы против создателей вредоносных подделок, а основные платформы соцсетей постепенно станут лучше в выявлении и удалении мошеннического содержания», ‒ отмечает автор.