Доступность ссылки

Опасность «дипфейков»: как бороться с фальшивыми видео


Фейковые видео имеют настолько высокий потенциал дестабилизации, что агентство новейших разработок Минобороны США DARPA приняло решение провести конкурс, основной задачей которого будет определение наиболее эффективных методов распознавания «дипфейков», или «глубоких фейков» (deepfake ‒ ред.) ‒ видеоподделок, сделанных настолько реалистично, что они могут вызвать политический скандал или даже стать причиной конфликта. Об этом сообщает агентство новостей McClatchy.

В июле 10 команд изобретателей из ведущих американских университетов и Европы в течение двух недель будут соревноваться в конкурсе на разработку технологий, которые позволят отличить фальшивые видео от реальных.

С развитием фейковые видео могут вызвать потрясения ‒ как на личном уровне, так и на уровне государств

«Фейковые видео, которые иногда называют deepfakes, создаются с использованием искусственного интеллекта, они могут создать впечатление, что определенное лицо находилось в каком-то месте, где его не было, или делало заявления, которых в действительности не было. С развитием фейковые видео могут вызвать потрясения ‒ как на личном уровне, так и на уровне государств ‒ и даже вызвать религиозные конфликты», ‒ приводит мнение экспертов издание.

«Скорость прогресса поражает, ‒ заявил изданию Джефф Клюне, эксперт по «дипфейкам». ‒ Сейчас они имеют приличное качество, но вскоре станут впечатляющими».

Например, сейчас подделки можно довольно легко отличить по отсутствию моргания. На это обращают внимание на Data 61 CSIRO.

«Дипфейки» становятся невероятно качественными», ‒ писало в июне технологическое издание Gizmodo.

Фейковые видео уже получают распространение. В прошлом месяце Фламандская социалистическая партия распространила фейковое видеообращение президента США Трампа к жителям Бельгии.

Фейковые аудиозаписи, например, создаются с помощью сбора часов записей разговора реальной личности и дальнейшего ремикширования фонем. Качество таких подделок улучшается, но их все еще достаточно легко различить.

«Сейчас они звучат неестественно. Но в течение 5 лет аудиозаписи уже будут способны обмануть следователей; фейковые видео также прогрессируют», ‒ рассказал Грегори Аллен, эксперт аналитического центра Center For A New American Security по искусственному интеллекту.

Некоторые эксперты утверждают, что временная рамка для совершенствования фальшивых видео даже меньше, и уже сейчас создатели фальшивых видео имеют преимущество перед исследователями, разоблачающими фейки.

Конкурс, организованный DARPA, является частью 4-летней программы анализа медиа, призванной создать инструменты определения наличия видеоманипуляций и предоставления деталей относительно того, как была создана подделка. В соревновании принимают участие команды университетов Dartmouth, Notre Dame и Stanford Research Institute.

FACEBOOK КОММЕНТАРИИ:

В ДРУГИХ СМИ




Recommended

XS
SM
MD
LG