Консалтинговая группа "Текарт" - центр компетенции "Робототехника".

Подробнее...
Основное меню
Категории новостей
Логотип

Эксперты прогнозируют первый политический скандал, связанный с Deepfakes (+ видео)

Технология Deepfake впервые получила известность в декабре 2017 года, когда человек под псевдонимом «DeepFakes» показал, как методика глубокого обучения ИИ, основанная на нейронной сетевой компьютерной архитектуре, позволяет внедрять лица знаменитостей в кадры порнографического видео.

Подобная технология опирается на метод «генеративно-состязательных сетей» (generative adversarial networks - GAN). Одна сеть учится выявлять закономерности в изображении или видео, чтобы воссоздать, скажем, лицо какой-либо знаменитости. Вторая сеть действует в качестве проницательного зрителя, пытаясь выяснить, является ли подлинным данное изображение или видеокадр, либо их можно считать искусственной подделкой.

Эксперты проводили исследование технологии глубокого обучения, используемой для видео Deepfake. Как показала работа ученых, возможна не только замена лица — технологии цифровой обработки видео и аудио позволяют имитировать внешний вид и голос людей для того, чтобы создать аналоги цифровых марионеток. Исследователи Стэнфордского университета недавно представили некоторые из наиболее реалистичных примеров на сегодняшний день в своей статье «Deep Video Portraits», которая будет представлена на ежегодной конференции SIGGRAPH 2018 по компьютерной графике в Ванкувере с 12 по 16 августа.

Скучающие в интернете массы пользователей ищут развлечения и могут вызвать еще больше проблем, если технология Deepfake станет широкодоступной. Государственные подразделения кибербезопасности, отслеживающие иностранных хакеров и противодействующие им, могут оказаться беспомощными в условиях наводнения социальных сетей видео с Deepfake.

«Я думаю, что люди, которые просто забавляются, в совокупности более опасны, чем отдельные злоумышленники», - говорит Джек Кларк, директор по стратегии и коммуникациям в OpenAI.

Эта угроза настолько реальна, что DARPA финансирует проект по криминалистике, направленный на поиск автоматического заслона для видео Deepfake, а также вводящей в заблуждение цифровой информации.

Теги: Deepfake, ИИ

Комментарии

(0) Добавить комментарий

Ищите команду разработчиков? Не можете найти робота для своих нужд? Пишите нам!

Для обратной связи укажите ваш E-mail, он будет доступен только администратору. Так вы сможете оперативно узнать, когда ответ на ваш вопрос будет опубликован



Новые комментарии

Деревяка - конфетная версия
Гость
30.03.2024
11:48:39
Где приобрести конфеты, для деревяки