На большом экране смоделированая компьютером девушка, в маленьком окошке программист, послуживший для нее прототипом. При этом автор специально трогает себя за лицо, за волосы, но иллюзия сохраняется. Китай. развернуть 0 /
578 /
0 / 7 месяцев назад
Дипфейки (метод создания поддельного медиаконтента аудио, фото или видео, с помощью алгоритмов глубокого обучения) продолжают развиваться. Еще недавно лицо какой-нибудь медийной персоны «натягивали» на лицо другого человека с помощью относительно примитивной технологии FaceSwap. Подделку можно было разоблачить. Сейчас это невозможно.
Верить нельзя больше никому. развернуть+7.41 /
865 /
2 / 1 год назад
Подробнее: Intel разработала технологию FakeCatcher, способную определять дипфейки в реальном времени. Компания утверждает, что точность FakeCatcher достигает 96%. Детектор выявляет дипфейки, опираясь на цветовые изменения кожи, вызванные кровотоком, которые могут быть только у настоящего человека. Детектор изучает цвет лица, переводит эти сигналы в своеобразную карту и при помощи глубокого обучения определяет, настоящий человек на видео или подделка. развернуть 0 /
583 /
0 / 2 года назад
Главным отличием новой нейросети является скорость и относительная простота работы. Не нужно возиться с выборкой и тратить несколько суток или недель на обучение! Для создания дипфейка требуется лишь фотография и видеоролик, в который нужно вставить лицо с фотографии. Как в этом ролике, где совместилось лицо чернокожего Флойда и тело Гитлера. развернуть 0 /
1285 /
0 / 3 года назад
Процесс замены лиц на видео при помощи GAN-нейросетей или DeepFake становится все более популярным в Сети, а его инструменты все более доступными. Поддельные ролики всё труднее отличить от подлинника. Вот один из таких. В этом видео показан процесс создания цифрового двойника. Сообщество дипфейкеров: развернуть+19.86 /
975 /
1 / 5 лет назад