Киберэксперт рассказал о 3-х направлениях использования дипфейков мошенниками

Киберэксперт рассказал о 3-х направлениях использования дипфейков мошенниками
Расскажем как именно злоумышленники используют дипфейки, и о развитии этого вида мошенничества и об опасностях для россиян.
Россия
Москва и Московская обл.
Москва

«На сегодняшний день существует три направления использования дипфейков: шантаж с помощью интимных видео, мошенничества с оплатой счетов и переводами посредством видеозвонков и использование образов и видеоизображения без согласия актера», – говорит Дмитрий Овчинников, главный специалист отдела комплексных систем защиты информации компании «Газинформсервис».

«С защитой прав актеров – проблем нет», – уверяет эксперт. Крупные информационные площадки быстро блокируют и удаляют подобный контент, чтобы не получить иск со стороны правообладателя. А вот обеспеченные люди и бухгалтера организаций от подобного не защищены. 

«Сейчас, пока технология еще не пошла в массы, под шантаж попадают владельцы бизнеса или те, у кого есть деньги на выплату по требованию шантажистов. Однако, в будущем, ситуация изменится. По мере того, как скорость производства дипфейков увеличится, а стоимость снизится, под ударом будут находиться и простые обыватели», – говорит Овчинников. Посредством использования взлома социальных сетей и методов социальной инженерии, злоумышленники могут начать шантажировать пользователей на небольшие суммы. А вот метод видеозвонков бухгалтеру организации от «руководителя» с требованием оплатить особый счет – это направление будет еще популярно долгое время. «Несмотря на то, что постепенно произойдет обучение людей и выработка простых мер защиты, поле для деятельности злоумышленников по-прежнему огромное», – заключает киберэксперт Овчинников.

Напоминаем, что недавно в РФ появилась программа для выявления поддельного видеоконтента. Программа, для выявления дипфейков, разработанная специалистами Донского государственного технического университета ДГТУ, выявляет поддельные видеоролики, созданные с помощью технологии DeepFake алгоритма Generative Adversarial Network (GAN). Этот инструмент может с приемлемой точностью обнаруживать на видеокадрах признаки синтезирования лица человека с помощью нейросетей.

RSS
Нет комментариев. Ваш будет первым!