С развитием современных технологий и искусственного интеллекта, растет число новых способов обмана пользователей в интернете. За последнее время увеличилось количество случаев с использованием deepfake. Это такая технология, разработанная искусственным интеллектом с имитацией голоса или видео знакомого человека. В большинстве случаев такие действия рассчитаны на просьбы о срочном переводе денег.
Мошенничество deepfake
Не так давно мошенники пользовались обычными телефонами, звонили и представлялись сотрудниками различных структур: банка, полиции, прочих, с просьбой о помощи своим близким. Сейчас требуются другие навыки, мошенники освоили искусственный интеллект и социальные сети. Достаточно иметь фотографии и аудио с голосом человека, с которого будут создавать deepfake. Вводя параметры и выдавая задание искусственному интеллекту, мошенник может рассчитывать на положительный результат. Сегодня только достаточно иметь необходимое программное обеспечение, которое способно генерировать аудио и видео дипфейки.
Фейковые видео мошенников
В интернете мошенники выбирают себе жертву, и изучает ее, создавая специфические видео, где, например, к сотрудникам компании будет обращаться их директор с просьбой о переводе денежной суммы на какой-либо счет. Также могут имитировать детский голос или сделать фейк, чтобы ребенок обратился к своим родителям за финансовой помощью и чтобы закинули другу деньги на карту.
Мошенников с использованием видео deepfake становится больше, их целью могут быть бизнесмены, которые попадаются на удочку правдоподобности, созданных либо партнеров, либо сотрудников компании.
Обман с поддельными лицами
Также мошенники используют deepfake фотографии, для этого достаточно подставить лицо жертвы к другому телу, выдав это за реальное изображение. Таким образом создаются компрометирующие и порнографические deepfake. Выглядит все настолько реалистично, что мошенникам удается шантажировать жертву с требованием выкупить данные фотографии или тянуть из нее постоянно деньги с угрозой опубликовать данные фотографию.
Там же несложно создать мошенникам фотографию, где человек может находиться в том месте, в котором он и не бывал. Часто такие депфейки используют для шантажа известных личностей.
Аферы с дипфейками
В большей степени диплейки создаются для шантажа личности или для создания ему алиби - это что касательно фотографий. Видео,настолько реалистичны, что сразу и невозможно отличить реально это человек или нет. Мошенники умело пользуются способностями искусственного интеллекта создавать фальшивые видео аудио и фото файлы.
Мошенники могут создавать специальные рекламные ролики с призывом участвовать в инвестировании денег или розыгрыше призов, использовать при этом внешность известного актёра, который:
- расскажет о выгодных предложениях;
- прорекламирует компанию;
- предложит вкладывать деньги для дальнейшей и быстрой прибыли.
Мошенники заманивают инвесторов, собирают с них деньги и исчезают.
Как распознать deepfake
При тщательном рассмотрении видео, можно заметить, что оно может быть фейком:
- изображение лица не соответствует речевому темпу;
- неестественный вид лица;
- слабо выраженная мимика;
- нет четких границ между элементами кожных оттенков;
- освещение может быть неравномерным.
Так как за один раз ИИ в состоянии генерировать видео всего лишь на несколько секунд, то чтобы создать полноценный видеоролик, необходимо собрать воедино несколько таких генераций и это создает сложности в создании единой образа персонажа.
Кибермошенничество с дипфейком
Кибермошенничество с deepfake приносят немалые доходы аферистам, даже создав видеоролик с участием знаменитости мошенники могут разместить его в социальных сетях и множество людей может поверить в ситуацию реализованную на видео.
Мошенники могут создавать неправдивые компрометирующие видео и фотоизображения, например, под заказ. Когда компания, мечтающая избавиться от конкурентов, может заказать создание видео с какой-либо компрометирующий информации, например, разместить его руководящий состав в непристойная ситуация
Фальшивые личности онлайн
Искусственный интеллект помогает создавать различные образы в сети. Так с помощью технологии deepfake легко создаются не существующие фальшивые личности, такую особу мошенники могут использовать, например, на сайтах знакомств общаясь по видеосвязи с будущей жертвой. Легко втираются в доверие под образом противоположного пола и могут выманивать деньги на проезд и встречу, что никогда не произойдет, потому что созданная личность с помощью нейросети, не существует. Это позволяет мошеннику скрывать свою личность и грабить жертв.
Защита от deepfake-разводов
При возникновении первых подозрений о том, что вы общаетесь с искусственно созданной личностью:
- присмотритесь внимательно к изображению;
- наблюдайте за движениями, если они чересчур плавные и неестественные — это может быть фейком;
- присматривайтесь к несовпадениям;
- реагируйте на лица;
- обращайте внимание на пальцы рук;
- есть ли ошибки в деталях;
- не упускать из виду фон, который неестественно размыт или не взаимодействует с окружением;
- может не совпадать звук и движение губ.