Exp Sovet Logo
0%
... >

Exp Sovet

Фальшивое лицо, реальный обман: как deepfake стал оружием мошенников

Новости,

С развитием современных технологий и искусственного интеллекта, растет число новых способов обмана пользователей в интернете. За последнее время увеличилось количество случаев с использованием deepfake. Это такая технология, разработанная искусственным интеллектом с имитацией голоса или видео знакомого человека. В большинстве случаев такие действия рассчитаны на просьбы о срочном переводе денег.

Мошенничество deepfake

Не так давно мошенники пользовались обычными телефонами, звонили и представлялись сотрудниками различных структур: банка, полиции, прочих, с просьбой о помощи своим близким. Сейчас требуются другие навыки, мошенники освоили искусственный интеллект и социальные сети. Достаточно иметь фотографии и аудио с голосом человека, с которого будут создавать deepfake. Вводя параметры и выдавая задание искусственному интеллекту, мошенник может рассчитывать на положительный результат. Сегодня только достаточно иметь необходимое программное обеспечение, которое способно генерировать аудио и видео дипфейки.

Фейковые видео мошенников

В интернете мошенники выбирают себе жертву, и изучает ее, создавая специфические видео, где, например, к сотрудникам компании будет обращаться их директор с просьбой о переводе денежной суммы на какой-либо счет. Также могут имитировать детский голос или сделать фейк, чтобы ребенок обратился к своим родителям за финансовой помощью и чтобы закинули другу деньги на карту.

Мошенников с использованием видео deepfake становится больше, их целью могут быть бизнесмены, которые попадаются на удочку правдоподобности, созданных либо партнеров, либо сотрудников компании.

Image

Обман с поддельными лицами

Также мошенники используют deepfake фотографии, для этого достаточно подставить лицо жертвы к другому телу, выдав это за реальное изображение. Таким образом создаются компрометирующие и порнографические deepfake. Выглядит все настолько реалистично, что мошенникам удается шантажировать жертву с требованием выкупить данные фотографии или тянуть из нее постоянно деньги с угрозой опубликовать данные фотографию.

Там же несложно создать мошенникам фотографию, где человек может находиться в том месте, в котором он и не бывал. Часто такие депфейки используют для шантажа известных личностей.

Аферы с дипфейками

В большей степени диплейки создаются для шантажа личности или для создания ему алиби - это что касательно фотографий. Видео,настолько реалистичны, что сразу и невозможно отличить реально это человек или нет. Мошенники умело пользуются способностями искусственного интеллекта создавать фальшивые видео аудио и фото файлы.

Мошенники могут создавать специальные рекламные ролики с призывом участвовать в инвестировании денег или розыгрыше призов, использовать при этом внешность известного актёра, который:

  • расскажет о выгодных предложениях;
  • прорекламирует компанию;
  • предложит вкладывать деньги для дальнейшей и быстрой прибыли.

Мошенники заманивают инвесторов, собирают с них деньги и исчезают.

Image

Как распознать deepfake

При тщательном рассмотрении видео, можно заметить, что оно может быть фейком:

  • изображение лица не соответствует речевому темпу;
  • неестественный вид лица;
  • слабо выраженная мимика;
  • нет четких границ между элементами кожных оттенков;
  • освещение может быть неравномерным.

Так как за один раз ИИ в состоянии генерировать видео всего лишь на несколько секунд, то чтобы создать полноценный видеоролик, необходимо собрать воедино несколько таких генераций и это создает сложности в создании единой образа персонажа.

Кибермошенничество с дипфейком

Кибермошенничество с deepfake приносят немалые доходы аферистам, даже создав видеоролик с участием знаменитости мошенники могут разместить его в социальных сетях и множество людей может поверить в ситуацию реализованную на видео.

Мошенники могут создавать неправдивые компрометирующие видео и фотоизображения, например, под заказ. Когда компания, мечтающая избавиться от конкурентов, может заказать создание видео с какой-либо компрометирующий информации, например, разместить его руководящий состав в непристойная ситуация

Фальшивые личности онлайн

Искусственный интеллект помогает создавать различные образы в сети. Так с помощью технологии deepfake легко создаются не существующие фальшивые личности, такую особу мошенники могут использовать, например, на сайтах знакомств общаясь по видеосвязи с будущей жертвой. Легко втираются в доверие под образом противоположного пола и могут выманивать деньги на проезд и встречу, что никогда не произойдет, потому что созданная личность с помощью нейросети, не существует. Это позволяет мошеннику скрывать свою личность и грабить жертв.

Защита от deepfake-разводов

При возникновении первых подозрений о том, что вы общаетесь с искусственно созданной личностью:

  • присмотритесь внимательно к изображению;
  • наблюдайте за движениями, если они чересчур плавные и неестественные — это может быть фейком;
  • присматривайтесь к несовпадениям;
  • реагируйте на лица;
  • обращайте внимание на пальцы рук;
  • есть ли ошибки в деталях;
  • не упускать из виду фон, который неестественно размыт или не взаимодействует с окружением;
  • может не совпадать звук и движение губ.