По мере развития технологий искусственного интеллекта нейросети могут брать на себя решение всё большего количества задач

Во многих странах, включая Россию, возможности ИИ поставлены на службу правоохранителям, помогая искать подозреваемых в преступлениях, анализировать улики и обеспечивать безопасность на дорогах. Однако мошенники также получают доступ к современным ИТ-решениям и используют их в своих целях. Недавно сотрудник финансового отдела одной из крупных гонконгских компаний перевёл аферистам более $25 млн с корпоративного счёта. Он был уверен, что участвует в видеоконференции с руководством фирмы и выполняет его указания. Однако впоследствии выяснилось, что голоса и лица топ-менеджеров на экране были подделаны. О том, что такое дипфейки и возможно ли их распознать, изданию «Пятый угол» рассказали ИТ-эксперты.

«Дипфейки («глубокие подделки») появились несколько лет назад. Широкое распространение алгоритм получил в прошлом году. Если говорить простыми словами, дипфейк — это видеоролик в записи или реальном времени, в котором с помощью компьютерных технологий лицо или голос одного человека заменяется на лицо и голос другого. В Сети можно встретить много юмористических роликов: например, где от имени знаменитости поздравляют человека с днем рождения», — рассказывает ИТ-эксперт Кирилл Дементьев.

По его словам, технически создать дипфейк несложно — достаточно обладать чуть более, чем базовыми знаниями редакторов и программирования.

«С появлением нейросетей инструмент стал еще более простым, а потому распространенным в обращении. Работает это очень просто: ИИ собирает сотни или даже тысячи фотографий одного человека в Сети, наслаивает их друг на друга и создает так называемую голограмму. Чем более публичный человек, тем больше фотографий, а значит и выше качество такого ролика. Однако для создания изображения низкого качества достаточно и 5-10 снимков», — отметил собеседник издания.

По словам Кирилла Дементьева, отличить фейковый ролик от подделки порой можно невооруженным взглядом. Его выдает странная мимика, несвойственные человеку на видео подергивания тела, слишком гладкая кожа или странно расположенные блики в глазах.

«Однако качественно сгенерированные дипфейки просто так не распознать. Резонанс получила история с копией актера Тома Круза, отличить не смогли даже друзья. Но здесь на помощь вновь приходит нейросеть — можно загрузить в нее ролик и с помощью специальных инструментов распознать фейк. В будущем, я думаю, такие изображения будут еще более качественными, дипфейки могут стать своеобразными «аватарами» реальных людей. Поэтому нам всерьез стоит задуматься о защите себя от мошенников в этом направлении», — подытожил ИТ-эксперт.

О способах обмана людей с помощью дипфейков рассказал юрист Роман Крюков.

По словам правозащитника, чаще всего жертвами такого мошенничества становятся люди молодого и среднего возраста, активно использующие социальные сети.

«Далее это так называемый «сетевой буллинг», когда создаются видео порочащего характера и с человека требуют деньги за нераспространение данных. В последнее время распространена и схема со лженачальниками и лжеполицейскими. Нередко с помощью дипфейков проводят собеседования, где требуют внести плату за трудоустройство на работу. Отличить фейк непросто, но важно сохранять бдительность и при возникновении любых сомнений проверять информацию», — подытожил юрист.

Ранее ГУРБ Московской области предупредили о том, что аферисты рассылают гражданам сообщения в мессенджерах и представляются руководителями предприятия или организации, в которой те работают.