В последние годы сфера онлайн-мошенничества в Казахстане заметно усложнилась и расширилась за счет новых технологий, включая использование дипфейков. Дипфейки (deepfakes) — это технология, позволяющая создавать фальшивые видео, аудио или изображения, в которых лица или голоса реальных людей могут быть заменены на те, кого угодно, с использованием искусственного интеллекта.
Дипфейки начали активно использоваться для различных целей, включая политическую пропаганду, создание фейковых новостей и, конечно же, для мошенничества. В Казахстане, как и в других странах, случаи использования дипфейков для совершения преступлений стали вызывать серьезные опасения и требуют принятия соответствующих мер.
В 2023 году в Казахстане, согласно данным Министерства внутренних дел, было зафиксировано приблизительно 21,6 тыс. случаев интернет-мошенничества.
Среди наиболее распространенных схем, используемых мошенниками, можно выделить:
• фишинг;
• обман при покупках через интернет;
• мошенничество с использованием банковских карт;
• финансовые пирамиды;
• дипфейки;
• мошенничество через обзвон граждан.
Понятие «дипфейк» представляет собой результат работы специфических алгоритмов, направленных на синтез изображений лиц или голосов человека. Основные методы, применяемые для этой цели, базируются на использовании генеративно-состязательных сетей. С помощью этой инновационной технологии возможно создание копий человеческих лиц, их выражений и голосов. Дипфейки находят применение на телевидении и в социальных сетях, где искусственные цифровые копии могут имитировать телеведущих и блогеров.
По словам директора Национального координационного центра информационной безопасности (НКЦИБ) АО “Государственная техническая служба” Айдоса Сулейменова Дипфейки производятся с использованием передовой технологии глубокого обучения, известной как генеративно-состязательные сети (GAN). Этот метод искусственного интеллекта позволяет наложить существующие изображения, аудио и видео на исходные медиафайлы. GAN создает искусственные изображения, которые практически неотличимы от оригинальных. В процессе работы GAN задействованы две нейронные сети: «генератор», который использует данные для создания имитаций, и «дискриминатор», который оценивает качество созданных образцов. Усовершенствование методики GAN значительно повысило реализм дипфейков, что делает их почти неразличимыми для обычных пользователей.
Использование генеративно-состязательных сетей для мошенничества представляет собой значительную угрозу в информационной сфере. Мировые специалисты по IT-технологиям выражают опасения о том, что в ближайшем будущем дипфейки могут достичь нового уровня, что может негативно сказаться на общественно-политической жизни страны.
В течение 2023 года ущерб от онлайн-мошшеничства составил 17,5 миллиарда тенге. За последние пять лет количество киберпреступлений увеличилось почти в три раза.
По мнению Айдоса Сулейменова, digital-мошенничество, включая использование дипфейков, представляет собой относительно новое явление среди преступников. Несмотря на то, что технология дипфейков была известна еще с 2014 года, широкую популярность среди мошенников она получила сравнительно недавно.
– Также важно внедрение строгих политик безопасности, особенно в финансовой сфере. Использование двухфакторной аутентификации, проверка личности по телефону и введение процедур подтверждения перед осуществлением финансовых операций могут значительно снизить вероятность подверженности влиянию дипфейков, – подчеркнул Айдос Сулейменов.
Важные правила безопасности и рекомендации по противодействию дипфейкам:
• При звонке с неизвестного номера задавайте разнообразные вопросы и обращайте внимание на мимику, глаза и брови собеседника. Дипфейки обычно не могут передать естественную физику освещения.
• Если получили звонок от номера близкого человека, но собеседник плохо слышен и просит перевести ему деньги из-за бедствия, завершите разговор и перезвоните на другой номер для проверки.
• Для подтверждения личности собеседника, спрашивайте его о деталях, известных только вам и ему.
• Подлинные изображения и видео чаще всего имеют высокое разрешение и четкие детали. Низкое разрешение или размытые края могут быть признаками дипфейка. Обратите внимание на свет и тени на лице или объектах.
• В аудиозаписях обратите внимание на качество звука. Искажения, эхо или необычные фоновые шумы могут указывать на манипуляцию.
• Аномальные визуальные эффекты, такие как неестественные движения лиц или объектов, могут свидетельствовать о дипфейке. Обратите внимание на несоответствия в движении или неестественные переходы.
• Проверяйте достоверность источника контента. Используйте дополнительные источники информации для подтверждения подлинности.
• Ознакомьтесь с методами создания дипфейков и их признаками обнаружения. Образовательные ресурсы и инструменты могут помочь вам разобраться в этой теме.
• Оценивайте социальный контекст и связь контента с другими событиями перед его распространением.
• Не распространяйте контент без проверки на подлинность. Это может привести к негативным последствиям.
• Используйте программы и онлайн-инструменты для обнаружения дипфейков. Алгоритмы машинного обучения помогут автоматически распознать поддельный контент.
• В случае серьезных подозрений обратитесь к специалистам в области цифровой форензики или аналитикам изображений и видео для проведения экспертизы.
• Проверяйте подлинность аккаунтов и страниц в социальных сетях, через которые распространяется контент.
• Развивайте навыки анализа и критического мышления при просмотре контента. Учитесь обращать внимание на признаки поддельного контента и проверяйте его на достоверность.
• В случае обнаружения дипфейка или подозрений на поддельный контент обратитесь в KZ-CERT для консультации и помощи.
Сергей Каржов