https://cyber-web.ru/
Киберпространство - наше будущее

GAN-лица: как их используют для мошенничества

Что это за технология GAN?

0 262

После анализа потенциального использования киберпреступниками таких технологий, как ChatGPT, мы продолжаем обзор различных технологий, основанных на искусственном интеллекте, а точнее на машинном обучении, чтобы узнать, что такое GAN-лица и какие возможности они открывают для злоумышленников. Но прежде чем мы перейдем к объяснению того, что такое GAN-лица, мы зададим следующий вопрос: какое из следующих лиц принадлежит реальному человеку?

GAN-лица: как их используют для мошенничества
Рис. 1 – Какое изображение является реальным? – Вариант А (слева) или вариант Б (справа)?

Запомните, какой вариант вы выбрали, так как в конце статьи мы расскажем вам, какой из них правильный.

Что такое GAN-лица?

Сначала мы должны понять, что технология GAN – это тип искусственного интеллекта, который позволяет нам создавать вымышленные лица. GAN, Generative Adversarial Networks, что можно перевести как генеративные состязательные или антагонистические сети, – это алгоритмы, основанные на глубоком обучении. С помощью этой технологии можно генерировать реалистичные лица и другие типы изображений, даже аудио или видео.

Как работает GAN?

Эта технология была создана в 2014 году Яном Гудфеллоу и его командой коллег. В самом общем виде можно сказать, что GAN работают на основе обучения изображений. То есть нужно ввести входные данные, например, реальные лица разных людей, а модель выдает в результате новые лица с новыми чертами реальной внешности.

Хотя GAN-лица очень полезны для таких отраслей, как видеоигры, для создания лиц персонажей или визуальных эффектов, которые затем используются в кино, к сожалению, они также могут быть использованы в злонамеренных целях. На самом деле, исследования, опубликованные еще в конце 2021 года, показали, что изображения, созданные искусственным интеллектом, становятся все более убедительными и что существует 50% вероятность принять поддельное лицо за настоящее.

Поэтому вот несколько примеров того, как GAN-лица могут быть использованы злоумышленниками:

Создание поддельных профилей

Если киберпреступники что-то и умеют делать, так это использовать новые технологии для создания все более убедительных афер. С помощью GAN киберпреступники могут создавать изображения или даже видео известных или неизвестных людей, чтобы обманом заставить жертву раскрыть конфиденциальную информацию, такую как имена пользователей и пароли, или даже номера кредитных карт. Например, они могут создавать лица вымышленных людей, которые затем используются для создания профилей предполагаемых представителей службы поддержки клиентов компании. Затем эти профили отправляют фишинговые электронные письма клиентам компании, чтобы обманом заставить их сообщить личную информацию.

При использовании других технологий, таких как ChatGPT, например, которые, как мы видели, могут быть использованы для составления очень убедительных фишинговых писем, небезосновательно полагать, что эффективность мошенничества может возрасти.

Для создания фальшивых новостей

Рост числа фальшивых новостей привел к тому, что стало трудно различать настоящую и фальшивую информацию. С развитием технологий машинного обучения эта задача, похоже, становится все более сложной. Как мы видели на примере ChatGPT и возможности создания фальшивых новостей, если сопроводить эти новости видео или изображениями, выдаваемыми за реальных людей, потенциал огромен. Мы уже видели случаи, когда фейки создавались политиками для распространения фальшивых новостей, например, случай с президентом Украины Владимиром Зеленским и фальшивым видео, загруженным на взломанные украинские сайты, в котором он призывал украинских солдат сложить оружие.

Кража личных данных

В связи с предыдущими пунктами, создание лиц, похожих на лица публичных людей, например, знаменитостей, может способствовать краже личности или мошенничеству с выдачей себя за других. Рассмотрим распознавание лиц как метод аутентификации и возможности, предоставляемые GAN-лицами, как инструмент для обхода этого метода аутентификации и получения доступа к учетной записи третьего лица. Стоит также отметить, что хотя многие методы распознавания лиц плохо работают, когда изображения имеют низкое разрешение, исследования показали, что технология GAN оказалась эффективной в повышении точности технологий распознавания лиц в таких сценариях. С другой стороны, важно также отметить, что компании осознают риски и разрабатывают функции для обнаружения таких поддельных изображений. Например, LinkedIn объявила в 2022 году о создании новых функциональных возможностей, использующих искусственный интеллект (ИИ) для идентификации профилей с помощью синтетических изображений, созданных с помощью ИИ.

Мошенничество в приложениях для знакомств и социальных сетей

Вы наверняка уже слышали о рисках безопасности и мошенничестве, которые циркулируют вокруг сайтов и приложений для онлайн-знакомств, но с развитием технологий на основе нейронных сетей, таких как GANs, нам больше не нужно беспокоиться только о настройках конфиденциальности этих приложений и сервисов для защиты наших данных. С помощью GANs киберпреступники могут создавать поддельные лица, которые используются для создания поддельных профилей в приложениях для знакомств и/или профилей в социальных сетях в рамках своей стратегии обмана и последующего вымогательства денег у жертв. Такие компании, как Meta, выявили рост числа поддельных профилей, использующих искусственные изображения, созданные компьютером.

Советы

Вот несколько советов, которые помогут избежать мошенничества при создании изображений и видео GAN:

  • Проверяйте источник: Убедитесь в надежности источника изображения и проверьте его достоверность.
  • “Не все, что блестит, – золото”: опасайтесь изображений, которые выглядят слишком идеальными. Большинство изображений, созданных с помощью этого типа технологий, выглядят идеальными и безупречными, поэтому важно относиться к ним настороженно. Если изображение или видео выглядит подозрительно, поищите дополнительную информацию о нем в других надежных источниках.
  • Проверяйте изображения и/или видео: Существуют некоторые инструменты, такие как Google Reverse Image Search, которые могут помочь проверить подлинность изображений и видео.
  • Обновляйте свои системы безопасности: постоянно обновляйте свои системы безопасности, чтобы защититься от мошенничества и вредоносных программ.
  • Установите надежное антивирусное программное обеспечение: оно не только поможет вам обнаружить вредоносный код, но и поможет выявить поддельные или подозрительные сайты.
  • Не делитесь конфиденциальной информацией: не сообщайте личную или финансовую информацию никому, кого вы не знаете.

Хотя сегодня мы говорим о GAN, в области искусственного интеллекта происходят большие достижения, поэтому мы помним, что как пользователи мы должны стараться быть в курсе последних методов, используемых киберпреступниками, чтобы научиться защищать себя от различных онлайн-угроз.

Наконец, помните ли вы, какое изображение вы выбрали в начале? Поддельное изображение – это A: Что вы думаете об этой задаче? Поделитесь с нами в комментариях, смогли ли вы определить, какое изображение было настоящим.

Интересное на эту тему:
Использование знаний в области кибербезопасности, полученных в 2021 году, в 2022 году
Телефонный обман: уловки мошенников

Оставьте комментарий

Ваш электронный адрес не будет опубликован.


This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More