https://cyber-web.ru/
Киберпространство - наше будущее

ChatGPT: риск или возможность для кибербезопасности?

Как используют ChatGPT

0 297

Запуск и широкое использование ChatGPT, генеративного искусственного интеллекта, основанной на технологии LLM (“Большая языковая модель”), вызывает большое любопытство и дебаты о целесообразности его использования и рисках, которые он может повлечь за собой.

Это форма машинного обучения, основанная на языковых моделях и способная генерировать и связывать идеи, а также создавать уникальные ответы, аналогичные тем, которые пишут люди, на основе анализа множества источников информации. Аналогичным образом, Microsoft представила свое предложение Bing с поддержкой ИИ, обладающее еще большими возможностями, чем ChatGPT, а Google также вывел на рынок свое решение Bard. Наряду с этим появляется множество предложений, которые революционизируют способы взаимодействия с компьютерами.

Эти инструменты предлагают большие возможности для бизнеса и граждан и, несомненно, изменят методы работы пользователей и предприятий, но представляют ли они риск для кибербезопасности или их можно рассматривать как помощь в создании более безопасной среды?

Существуют некоторые риски безопасности, возникающие при использовании ChatGPT, которые сохраняются и в его более продвинутой модели, GPT-4.

Вредоносное использование искусственного интеллекта в ChatGPT

Основной проблемой, о которой следует знать, является возможность утечки информации и кражи данных. Организации уже предупреждают своих сотрудников о риске предоставления информации о собственной компании в ChatGPT (и подобных приложениях), которая впоследствии может быть раскрыта в ответах, которые он научится давать пользователям. Многие сомневаются в безопасности самой платформы после недавней утечки данных, поскольку хранящаяся в ней информация не зашифрована.

Существует также риск, что преступники могут использовать эти инструменты для написания убедительных многоязычных фишинговых писем, отправляемых с целью обмана и получения конфиденциальной информации от пользователей. Генерируемый ИИ текст написан в высоком качестве, что снимает подозрения, которые может вызвать обычный фишинг.

Запуск ChatGPT, генеративного искусственного интеллекта, вызывает большое любопытство и споры о целесообразности его использования и рисках, которые он может представлять.

Аналогичным образом, возможны и другие атаки социальной инженерии благодаря способности этих инструментов генерировать изображения, видео и даже имитировать голос. Можно создавать поддельные профили в социальных сетях, которые выглядят очень реалистично. Легко представить, как эти поддельные личности могут быть использованы для обмана людей, мошенничества и афер.

Разработка вредоносного кода – это еще один способ для киберпреступников, даже не имеющих сильных навыков программирования, чтобы генерировать вирусы, трояны, вредоносные программы, программы-выкупы и шпионские программы. Уже есть свидетельства того, что злоумышленники используют ChatGPT для создания вредоносных сценариев.

И, хотя есть и другие варианты использования, заслуживает внимания возможность создания фальшивых новостей или сообщений, призванных повлиять на общественное мнение или, например, на избирательные процессы. Дезинформация, безусловно, является проблемой, которая может повлиять на национальную безопасность, нанести ущерб социальной сплоченности и демократическим принципам. Однако фальшивые новости также могут влиять на компании (“доксинг”), распространяя мистификации, необъективную информацию или манипулируя документами, чтобы подорвать доверие к организациям. Их цель может варьироваться от репутационных атак до влияния на рынки.

Однако технология, являясь основным фактором изменений в нашем обществе, не предназначена для использования в злонамеренных целях. Поэтому мы также хотим проанализировать те возможности, которые новые инструменты ИИ могут создать в области безопасности, среди которых выделяются следующие: автоматизация рутинных задач в функциях безопасности, поддержка в обнаружении фишинга, тестирование кода, выявление закономерностей в большом объеме обрабатываемых данных, структурирование рекомендаций по вопросам безопасности и т. д.

Кроме того, генеративный ИИ может стать первой точкой обучения по темам, связанным с безопасностью, технологиями или рисками. Они будут особенно интересны, поскольку предоставляют множество ресурсов, которые будут становиться все лучше и лучше.

Несомненно, Chat GPT может быть очень полезным инструментом, облегчающим наши повседневные задачи, но он также может быть потенциально опасным, если его использовать в неэтичных целях. Мы должны следить за развитием этого инструмента, а также всех инструментов на основе ИИ, которые появятся в ближайшем будущем, чтобы успешно решить проблему, которую они представляют, как для безопасности, так и для повышения эффективности.

Интересное на эту тему: Аферы и мошенничество вокруг ChatGPT

Оставьте комментарий

Ваш электронный адрес не будет опубликован.


This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More