ИИ-cкам: в сети X засекли ботнеты, нацеленные на обман криптанов

Фото - ИИ-cкам: в сети X засекли ботнеты, нацеленные на обман криптанов
Появление ChatGPT стало одной из технологий, предлагающих решения в самых разных областях — от веб-поиска и создания текстового контента до организации эффективного офиса и образования. Но, казалось бы, безобидный «болтливый» чат-бот с AI стал одним из инструментов мошенников в соцсетях для продвижения криптоскама.
Исследователи из Университета Индианы в Блумингтоне впервые засекли ботнет на базе ChatGPT, работающий в сети X, еще в мае этого года. На то, чтобы до конца понять все его составляющие, потребовалось все лето. Ботнет, получивший название Fox8, состоял из внушительного количества фейковых учетных записей (более 1,1 тыс.) и использовал ChatGPT для генерации контента. Аккаунты, управляемые ИИ, создавали посты в социальных сетях и общались друг с другом для создания правдоподобности. Целью было ввести в заблуждение доверчивых пользователей, заставив их думать, что они читают общение криптанов, и переходить по ссылкам на мошеннические криптосайты.

«Единственная причина, по которой мы заметили этот конкретный ботнет, заключалась в его небрежной работе», — говорит Филиппо Менцер (Filippo Menczer), профессор Университета Индианы в Блумингтоне.

Исследователи вручную просмотрели аккаунты и выделили те, которые показывали поведение, типичное для ботов. В результате они обнаружили Fox8 благодаря специфическому идентификатору, который часто применяется ChatGPT (например, фразы вроде «будучи языковой моделью ИИ...»). Этот характерный идентификатор обычно появляется в ответах на вопросы, которые ИИ считает деликатными.

Тем не менее тактика, примененная мошенниками, демонстрирует поразительную эффективность. Посты от ИИ очень успешно и часто привлекали внимание криптанов среди пользователей X. Это, по мнению исследователей, показывает, насколько легко и просто можно использовать, казалось бы, сложную технологию ИИ для вредоносных действий в сфере криптовалют.

Если такой относительно простой ботнет смог успешно обманывать пользователей, это ставит серьезный вопрос о вредоносном потенциале более продвинутых чат-ботов, управляющих другими, еще не обнаруженными ботнетами. 

Филиппо Менцер подчеркивает, что по-настоящему искусные злонамеренные деятели уже не допустят тех же элементарных ошибок и создадут более сложные и тонкие модели, управляемые ИИ.

Мика Массер, исследователь, изучавший потенциал дезинформации с помощью искусственного интеллекта, говорит, что ботнет Fox8 может быть лишь верхушкой айсберга.
Очень, очень вероятно, что на каждую найденную вами кампанию приходится множество других, делающих более сложные действия
, — отметил он.
Этот инцидент служит напоминанием о том, что ответственная разработка и использование ИИ являются обязательными. И принимать меры для предотвращения неправильного использования инструментов на базе искусственного интеллекта все же необходимо. По мере развития технологий важно найти баланс между инновациями и этическими соображениями, гарантируя, что потенциал ИИ будет использован во благо общества и не причинит вреда.

Уильям Ван, действующий профессор в Калифорнийском университете Санта-Барбары, акцентирует на возрастающей проблеме преступного использования ChatGPT. Он считает, что сейчас большая часть спам-контента на веб-страницах генерируется автоматически с помощью искусственного интеллекта. Из-за быстрого совершенствования ИИ людям становится сложнее отличать подобный контент от настоящего. По мнению Вана, ситуация достаточно тревожная, и это еще мягко выражаясь.

Напомним, что в GN ранее писали о дипфейках, созданных с помощью ИИ, которые ставят под удар не только частную жизнь обычных граждан, но и национальную безопасность стран.