ChatGPT позволяет сценаристам писать работающее вредоносное ПО
ChatGPT позволяет сценаристам писать работающее вредоносное ПО
Увеличить
Гетти Изображений
С момента запуска бета-версии в ноябре чат-бот ChatGPT AI использовался для решения широкого круга задач, включая написание стихов, технических статей, романов и эссе, планирование вечеринок и изучение новых предметов. Теперь мы можем добавить к списку разработку вредоносных программ и преследование других видов киберпреступлений.
Исследователи из компании Check Point Research, занимающейся безопасностью, сообщили в пятницу, что в течение нескольких недель после запуска ChatGPT участники форумов по киберпреступности (некоторые из которых практически не имеют опыта программирования) использовали его для написания программного обеспечения и электронных писем, которые можно было использовать для шпионажа и программ-вымогателей. , вредоносный спам и другие вредоносные задачи.
«Пока еще слишком рано решать, станет ли функциональность ChatGPT новым любимым инструментом для участников Dark Web», — пишут исследователи компании. «Однако сообщество киберпреступников уже проявило значительный интерес и использует эту последнюю тенденцию для создания вредоносного кода».
В прошлом месяце участник форума опубликовал то, что, по его словам, было первым сценарием, который он написал, и выразил признательность чат-боту с искусственным интеллектом за то, что он «протянул руку помощи в завершении сценария с хорошим мусором».
Увеличить / Скриншот, на котором участник форума обсуждает код, сгенерированный с помощью ChatGPT.
Поиск контрольно-пропускных пунктов
Код Python сочетал в себе различные криптографические функции, включая подпись кода, шифрование и дешифрование. Часть скрипта генерирует ключ, используя криптографию на эллиптических кривых и кривую ed25519 для подписи файлов. Другая сторона использовала жестко закодированный пароль для шифрования системных файлов с использованием алгоритмов Blowfish и Twofish. Третий использовал ключи RSA и цифровые подписи, подписывание сообщений и хеш-функцию blake2 для сравнения различных файлов.
Результатом стал сценарий, который можно было использовать для (1) расшифровки одного файла и добавления кода аутентификации сообщения (MAC) в конец файла и (2) шифрования жестко заданного пути и расшифровки списка файлов, которые он получает в качестве аргумента. Неплохо для человека с ограниченными техническими навыками.
"Конечно, весь код, упомянутый выше, можно использовать без вреда для здоровья", — пишут исследователи. «Однако этот сценарий можно легко изменить, чтобы полностью зашифровать чью-то машину без какого-либо взаимодействия с пользователем. Например, он потенциально может превратить код в программу-вымогатель, если проблемы со сценарием и синтаксисом будут решены».
В другом случае участник форума с более техническими знаниями опубликовал два примера кода, написанных с использованием ChatGPT. Первым был скрипт Python для кражи информации после эксплойта. Он искал определенные типы файлов, например PDF-файлы, копировал их во временный каталог, сжимал и отправлял на сервер, контролируемый злоумышленником.
С момента запуска бета-версии в ноябре чат-бот ChatGPT AI использовался для решения широкого круга задач, включая написание стихов, технических статей, романов и эссе, планирование вечеринок и изучение новых предметов. Теперь мы можем добавить к списку разработку вредоносных программ и преследование других видов киберпреступлений.
Исследователи из компании Check Point Research, занимающейся безопасностью, сообщили в пятницу, что в течение нескольких недель после запуска ChatGPT участники форумов по киберпреступности (некоторые из которых практически не имеют опыта программирования) использовали его для написания программного обеспечения и электронных писем, которые можно было использовать для шпионажа и программ-вымогателей. , вредоносный спам и другие вредоносные задачи.
«Пока еще слишком рано решать, станет ли функциональность ChatGPT новым любимым инструментом для участников Dark Web», — пишут исследователи компании. «Однако сообщество киберпреступников уже проявило значительный интерес и использует эту последнюю тенденцию для создания вредоносного кода».
В прошлом месяце участник форума опубликовал то, что, по его словам, было первым сценарием, который он написал, и выразил признательность чат-боту с искусственным интеллектом за то, что он «протянул руку помощи в завершении сценария с хорошим мусором».
Увеличить / Скриншот, на котором участник форума обсуждает код, сгенерированный с помощью ChatGPT.
Поиск контрольно-пропускных пунктов
Код Python сочетал в себе различные криптографические функции, включая подпись кода, шифрование и дешифрование. Часть скрипта генерирует ключ, используя криптографию на эллиптических кривых и кривую ed25519 для подписи файлов. Другая сторона использовала жестко закодированный пароль для шифрования системных файлов с использованием алгоритмов Blowfish и Twofish. Третий использовал ключи RSA и цифровые подписи, подписывание сообщений и хеш-функцию blake2 для сравнения различных файлов.
Результатом стал сценарий, который можно было использовать для (1) расшифровки одного файла и добавления кода аутентификации сообщения (MAC) в конец файла и (2) шифрования жестко заданного пути и расшифровки списка файлов, которые он получает в качестве аргумента. Неплохо для человека с ограниченными техническими навыками.
"Конечно, весь код, упомянутый выше, можно использовать без вреда для здоровья", — пишут исследователи. «Однако этот сценарий можно легко изменить, чтобы полностью зашифровать чью-то машину без какого-либо взаимодействия с пользователем. Например, он потенциально может превратить код в программу-вымогатель, если проблемы со сценарием и синтаксисом будут решены».
В другом случае участник форума с более техническими знаниями опубликовал два примера кода, написанных с использованием ChatGPT. Первым был скрипт Python для кражи информации после эксплойта. Он искал определенные типы файлов, например PDF-файлы, копировал их во временный каталог, сжимал и отправлял на сервер, контролируемый злоумышленником.