09.01.2023 19:24
    Поделиться

    Нейросети научились писать компьютерные вирусы

    Боты и нейросети, основанные на системах искусственного интеллекта, используются для написания вредоносного кода и фишинговых электронных писем. В этом участвует даже самый популярный чат-бот ChatGPT, говорится в исследовании Check Point Research. Эксперты отмечают, что возможности таких систем существенно повлияют на хакерский рынок и увеличат число вредоносных программ.

    Участники хакерских форумов используют ChatGPT для написания вредоносного кода и фишинговых электронных писем. Причем некоторые из этих людей имеют небольшой опыт в программировании или вообще его лишены. В одном из приведенных в исследовании Check Point Research примеров описывается скрипт на языке Python, который при некоторой доработке можно превратить в программу-вымогатель, способную шифровать данные на компьютере пользователя.

    Искусственный интеллект пишет вредоносные программы по образу и подобию уже существующих

    Еще один созданный ChatGPT скрипт на Python производит поиск файлов заданного типа, например PDF, на локальной машине, осуществляет их сжатие и отправку на сервер потенциального злоумышленника - это стандартный сценарий кражи информации. Использование ChatGPT для написания зловредов нельзя назвать распространенным в настоящий момент, отмечает Алексей Вишняков, руководитель отдела обнаружения вредоносного ПО экспертного центра безопасности Positive Technologies. По его словам, существуют экспериментальные наработки исследовательского плана, но они носят характер прототипов, которые вряд ли можно применять в "боевом" режиме.

    Текущие эксперименты с ChatGPT в разных прикладных отраслях демонстрируют ее функционирование в режиме executive summary. "Технологии ИИ обучаются на основе того, что где-то уже видели, а дальше, используя эти данные как конструктор, собирают что-то новое, избегая логических противоречий. Это новое имеет вид некоторой вариации на известную тему, но не представляет чего-то нового с точки зрения нового взгляда на вещи, как концепции. Поэтому на данный момент мы не ожидаем получение фундаментально нового вредоноса таким способом", - говорит Вишняков.

    Исследователи добавляют, что получившиеся результаты требуют некоторых доработок, чтобы получился окончательный рабочий вариант. Вишняков подчеркнул, что в конечном счете появление таких сервисов повлияет на общее число угроз - их станет больше. Однако пока рано говорить о том, что участвующий в их разработке искусственный интеллект будет положительно влиять на их качество.

    Поделиться