"Поскольку возможности больших языковых моделей, таких как ChatGPT, активно улучшаются, потенциальная эксплуатация преступниками этих типов систем искусственного интеллекта дает мрачные перспективы", - отмечают в полицейской службе.
Опубликованный доклад указывает на три основные сферы преступлений, в которых может быть использован искусственный интеллект: мошенничество, дезинформация и киберпреступления.
При совершении мошенничеств преступники, по мнению экспертов Европола, могут использовать способность ChatGPT создавать реалистичные и убедительные тексты, а также имитировать речь и стилистику конкретных людей. Кроме того, при помощи ИИ злоумышленники смогут быстрее и эффективнее собирать информацию о потенциальных жертвах.
В ведомстве также не исключают, что преступники, особенно те из них, кто не обладает достаточными техническими знаниями, с помощью ИИ получат возможность создавать вредоносный программный код.
"Средства защиты, которые не позволяют ChatGPT использовать потенциально вредоносный код, работают только в том случае, если модель понимает, что она делает", - говорится в докладе.