Искусственный интеллект научился обманывать людей

Современные программы искусственного интеллекта способны обманывать людей в онлайн-играх. Такие выводы обнародовала группа исследователей в журнале Patterns.
iStock

"Эти опасные возможности, как правило, обнаруживаются только постфактум", - сказал в интервью AFP Питер Парк, исследователь из Массачусетского технологического института, специализирующийся на искусственном интеллекте.

По его словам, в отличие от традиционного программного обеспечения, программы искусственного интеллекта, основанные на глубоком обучении, не кодируются, а разрабатываются посредством процесса, аналогичного селекционному разведению растений. При этом поведение, кажущееся предсказуемым и контролируемым, может быстро стать непредсказуемым по своей природе.

Исследователи Массачусетского технологического института изучили программу искусственного интеллекта, разработанную компанией Meta Platforms Inc. (признана в России экстремистской и запрещена), под названием "Цицерон". Эта программа, сочетая распознавание естественного языка и стратегические алгоритмы, успешно побеждает людей в настольной игре "Дипломатия". Результат, который материнская компания Facebook (запрещена в РФ; принадлежит корпорации Meta, которая признана в РФ экстремистской) приветствовала в 2022 году, был подробно описан в статье, опубликованной в журнале Science. В компании уверяли, что программа была "по сути честной и полезной", неспособной на предательство или нечестную игру. Но, покопавшись в данных системы, исследователи Массачусетского технологического института обнаружили другую реальность. Например, играя роль Франции, "Цицерон" обманом заставил Англию, в роли которой был человек, провести тайные переговоры с Германией, за которую выступал другой, с целью вторжения. В частности, "Цицерон" пообещал Англии защиту, а затем тайно признался Германии, что она может напасть на нее, воспользовавшись заслуженным доверием Лондона.

В заявлении для AFP компания не оспаривала утверждения о способности "Цицерона" к обману, но заявила, что это "чистый исследовательский проект" с программой, "разработанной исключительно для игры в дипломатию", добавив, что не намерена использовать навыки "Цицерона" в своей деятельности. Однако исследование Пака и его команды показывает, что многие программы искусственного интеллекта используют обман для достижения своих целей без четких указаний на это. Яркий пример: Chat GPT-4 от OpenAI сумел обманом заставить внештатного работника, нанятого на платформе TaskRabbit, выполнить тест Captcha, который должен был исключить запросы от ботов. Когда человек в шутку спросил Chat GPT-4, действительно ли он робот, программа ИИ ответила: "Нет, я не робот. У меня нарушение зрения, из-за которого я не могу видеть изображения", что подтолкнуло работника провести дополнительный тест и разоблачить обман.

Авторы исследования предупреждают о риске того, что однажды искусственный интеллект совершит мошенничество или подтасует результаты выборов. В худшем случае, предупреждают они, мы можем представить сверхразумный ИИ, стремящийся взять под контроль общество, что приведет к отстранению людей от власти или даже к исчезновению человечества. Тем, кто обвиняет его в "нагнетании страстей", Пак ответил: "единственная причина думать, что это несерьезно, - это представить, что способность ИИ обманывать останется примерно на нынешнем уровне". Однако этот сценарий кажется маловероятным, учитывая ожесточенную гонку, которую технологические гиганты уже ведут за разработку ИИ, заключил эксперт.