По его мнению, развитие этих технологий похоже на воспитание ребенка-гения, а потому особенно важно создавать "максимально любопытный и ищущий истины ИИ".
"Сейчас гораздо бОльшую опасность представляет человек, а не ИИ, потому что ИИ, который создается сейчас и будет создаваться в ближайшее время, делает исключительно то, что ему прикажет человек", - уверен доктор технических наук и гендиректор Smart Engines Владимир Арлазаров.
Он полагает, что риски техногенных аварий, связанных с использованием этих систем, есть, но все зависит от того, насколько качественно люди регулируют эту область.
Риски ущерба от возможного выхода из строя ИИ определяются уровнем его проникновения в системы управления, хозяйственную и повседневную жизнь общества, степенью доверия к решениям, принимаемых технологиями, и законодательным регулированием их использования. По словам коммерческого директора SL Soft Георгия Подбуцкого, они пока не так высоки.
"В обществе нередко опасаются, что ИИ может выйти из-под контроля человека и действовать в своих интересах. Например, начать манипулировать людьми, изучив их предпочтения. Но этой перспективы не стоит опасаться: если разработка решений, которые анализируют поведение граждан, будет качественной, их злоупотребление полученной информацией всегда можно будет пресечь", - сказал основатель и продюсер "РОББО" Павел Фролов.
По мнению менеджера продуктов Innostage Евгения Суркова, основная угроза связана с тем, что люди, принимающие решения в критичных сферах, будут ориентироваться на данные ИИ.
Подбуцкий считает, что риски применения этих технологий очевидны, например, в бизнес-задачах. В первую очередь речь идет о предвзятости: нейросети учатся на данных из Сети, которые не всегда достоверны. Также существуют "галлюцинации" ИИ, когда он выдумывает ответы, угроза конфиденциальности пользователей, этические риски и вопросы интеллектуальной собственности. В этой связи развитие ИИ требует технологического совершенствования и широкого комплекса организационных и законодательных мер.
Необходимо после обучения изымать ИИ из свободного неавторизованного доступа, при этом контролируя факты обращений пользователя к таким продуктам и вводя аппаратные и программные ограничения, добавил Сурков.
"Следует активнее обучать языковые модели противодействию вредоносным запросам и постоянно проверять нейросеть на наличие джейлбрейков - уязвимостей в запросах, которые позволяют обходить этические правила языковой модели", - отметила руководитель отдела по информационной безопасности компании RooX Ольга Карпова.
Как говорит Арлазаров, вероятности того, что "завтра ИИ постучится в вашу дверь", пока нет, поскольку даже на обычный запрос системе необходимо огромное количество энергии. "Скорее человечество уничтожит само себя, нежели пострадает от ИИ", - заключил он.