Он уже направил письмо в Федеральную торговую комиссию США и в совет директоров корпорации, в котором указал на широкие возможности злоупотреблений с использованием нейросети. В частности, система генерирует изображения насилия над женщинами или употребления алкоголя несовершеннолетними. Делает это она на основе даже безобидных запросов пользователей. Кроме того, программа может нарушать авторские права - она использует различных персонажей в любых контекстах, в том числе с политическими лозунгами, передает CNBC.
"Если этот продукт начнет распространять вредные, тревожные изображения по всему миру, то некуда будет об этом сообщить, нет номера телефона, по которому можно позвонить", - заявил Джонс.
Он рассказал начальству об опасности Copilot Designer и предложил изменить рейтинг приложения для подростков и взрослых. Руководство признало проблему, однако приостанавливать публичное использование ИИ не стало, несмотря на то что команда Copilot ежедневно получает более 1000 жалоб на продукт. Вероятно, дело в том, что для их решения могут потребоваться значительные инвестиции в переобучение модели и новые средства защиты.
"Это общая проблема генеративных нейросетей. Вопрос приемлемости или неприемлемости для генеративного ИИ очень сложный, поскольку полноценным интеллектом эти модели не обладают даже близко. Они имитируют художественные способности в довольно узком диапазоне. И никакими соображениями о том, что такое приемлемость, не оперируют вовсе. Потому те или иные эксцессы будут возникать в обязательном порядке", - заявил технический директор Smart Engines и доктор технических наук Дмитрий Николаев.
Что касается нарушений авторских прав, то это возникает тогда, когда авторизованный контент попадает в обучающую выборку. Соответственно, повышается вероятность того, что он будет использован в ответах нейросети. Помочь в этом может, например, юридически корректный выкуп контента или оперирование контентом, свободным от прав владения, однако такие действия от краж остановят только реальных художников. В случае же с ИИ это не работает, объяснил эксперт.
"У ИИ нет ни обязательств, ни репутации. У компании-разработчика репутация, конечно, есть, но нарушения совершают низкоквалифицированные работники, и на момент возникновения нарушения еще не ясно, к каким последствиям это приведет. И только когда пошел контент с нарушениями, вдруг выясняется, что три месяца назад некий человек залил в модель чьи-то произведения", - сказал он.
По его словам, пока решить эту проблему довольно сложно, поскольку сейчас нет законодательной базы, которая бы регулировала применение нейросетей.