Глава семейства объяснил, что ориентировался на картинки и рекомендации из пособия, которые, как оказалось, содержали опасные ошибки, а сами изображения были сгенерированы нейросетью. Как сообщает The Guardian, широкое распространение таких книг представляет угрозу здоровью и жизни начинающих грибников. К примеру, там можно встретить совет определять ядовитые грибы по запаху и вкусу.
Онлайн-магазин уже снял со своих полок книги, которые вызвали беспокойство среди пользователей, но проблема низкокачественной литературы от чат-ботов все еще остается.
Случившееся наглядно показывает, почему в Евросоюзе был принят закон, который обязывает маркировать тексты, изображения и другие материалы, созданные искусственным интеллектом (ИИ), отметил гендиректор Smart Engines, доктор технических наук Владимир Арлазаров. Вопрос, кто должен нести ответственность за подобные инциденты, пока не имеет универсального ответа. В данном же случае, считает эксперт, виноватым, вероятно, окажется тот, чье имя указано в качестве автора книги, или издательство, выпустившее ее, поскольку, как отметил руководитель департамента расследований T.Hunter, эксперт рынка НТИ SafeNet Игорь Бедеров, ИИ неподсуден по определению, так как является программным продуктом.
При этом OpenAI как компания-разработчик чат-бота может понести лишь репутационные издержки.
"Интернет-компании, такие как OpenAI и Google, не отвечают за информацию, размещаемую на их платформах третьими лицами, это прямо предусмотрено законом о благопристойности в сфере коммуникаций США от 1996 года", - объяснил старший юрист MTS AI Кирилл Дьяков.
Заместитель директора Центра компетенций НТИ "Технологии доверенного взаимодействия" на базе ТУСУР Руслан Пермяков добавил, что в современных научных журналах есть практика писать предупреждение вроде "Данная работа написана при помощи систем ИИ, автором весь материал прочитан, проверен и доработан".
Чтобы не навредить себе, общаясь с чат-ботом, нужно всегда проверять его ответы в авторитетных источниках. Ведь ИИ, хотя и прекрасно справляется с поиском и агрегацией информации, но все же страдает "синдромом студента на экзамене", который не признается, если чего-то не знает, а начинает сочинять. "Навык фактчекинга в эпоху GPT ключевой", - сказал Пермяков.
Нужно понимать и принцип работы нейросети: она представляет собой результат общения ИИ с огромным числом пользователей, а потому обладает огромным объемом разрозненной и непроверенной информации, дополнил Бедеров. "Мы попадаем в шкалы оценки своего поведения: доверчив ли, осторожен ли. В течение жизни мы все сталкиваемся с различной информацией, которую учимся воспринимать и трактовать. Мы с детства научились отделять шутку от не шутки, сарказм от правды. На данный момент нам предстоит научиться либо самим отделять достоверный текст от недостоверного, основываясь на своем жизненном опыте, либо мы придем к разметке контента, созданного с помощью ИИ и без него", - уверен эксперт рынка Национальной технологической инициативы "Нейронет" Владимир Козлов.
Собеседник полагает, что разметка, закрепленная на законодательном уровне, защитит пользователей от неавторизованной информации. Однако нужно помнить, что контент, касающийся в первую очередь здоровья и жизни, нужно обязательно перепроверять.
По словам Арлазарова, пользоваться такими системами для решения задач, связанных, например, с безопасностью или финансовыми вопросами, преждевременно. Безопаснее всего сегодня применять нейросети в качестве напоминалок."Если вы поставите чат-боту задачу напомнить вам сходить в магазин и купить те же самые грибы - чат-бот с этим отлично справится", - отметил эксперт.