"Цена вопроса - человеческая жизнь". Нейросетям запретят давать советы по лечению и инвестициям
Под запрет попали советы по лечению, юридические и финансовые консультации, вопросы образования и трудоустройства, жилищные и страховые темы. Эксперты отмечают, что это ждет все крупнейшие GPT-сервисы.
Основная причина, по которой вводятся ограничения, - риски. Люди, следуя советам нейросети, могут столкнуться с серьезными финансовыми, страховыми и юридическими трудностями, считает ведущий эксперт Mobile Research Group Эльдар Муртазин. Ответственность за вредные советы будет нести компания - разработчик нейросети. Пользователи будут обращаться в суд и пытаться взыскивать с компании средства на покрытие ущерба. OpenAl такие издержки не нужны.
Самой рискованной нишей для советов можно назвать медицину. Здесь цена вопроса - человеческая жизнь. Ни одна компания - разработчик ИИ не захочет нести ответственность за непоправимые последствия самолечения, самодиагностики и смерти людей. Рано или поздно все разработчики нейросетей будут вводить ограничения на медицинские советы.
Еще одна причина введения ограничений - давление профильных ассоциаций и профсоюзов. Сегодня нейросети могут консультировать людей по юридическим и финансовым вопросам, например весьма качественно создавать шаблоны договоров. "Новые возможности" отнимают хлеб у юристов, бухгалтеров и других специалистов. Как следствие - профильные ассоциации пытаются вытеснить ИИ из своих ниш, считает руководитель проекта "Технологии" в "РГ" Олег Капранов.
В то же время говорить о том, что отечественные сервисы подошли к той же черте, где необходимы ограничения, пока преждевременно. Скорее можно говорить о разных подходах к сценариям использования сервисов, например для широкого использования вводится более строгая политика безопасности, а для нейросетей, которые устанавливаются в закрытом контуре заказчика и будут использоваться для работы компаний, ограничения минимальные, так как предполагается квалифицированное использование совершеннолетними сотрудниками. "Искусственный интеллект должен уметь говорить на любые темы, мы стремимся к тому, чтобы Alice AI отвечала на все вопросы", - заявили в пресс-службе "Яндекса". Но это не означает, что ИИ предоставляет любую информацию: в случае если модель предполагает, что ответ может задеть чувства людей или причинить им вред, она предлагает альтернативные безопасные способы решения задачи пользователя или объяснения, почему эта конкретная информация опасна, отметили в "Яндексе".
Российские компании проводят обновления нейросетей, делают ответы ИИ более безопасными. Вместе с тем разработчики пытаются соблюсти баланс безопасности ответов ИИ и готовности поддерживать диалог на любые темы. По данным "Яндекса", с мая 2025 года в два раза сократился процент случаев, когда Алиса отказывалась отвечать на вопросы. При использовании нейросетей важно помнить, что у модели нет своего мнения. ИИ обрабатывает огромный массив данных и на основании полученной информации выдает ответ. Этот ответ должен быть информативным, полезным и безопасным.

