02.10.2025 17:07
Технологии

В нейросеть ChatGPT внедрили функцию родительского контроля

Текст:  Татьяна Самусенко
Российская газета - Федеральный выпуск: №228 (9767)
В нейросети ChatGPT появилась функция родительского контроля, позволяющая ограничивать для подростков персонализацию, отключать личные сообщения и управлять ИИ-функциями. Эксперты отмечают, что подобные внедрения могут помочь оградить детей от опасного контента.
Читать на сайте RG.RU
/ iStock

Внедрение системы родительского контроля в ChatGPT позволит родителям привязывать свои аккаунты к детским страницам и регулировать формат работы чат-бота. Например, можно установить "тихие часы", когда бота нельзя использовать, отключить голосовой режим и память, убрать генерацию изображений и отказаться от обучения моделей (диалоги с несовершеннолетними не будут использоваться как обучающие данные).

"Преимущественно дети используют нейросети для поиска информации, при выполнении домашнего задания или для объяснения сложных тем. С одной стороны, дети получают новые возможности в образовании, с другой - они могут столкнуться с угрозами, исходящими от нейросетей. Для детей информация в чат-ботах может представлять особенный риск. Они могут столкнуться с неподобающим контентом, нейросеть может выдавать ошибочные ответы", - указывает директор направления "Кадровый суверенитет" АНО "Цифровая экономика" Юлия Горячкина.

Она добавляет, что существуют и психологические риски, например, снижение навыков социализации, если ребенок привыкает к нейросети и видит в ней "друга", а также возможность травли с помощью дипфейков, манипуляция поведением и вовлечение в опасные действия. Пассивное использование чат-ботов также может негативно сказываться на когнитивных способностях ребенка, если нейросети используются для копирования ответов.

Более 70% родителей учат детей безопасному поведению в Сети

"Внедрение инструментов родительского контроля в крупных ИИ-сервисах, таких как ChatGPT, безусловно, шаг в правильном направлении. Это элемент базовой цифровой гигиены, аналог возрастных фильтров и "детских режимов" в других онлайн-средах. При этом важно понимать, что даже самые современные инструменты контроля не снимают с взрослых ответственности за сопровождение ребенка в цифровом пространстве", - отмечает Елизавета Белякова, председатель Альянса по защите детей в цифровой среде.

По ее мнению, ИИ-сервисы способны собирать и анализировать большие объемы пользовательских данных, что делает детей уязвимыми с точки зрения приватности и цифрового следа. Эффективность дополнительных настроек напрямую зависит от прозрачности технологий и уровня цифровой грамотности семей.

"Родителям важно не просто включить ограничения, но и объяснить ребенку, как работает система, какие данные используются и почему важно быть внимательным при взаимодействии с ИИ", - указывает Белякова.

Андрей Сиденко, руководитель направления по детской онлайн-безопасности в "Лаборатории Касперского", рассказал, что общую оценку внедрения родительского контроля сейчас дать сложно - у функционала много неизвестных технических аспектов. При этом, добавляет Сиденко, фильтрация опасного для детей контента будет полезна.

Кроме того, дети могут использовать ИИ для поисковых запросов, а далее дублировать их в обычном поисковике. Важно объяснить детям, что к любой информации, которую они нашли в интернете или чат-боте, стоит относиться с настороженностью, указывает эксперт.

Эксперты считают, что полностью оградить детей от соцсетей невозможно

Сергей Батулин, сооснователь ИИ-интегратора Metalab, отмечает, что внедрение родительского контроля может, наоборот, усложнить задачу по защите детей от опасной информации. "Подростки, как правило, технологически более подкованы, чем их родители. Они могут легко обходить ограничения, используя VPN, создавая новые аккаунты или находя способы "дрессировки" бота. Родительский контроль может создать у родителей ложное чувство безопасности, в то время как реальные риски никуда не исчезают", - рассказал эксперт.

Он добавляет, что ИИ-модели обучаются на данных из интернета, которые содержат огромное количество скрытых предубеждений, стереотипов и идеологических установок. Ребенок, воспринимающий ответы ИИ как объективную истину, незаметно для себя усваивает определенную картину мира, указывает Батулин.

"Опыт зарубежных сервисов, безусловно, ценен и может быть адаптирован под российские реалии. У нас уже есть практики саморегулирования, где ведущие IT-компании страны внедряют принципы "Цифровой этики детства" и совместно разрабатывают инструменты безопасного контента. Главное - чтобы подобные механизмы учитывали культурные особенности, законодательство и реальные привычки российских пользователей", - заключает Белякова.

Дискуссия на Форуме объединенных культур: Нейросетям надо запретить прикидываться человеком
Сервисы Нейросети Наука