Новая модель ИИ улучшает качество звука на основе человеческого восприятия

Хотя процесс обучения нейросетей и стал более автоматизированным, участие реальных людей в нем продолжает играть главную роль. Так, появилась новая модель искусственного интеллекта (ИИ), которая научилась улучшать качество звука, основываясь на человеческом восприятии.
Основными учителями нейросетей остаются обычные пользователи.
Основными учителями нейросетей остаются обычные пользователи. / metamorworks / istock

Систему разработали американские инженеры из университетов штатов Огайо и Индиана. Создавая ее, они обратились не к техническим параметрам аудиофайлов, а к субъективному человеческому восприятию чистоты услышанного. Участники эксперимента оценивали записи разговоров людей по шкале от 1 до 100. В некоторых из них были, например, шумы или музыка, заглушающие беседы. После этого нейросеть с языковым модулем улучшения речи училась прогнозировать среднюю оценку аудио с точки зрения живых слушателей, говорится на сайте научного журнала IEEE.

Исследование показало, что новая модель превосходит стандартные подходы к очистке аудиодорожек от шума, где прогнозируемые ИИ показатели качества сильно коррелируют с оценкой людей.

"Это исследование отличается от других тем, что мы пытаемся использовать восприятие, чтобы научить модель удалять нежелательные звуки", - пояснил соавтор проекта Дональд Уильямсон.

По словам исследователей, улучшение качества звука "имеет решающее значение", в частности, для создания более эффективных программ распознавания речи, слуховых аппаратов или систем громкой связи.

Обучение нейросети происходит почти так же, как у людей: она получает набор данных и тренируется на них, а реальный человек может "подсказывать", правильно ли система отвечает на тот или иной запрос. Однако для того, чтобы стать "учителем" ИИ, необязательно быть специалистом в этой области: например, некоторые нейросети, предоставив ответ, могут поинтересоваться, "хороший" ли был ответ или "плохой", объясняет стратегический директор по IT, продуктам и сервисам PRO32 Руслан Сулейманов.

"Также обычный пользователь может вносить свой вклад в обучение нейросети, даже не подозревая об этом. Например, каждый день в ChatGPT поступает огромный поток данных от простых пользователей сервиса, которые совершали личные запросы", - добавил он.

Кроме того, существуют открытые проекты, у разработчиков которых нет ресурсов для сбора больших наборов данных, поэтому они приглашают обычных пользователей помочь со сбором информации, рассказала исследователь в области обработки речи компании "Криптонит" Анна Холькина. Есть и совсем распространенные примеры: когда пользователь выбирает картинки, на которых есть автобус или велосипед - он тоже участвует в обучении нейросети.

Вместе с тем не каждый захочет, чтобы он сам или его данные помогали ИИ учиться, поскольку делается это не всегда в благих целях. Полностью избежать этого не получится, уверен руководитель направления по анализу безопасности компании "Криптонит" Борис Степанов: даже если человек переедет в глухую тайгу, сведения о его месте жительства, истории болезни или налогах все равно уже остались в Сети.

"Защита данных от ИИ-систем сводится к тому, чтобы контролировать, какие данные мы публикуем, осознавать последствия своих действий и понимать, что вся информация, загруженная нами в интернет, навсегда останется там", -подчеркнул эксперт.

Помимо этого сама нейросеть может выдать третьим лицам информацию о пользователе, которую он предоставил ей. К примеру, в ChatGPT была обнаружена уязвимость, из-за которой чат-бот выдал имя, фамилию и номер телефона какого-то человека. "Важно не предоставлять нейросетевым сервисам данные о месте и дате рождения, адрес проживания, электронные адреса, номера телефонов, банковские реквизиты. Мой совет - каждый запрос в системе приравнивать к размещению этой информации в соцсетях",- сказал Сулейманов.

Разработчики ИИ, занимающиеся сбором информации из открытых источников, проверяют лицензии, под которыми предоставляются сведения. А еще они стараются анонимизировать и удалять критические сведения.

"Поэтому при предоставлении данных в открытый доступ необходимо проверять, кто сможет ими воспользоваться", - подчеркнула научный сотрудник группы FusionBrain Института AIRI Елизавета Гончарова.