25.02.2024 20:04
Технологии

Новая модель ИИ улучшает качество звука на основе человеческого восприятия

Текст:  Юлия Гуреева
Российская газета - Федеральный выпуск: №41 (9283)
Хотя процесс обучения нейросетей и стал более автоматизированным, участие реальных людей в нем продолжает играть главную роль. Так, появилась новая модель искусственного интеллекта (ИИ), которая научилась улучшать качество звука, основываясь на человеческом восприятии.
Основными учителями нейросетей остаются обычные пользователи. / metamorworks / istock
Читать на сайте RG.RU

Систему разработали американские инженеры из университетов штатов Огайо и Индиана. Создавая ее, они обратились не к техническим параметрам аудиофайлов, а к субъективному человеческому восприятию чистоты услышанного. Участники эксперимента оценивали записи разговоров людей по шкале от 1 до 100. В некоторых из них были, например, шумы или музыка, заглушающие беседы. После этого нейросеть с языковым модулем улучшения речи училась прогнозировать среднюю оценку аудио с точки зрения живых слушателей, говорится на сайте научного журнала IEEE.

Исследование показало, что новая модель превосходит стандартные подходы к очистке аудиодорожек от шума, где прогнозируемые ИИ показатели качества сильно коррелируют с оценкой людей.

"Это исследование отличается от других тем, что мы пытаемся использовать восприятие, чтобы научить модель удалять нежелательные звуки", - пояснил соавтор проекта Дональд Уильямсон.

По словам исследователей, улучшение качества звука "имеет решающее значение", в частности, для создания более эффективных программ распознавания речи, слуховых аппаратов или систем громкой связи.

Искусственный интеллект в книжной отрасли: заменит ли он чтецов?

Обучение нейросети происходит почти так же, как у людей: она получает набор данных и тренируется на них, а реальный человек может "подсказывать", правильно ли система отвечает на тот или иной запрос. Однако для того, чтобы стать "учителем" ИИ, необязательно быть специалистом в этой области: например, некоторые нейросети, предоставив ответ, могут поинтересоваться, "хороший" ли был ответ или "плохой", объясняет стратегический директор по IT, продуктам и сервисам PRO32 Руслан Сулейманов.

"Также обычный пользователь может вносить свой вклад в обучение нейросети, даже не подозревая об этом. Например, каждый день в ChatGPT поступает огромный поток данных от простых пользователей сервиса, которые совершали личные запросы", - добавил он.

Кроме того, существуют открытые проекты, у разработчиков которых нет ресурсов для сбора больших наборов данных, поэтому они приглашают обычных пользователей помочь со сбором информации, рассказала исследователь в области обработки речи компании "Криптонит" Анна Холькина. Есть и совсем распространенные примеры: когда пользователь выбирает картинки, на которых есть автобус или велосипед - он тоже участвует в обучении нейросети.

Вместе с тем не каждый захочет, чтобы он сам или его данные помогали ИИ учиться, поскольку делается это не всегда в благих целях. Полностью избежать этого не получится, уверен руководитель направления по анализу безопасности компании "Криптонит" Борис Степанов: даже если человек переедет в глухую тайгу, сведения о его месте жительства, истории болезни или налогах все равно уже остались в Сети.

"Защита данных от ИИ-систем сводится к тому, чтобы контролировать, какие данные мы публикуем, осознавать последствия своих действий и понимать, что вся информация, загруженная нами в интернет, навсегда останется там", -подчеркнул эксперт.

Искусственный интеллект помог решить одну из загадок эволюции

Помимо этого сама нейросеть может выдать третьим лицам информацию о пользователе, которую он предоставил ей. К примеру, в ChatGPT была обнаружена уязвимость, из-за которой чат-бот выдал имя, фамилию и номер телефона какого-то человека. "Важно не предоставлять нейросетевым сервисам данные о месте и дате рождения, адрес проживания, электронные адреса, номера телефонов, банковские реквизиты. Мой совет - каждый запрос в системе приравнивать к размещению этой информации в соцсетях",- сказал Сулейманов.

Разработчики ИИ, занимающиеся сбором информации из открытых источников, проверяют лицензии, под которыми предоставляются сведения. А еще они стараются анонимизировать и удалять критические сведения.

"Поэтому при предоставлении данных в открытый доступ необходимо проверять, кто сможет ими воспользоваться", - подчеркнула научный сотрудник группы FusionBrain Института AIRI Елизавета Гончарова.

Нейросети