ИИ в телевизоре: Как нейросети "додумывают" контент ради крутой картинки

В 2025-2026 годах произошел революционный сдвиг - телевизор из коробки с матрицей, показывающей, "что дали", превратился в центральное устройство домашней экосистемы, вооруженное искусственным интеллектом, который активно обрабатывает видеосигнал, учится предпочтениям зрителя и управляет умным домом.
iStock

Крупнейшие производители, такие как Samsung, LG, Sony, Hisense и российский Яндекс, внедрили собственные ИИ-платформы, которые на принципиально новом уровне решают классическую задачу телевизора - доставить качественное изображение в дом к зрителю. Эти решения дополнили ранее существовавшие инструменты, которые позволяли рекомендовать пользователю наиболее релевантный ему контент. И справляются они с этим отлично, говорит глава ассоциации "Интернет-видео" Алексей Бырдин.

"В средах, где технически реализуемо адресное предложение контента на основе индивидуальных рекомендаций, это работает отлично. Значительно увеличивается время просмотра и общая лояльность к данному медиа или сервису", - сообщил он.

Магистральная технологическая тенденция сегодня заключается в том, что производители отказались от линейного увеличения разрешения и яркости в пользу интеллектуальной обработки контента в реальном времени. Процессоры с встроенными нейросетями делают основную работу - анализируют видеопоток, распознают объекты, адаптируют параметры под условия просмотра и даже управляют звуком, адаптируя его под пространство помещения и появляющиеся там шумы.

Ядром ИИ-телевизора является специализированный процессор с встроенным NPU (Neural Processing Unit). Samsung разрабатывает линейку NQ-серии: флагманский NQ8 AI Gen3 Pro для 8K-моделей (работает с 768 нейросетями) и более компактный NQ4 AI Gen3 для 4K (использует 128 нейросетей). LG противопоставляет им Alpha 11 Gen2 в G5 OLED и Alpha 9 Gen8 в других моделях. Hisense предлагает Hi-View AI Engine X и Hi-View AI Engine RGB для RGB miniLED-моделей.

Отличие этих чипов от стандартных видеопроцессоров - наличие сотен уже обученных нейросетей, залитых прямо в прошивку. Нейросети обрабатывают видеосигнал на трех уровнях:

AI Upscaling анализирует каждый пиксель низкоразрешенного изображения и предсказывает, какой он должен быть в высокоразрешенном варианте, опираясь на окружающие пиксели и содержимое базы данных.

Real Depth Enhancer Pro распознает лица, одежду, небо, воду и отдельно обрабатывает каждый объект. Если ИИ видит лицо актера, оно получит особую обработку для естественного тона кожи и деталей.

Vision AI анализирует, что вы смотрите (фильм, спорт, игру), и переключает набор алгоритмов оптимизации. Samsung AI Soccer Mode Pro усиливает четкость движения мяча, Samsung AI Sound Controller Pro позволяет отдельно регулировать громкость трибун, комментариев и фонового звука.

Как работает AI Upscaling? 1080p видео с YouTube или старый фильм на Blu-ray физически содержит 25% пикселей от 4K и 3% от 8K. "Простое увеличение размера создает размытое изображение, которое невозможно смотреть на 100-дюймовом 4К или 8К телевизоре", - отмечает ведущий аналитик Mobile Research Group Эльдар Муртазин.

ИИ-апскейлинг работает иначе. Samsung использует технику машинного обучения, называемую Machine Learning Super Resolution (MLSR). Инженеры проанализировали тысячи часов видеоконтента высокого и низкого качества, создав две базы данных. Затем они обучили ИИ процессу, называемому "инверсной деградацией": сначала берется высокоразрешенное видео, намеренно понижается его качество, и ИИ учится восстанавливать потерянные детали.

В чипе зашита база формул для разных объектов (яблоко, буква "A", лицо человека). Когда ИИ видит размытое яблоко в руке актера, он восстанавливает края яблока, исправляет артефакты сжатия и подбирает правильный оттенок красного на основе того, как яблоки выглядят в реальности. В результате YouTube-видео при 720p смотрится почти как 4K, старые фильмы получают новую жизнь с четкостью и насыщенностью цвета, которые потеряны в оригинале. Тестирование показывает, что пользователи оценивают цвета обработанного видео как на 52% ярче, а холодные тона - как на 64% более точные.

Технология адаптивного изображения действует иначе. ИИ анализирует каждый кадр и определяет оптимальные параметры яркости, контраста и цвета для конкретной сцены. LG Alpha 11 Gen2 использует алгоритмы OLED Dynamic Tone Mapping Pro, Samsung - собственный Color Booster Pro.

Для OLED-панелей (где каждый пиксель светит самостоятельно) ИИ может регулировать яркость буквально пиксель за пикселем. Это позволяет достичь глубокого чёрного в тёмных областях кадра и одновременно максимальной яркости в светлых, без компромисса контрастности. В результате фильм в кинотеатральном стиле сохраняет авторскую колеровку, спортивная трансляция становится ярче и динамичнее, видеоигра получает оптимальное соотношение черного и белого для геймплея.

Кроме того, ИИ может при помощи распознавания лиц определять, кто смотрит телевизор и загружать персональные рекомендации и настройки, может находить информацию об актёре или объекте на экране без остановки трансляции, делать синхронный перевод субтитров в реальном времени и т. д. В результате каждый член семьи получает свои рекомендации контента, телевизор становится хабом управления светом, температурой и безопасностью дома.

Самое сложное сегодня - найти баланс между улучшением картинки и сохранением изначального авторского замысла, отмечает Дмитрий Борисов, генеральный продюсер "Цифрового Телесемейства".

"Современные технологии в телевизорах действительно могут улучшать зрительский опыт - повышать чёткость картинки, углублять цвет, делать звук объемнее и насыщеннее. Однако часто эти улучшения могут вступать в конфликт с художественным замыслом авторов. Мы уже проходили это ещё до эпохи ИИ, когда производители массово включали функции вроде Motion Plus или сглаживания движения. На многих телевизорах они были активированы по умолчанию, а иногда их вообще сложно полностью отключить, и в результате художественное кино выглядит там как репортаж в криминальных теленовостях. Атмосфера, пластика движения, ощущение киноязыка исчезают, и вместе с ними - смысл режиссерского и операторского решения. Так что не всегда эти "улучшения" означают рост ценности для зрителя", - рассказал Борисов "РГ".

В 26-27 годах ожидаются новые поколения процессоров (Samsung NQ9 серия, LG Alpha 12). ИИ-апскейлинг будет работать на прямых трансляциях, спортивных трансляциях и видеоиграх в реальном времени. Более дешевые модели получат облегченные ИИ-функции. RGB miniLED будет выходить за пределы ультрапремиума (как это сейчас происходит с Hisense).

Samsung уже тестирует Generative Wallpaper-ИИ может создавать изображения для фона в соответствии с вашим настроением или интерьером. В будущем ИИ сможет генерировать персональный контент (портреты, видео) прямо на телевизоре. Интеграция с носимыми устройствами: Samsung Vision AI уже работает с Galaxy Watch. В будущем биометрические данные с браслета (пульс, усталость) могут влиять на то, какой контент рекомендует телевизор или какой фильм режиссирует ИИ. Локальные ИИ-решения: Яндекс показывает, что локальные игроки могут создавать конкурентоспособные ИИ-телевизоры. Ожидаются решения от Alibaba, Baidu и VK.