Сегодня, без преувеличения можно говорить, что генеративный искусственный интеллект (GenAI) - стал мировым фетишем. Компании вкладывают миллиарды долларов в "железо" - чипы, серверы и инфраструктуру дата-центров, рассчитывая на быструю экономическую отдачу от больших языковых моделей.
Насколько оправданы такие ожидания? Оценить это решили научный руководитель НИУ ВШЭ Ярослав Кузьминов и доцент Екатерина Кручинская. Они применили математическую модель, которая используется для анализа эффективности сложных экономических систем на базе множества входных и выходных параметров. В данном случае "входом" стали доходы производителей аппаратного обеспечения для ИИ (чипов, серверов, полупроводников и инфраструктуры дата-центров), а "выходом" - выручка компаний, разрабатывающих и монетизирующих ИИ-решения.
Анализ, который охватывал период с 2016 по 2024 год, показал неоднозначный результат. С 2016 года, когда началась коммерциализация первых генеративных моделей ИИ, и по 2021 год эффективность росла, но затем пошла вниз.
"Мы видим, что повышенный спрос на чипы и вычислительные мощности стимулируется развитием больших языковых моделей, но их коммерческая отдача не перекрывает стоимости "железа", - считает Екатерина Кручинская. По мнению исследователей, текущая модель развития отрасли усиливает позиции производителей аппаратного обеспечения, но без отдачи в экономику, потому что вычислительные мощности существуют как самоцель.
"Многие специалисты сегодня говорят о "пузыре" на рынке ИИ - процессе, который, в общем-то, для мировой экономики хорошо известен. Наше исследование с помощью математических моделей показывает, что такие риски действительно существуют, что может привести к в серьезному кризису", - говорит Ярослав Кузьминов.
Что делать в такой ситуации? Ответ, по мнению Кузьминова, очевидный: без роста эффективности прикладных решений, их массового внедрения и более разумного инвестиционного планирования "дальше мы не сдвинемся в позитивном направлении".