По сравнению с предыдущей версией (GPT-3,5) новая модель получила пять радикальных улучшений.
GPT-4 понимает очень сложные запросы, сформулированные на 26 языках с большим количеством нюансов. Этого удалось добиться благодаря увеличению лимита слов в запросе. Модель обрабатывает до 25 тысяч слов (GPT-3.5 ограничена 8 тысячами). Более чем трехкратное увеличение напрямую влияет на детализацию, которую можно использовать при постановке задач. Глубину понимания запросов и контекста ярко демонстрируют успешно сданные нейросетью экзамены и стандартизированные тесты в коллегию адвокатов, университеты и другие организации. GPT-4 проходила тесты и сдавала экзамены без специальной подготовки и дообучения. При этом она не только получила высокий балл по всем направлениям, но и превзошла более чем 70% людей.
GPT-4 стала мультимодальной и теперь понимает не только тексты, но и изображения в качестве вводимой информации. Причем возможности GPT-4 при считывании изображений выходят за рамки простой интерпретации. Во время демонстрации своих возможностей модель распознала эскиз сайта, нарисованный от руки в качестве техзадания, написала HTML-код и JavaScript и превратила эскиз в веб-сайт.
В OpenAI говорят, что GPT-4 обладает очень высокой степенью управляемости. Пользователи могут определять стиль и характер ИИ, создавать виртуальных "персонажей", ограничивать их в заданной роли, и искусственно сужать круг обсуждаемых вопросов.
OpenAI потратила шесть месяцев на то, чтобы сделать GPT-4 более безопасным и согласованным. Компания утверждает, что вероятность ответа на запросы с неприемлемым или запрещенным контентом снизилась на 82%. Также на 29% стала выше вероятность ответа на конфиденциальные запросы в соответствии с политиками OpenAI, и на 40% повысилась вероятность предоставления фактических ответов по сравнению с GPT-3,5.
Помимо оценки модели на различных экзаменах, предназначенных для людей, GPT-4 проверили в тестах, разработанных для моделей машинного обучения. Было проведено более 10 бенчмарков и везде GPT-4 заметно опередила конкурентов и предыдущие версии GPT.
Первым продуктом, где используется новая нейросетевая модель, стал уже ставший знаменитым, чатбот ChatGPT. Его платная версия ChatGPT +, доступна по подписке за 20 долларов в месяц.
Еще один продукт, куда интегрирована GPT-4 - это ИИ-помощник Copilot для офисных приложений Microsoft 365. Компания Microsoft является ключевым партнером OpenAI, инвестирующим в эту компанию 10 млрд долларов.
Copilot должен помочь пользователям Microsoft 365 подводить итоги встреч, писать эссе и заметки на основе данных из других приложений Microsoft и аналитики из Microsoft Graph. Также в его задачи входит подготовка презентации на основе текстов, отправка приглашений и другие задания. Пока Copilot существует только в тестовой версии.
GPT-4 также встроили в чаты на платформе изучения иностранных языков Duolingo и в сервис электронных платежей Stripe. Модель используется в образовательной организации Khan Academy и в мобильном приложении Be My Eyes, которое помогает плоховидящим посредством видеозвонков. Функция "Виртуальный волонтер", которую планируют интегрировать в Be My Eyes, будет содержать генератор голосового описания изображений.
Почти все эксперты высоко оценили работу, проделанную датасайентистами OpenAI
Так по оценке технического директора компании Cloud, Федора Прохорова, GPT4 - это действительно значительный шаг вперед в области универсальных ML-моделей.
"Значительные отличия GPT4 от предыдущей версий - это высокая креативность (особенно в области сложных или мультиязычных задач), мультимодальность, безопасность (разработчиками были инвестированы огромные усилия в повышение безопасности генерируемого контента) и понимание контекста (возможность задавать и удерживать контекст диалога при решении сложных задач)", - говорит Прохоров.
Однако, несмотря на впечатляющие характеристики GPT4, у сообщества ИИ-разработчиков возникли вопросы к Open AI, которая практически не предоставила никакой информации о данных, используемых для обучения системы, затратах на разработку и обучение, характеристиках оборудования и методах, использованных для создания GPT-4.
Закрытый подход является самым заметным за последнее годы изменением политики OpenAI, которая была основана в 2015 году небольшой группой экспертов и бизнесменов, и в которую входили нынешний генеральный директор Сэм Альтман, генеральный директор Tesla Илон Маск (ушел из совета директоров в 2018 году) и исследователь ИИ Илья Суцкевер. Изначально OpenAI позиционировалась, как некоммерческая организация, но позже стала "компанией с ограниченной прибылью". Это было сделано для того чтобы обеспечить миллиардные инвестиции от Microsoft, с которой было заключено эксклюзивное партнерство. На вопрос издания The Verge, почему OpenAI изменила свой подход к публикации своих исследований, главный научный сотрудник и соучредитель OpenAI Суцкевер ответил: " Если вы, как и мы, верите, что в какой-то момент ИИ - станет чрезвычайно, невероятно мощным, тогда в открытом исходном коде просто нет смысла. Это плохая идея… Я полностью ожидаю, что через несколько лет всем станет совершенно очевидно, что ИИ с открытым исходным кодом просто неразумен".
Многие в сообществе ИИ раскритиковали это решение, отметив, что оно подрывает дух компании OpenAI, как исследовательской организации и затрудняет повторение ее работы другими исследователями. Также важно, что это мешает разработке средств защиты от угроз, исходящих от такой мощной ИИ-системы, как GPT-4. Эксперты отмечают, что ИИ прогрессирует столь быстро, что бизнес, сообщество и государство не успевают адекватно оценить уровень рисков, который несут подобные нейросети.
Генеральный директор компании Digital Consulting Solutions Александр Скоморохин считает, что Open AI отказались от раскрытия исследовательских материалов по причинам безопасности кода и что важную роль сыграли опасения по поводу конкурентов. "Последние годы IT-гиганты активно инвестируют в Open AI, что говорит о том, что компания постепенно теряет свою некоммерческую составляющую, которая предполагала открытое сотрудничество с академическими учреждениями и исследовательскими организациями. Все больше компаний хотят делать похожий продукт, так что решение Open AI изменить свой подход к публикации исследований выглядит как ответ на нарастающую рыночную конкуренцию", - считает глава Digital Consulting Solutions.
Еще одна возможная причина, по которой в OpenAI скрывают детали создания GPT-4 - это юридическая ответственность. Языковые модели ИИ обучаются на огромных наборах текстовых данных, при этом извлекают информацию из интернета - источника, который, включает материалы, защищенные авторским правом. Генераторы изображений ИИ, также обучаемые на контенте из интернета, столкнулись с юридическими проблемами именно по этой причине: несколько фирм в настоящее время предъявили иски цифровым художникам и сайту стоковых фотографий Getty Images.