Вышел Gpt-4 !
Ожидание закончилось, GPT-4 наконец-то здесь. С увеличенной длиной контекста, более продвинутыми рассуждениями и способностью обрабатывать визуальный ввод, нас ждет революция.
Давайте погрузимся.
Вы можете попробовать его прямо сейчас, если у вас есть ChatGPT Plus, или присоединиться к списку ожидания API. Пока что в открытом доступе доступен только текстовый ввод, так как ввод изображений все еще находится на стадии предварительных исследований, в рамках которых они сотрудничают с Be My Eyes, приложением, помогающим слепым и слабовидящим людям использовать технологии.
Особенности
Увеличенный размер ввода текста
Размер контекста определяет, какой объем информации способна обработать и выдать модель GPT. Ранее он был ограничен 4097 лексемами или примерно 3072 словами. Это означало, что если вы хотите обработать контент длиннее этого значения, вам придется прибегнуть к различным уловкам, например, итеративному обобщению. Однако на практике невозможно достичь такой же производительности, как при обработке всего содержимого за один раз, как в плане результатов, так и в плане скорости.
В новой базовой модели GPT-4 этот лимит контекста будет удвоен – примерно 6144 слова. Что еще лучше, они также предоставляют ограниченный доступ к модели с размером контекста 32768 лексем или около 50 страниц текста. Это огромная величина.
Мультимодальность
ИИ больше не ограничен текстовым вводом. Теперь он может понимать и обрабатывать изображения в сочетании с текстом для создания описаний, категоризации и других анализов с такими же возможностями, как и при работе только с текстом.
Вот пример из прямого эфира OpenAI для разработчиков, где обрабатывалась фотография, на которой был изображен макет приложения, написанный от руки:
Расширенные возможности
GPT-4 демонстрирует расширенные возможности сотрудничества и творчества по сравнению со своими предшественниками, а также улучшенные способности к рассуждениям. Хотя GPT-3.5 прекрасно справлялся с различными задачами, ему не хватало способности логически решать некоторые проблемы, которые отличались от его учебных данных.
В ходе оценки GPT-4 продемонстрировал явные улучшения, показав способность решать более сложные задачи, чем GPT-3.5. Например, он смог сдать имитированный экзамен на адвоката в лучших 10% участников тестирования, по сравнению с GPT-3.5, который был в низших 10%.
Слабые стороны
Хотя он считается более безопасным и менее подверженным ошибкам, слабые стороны GPT-3.5, такие как галлюцинации и предвзятость, все еще существуют. Аналогично, хотя он показал отличные результаты на экзамене для адвокатов, он достиг низких результатов в конкурсе программирования Codeforces, где его рейтинг составил 392 (ниже 5-го процентиля). Также утверждается, что он может “уверенно ошибаться в своих прогнозах”.
Резюме
О GPT-4 было много спекуляций, но теперь он наконец-то у нас перед глазами. Наиболее впечатляющей особенностью является мультимодальность, которая является необходимым шагом для достижения любой формы искусственного общего интеллекта.
Оценки показывают, что она лучше, чем у предыдущих моделей, но на сколько на практике, сказать сложно. Я полагаю, что по мере распространения модели в обществе мы будем постепенно получать все большее представление о ее возможностях по мере появления новых примеров использования.