OpenAI запустила GPT-4 — новая версия нейросети стала намного умнее и получила поддержку изображений

OpenAI представила GPT-4 — новейшую версию своей большой языковой ИИ-модели, которая, демонстрирует «производительность на уровне человека» во многих профессиональных задачах. GPT-4 намного больше предыдущих версий — она была обучена на большем количестве данных и использует больший объём информации, что делает нейросеть более дорогой в работе. При этом GPT-4 способна работать не только с текстом, но и с изображениями, хотя на выходе она по-прежнему даёт только текст.

OpenAI запустила GPT-4 — новая версия нейросети стала намного умнее и получила поддержку изображений

Большая языковая модель GPT от OpenAI используется во многих системах искусственного интеллекта, которые поразили людей в технологической отрасли за последние шесть месяцев, включая ChatGPT и поисковик Bing с ИИ. Новейшая GPT-4 — это предварительный просмотр новых достижений, которые могут начать просачиваться в потребительские продукты, такие как чат-боты, в ближайшие недели. ИИ-бот в Bing уже использует GPT-4, сообщила Microsoft во вторник.

OpenAI запустила GPT-4 — новая версия нейросети стала намного умнее и получила поддержку изображений

Важнейшим нововведением GPT-4 стала поддержка не только текста, но и изображений в качестве вводных. Новая версия нейросети может понимать, что изображено на фото, схеме, рисунке или другом изображении, и учитывать эти данные при решении задачи. Ещё ИИ способно объяснять данные, представленные в виде диаграммы. Но пока что поддержка с изображений проходит закрытое тестирование.

OpenAI запустила GPT-4 — новая версия нейросети стала намного умнее и получила поддержку изображений

OpenAI утверждает, что новая модель будет давать меньше фактически неверных ответов, реже «сходить с ума» и говорить на запрещенные темы, и даже показывать лучшие результаты, чем люди, во многих стандартизированных тестах. Касательно последнего, по заявлению OpenAI, модель GPT-4 сдала смоделированный адвокатский экзамен лучше 90 % людей, экзамен SAT Reading test (нужно ответить на вопросы по небольшим текстам) — лучше, чем 93 % людей, а экзамен SAT по математике — лучше, чем 89 % людей.

OpenAI запустила GPT-4 — новая версия нейросети стала намного умнее и получила поддержку изображений

Однако OpenAI предупреждает, что новое программное обеспечение еще не совершенно и что во многих сценариях оно уступает человеку. По словам компании, у модели всё ещё есть серьезные проблемы с «галлюцинациями» (выдумыванием фактов), так что она не является надежной с точки зрения представления фактов. GPT-4 по-прежнему склонна настаивать на своей правоте, когда ошибается.

«GPT-4 по-прежнему имеет множество известных ограничений, над устранением которых мы работаем, таких как социальные предубеждения, галлюцинации и состязательные подсказки, — говорится в сообщении компании — В обычном разговоре разница между GPT-3.5 и GPT-4 может быть малозаметной. Разница проявляется, когда сложность задачи достигает достаточного порога — GPT-4 более надежен, креативен и способен обрабатывать гораздо более тонкие инструкции, чем GPT-3.5».

OpenAI запустила GPT-4 — новая версия нейросети стала намного умнее и получила поддержку изображений

В настоящее время многие исследователи в области ИИ считают, что большинство последних достижений в сфере ИИ связаны с запуском все более крупных моделей, обученных на тысячах компьютерных систем. Такое обучение может стоить десятки миллионов долларов. GPT-4 является примером подхода, основанного на увеличении масштаба для достижения лучших результатов.

Microsoft инвестировала миллиарды в OpenAI и для обучения модели GPT-4 использовалась облачная инфраструктура Microsoft Azure. Разработчики не опубликовали подробностей о конкретном размере модели или аппаратном обеспечении, которое они использовала для ее обучения и которое может быть использовано для воссоздания модели, сославшись на «конкурентную среду».

Новая модель сначала будет доступна платным подписчикам ChatGPT, а также будет доступна в составе API, что позволит сторонним разработчикам интегрировать ИИ в свои приложения. Для доступа к API нужно записаться на лист ожидания. OpenAI будет взимать около 3 центов за примерно 750 слов подсказок и 6 центов за примерно 750 слов ответа.

Источник

Если Вам понравилась статья, рекомендуем почитать

Оригинал статьи размещен в Высокие технологии Litehack.ru

Понравилась статья? Поделиться с друзьями:
Высокие технологии - Litehack.ru
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: