Обновленная ИИ-модель понимает не только запросы в виде текста, но и распознает картинки, объясняет их, а также может генерировать в 8 раз больше слов, чем предыдущая версия.
Что известно
OpenAI выпустила обновленную модель ИИ GPT-4, и она кажется еще более технологичной и полезной.
В чем отличие от предыдущей версии:
- понимает мемы;
- анализирует до 25 тыс. символов;
- распознает картинки и может описать, что изображено на них;
- справляется со сложными экзаменами, получает максимальные баллы, например, ИИ сдал экзамен на адвоката на 90 баллов, а предыдущая модель получила только 10 баллов;
- блокирует запросы по запрещенным тематикам на 82% чаще, чем предыдущая версия;
- выдает соответствующие ответы на 40% чаще, чем GPT-3.5.
Все пользователи могут записаться в лист ожидания тут, а подписчики ChatGPT Plus уже могут пользоваться алгоритмом. Кроме того, стало известно, что Bing от Microsoft уже работает на GPT-4.
Почему это важно
Представители OpenAI рассказали, что при стандартной беседе с нейросетью сложно почувствовать разница между GPT-3.5 и GPT-4, но она ощущается, если усложнить задачу. Новый помощник стал креативнее, безопаснее, точнее.