Вышла нейросеть GPT-4 — она стала еще умнее
OpenAI выпустила новую мощную нейросеть GPT-4 для распознавания изображений и текста, GPT-4, которую компания называет «последней вехой в своих усилиях по расширению масштабов глубокого обучения».
Chat GPT-4 вышел и стал умнее
Все ждали когда выйдет GPT-4, теперь он может понимать не только текст, но и изображения.
GPT-4 сегодня доступен платным пользователям OpenAI через ChatGPT Plus (с ограничением использования), и разработчики могут зарегистрироваться в списке ожидания для доступа к API.
Цена составляет 0,03 доллара США за 1000 токенов «подсказки» (около 750 слов) и 0,06 доллара США за 1000 токенов «завершения» (опять же, около 750 слов). Токены представляют необработанный текст; например, слово «фантастический» будет разделено на токены «фанат», «тас» и «тик». Токены подсказки — это части слов, переданные в GPT-4, а токены завершения — это содержимое, сгенерированное GPT-4.
GPT-4 что это?
Другие ранние последователи включают Stripe, который использует GPT-4 для сканирования бизнес-сайтов и предоставления резюме сотрудникам службы поддержки клиентов. Duolingo встроил GPT-4 в новый уровень подписки на изучение языков. Morgan Stanley создает систему на основе GPT-4, которая будет извлекать информацию из документов компании и предоставлять ее финансовым аналитикам. А Khan Academy использует GPT-4 для создания своего рода автоматизированного репетитора.
GPT-4 или GPT-3,5 сравнение
GPT-4 может генерировать текст и принимать входные изображения и текст — улучшение по сравнению с GPT-3.5 , его предшественником, который принимал только текст — и работает на «человеческом уровне» в различных профессиональных и академических тестах. Например, GPT-4 сдает смоделированный экзамен на адвоката с оценкой около 10% лучших участников теста; Напротив, оценка GPT-3.5 была около нижних 10%.
OpenAI потратил шесть месяцев на «итеративное согласование» GPT-4, используя уроки внутренней программы состязательного тестирования, а также ChatGPT, что привело к «лучшим результатам» в отношении фактичности, управляемости и отказа от выхода за пределы ограждений, по словам компании. Как и предыдущие модели GPT, GPT-4 обучался с использованием общедоступных данных, в том числе с общедоступных веб-страниц, а также данных, лицензированных OpenAI.
GPT-4 Microsoft
OpenAI работал с Microsoft над созданием «суперкомпьютера» с нуля в облаке Azure, который использовался для обучения GPT-4.
«В обычном разговоре разница между GPT-3.5 и GPT-4 может быть едва уловимой», — написал OpenAI в блоге, анонсирующем GPT-4. «Разница проявляется, когда сложность задачи достигает достаточного порога — GPT-4 более надежен, креативен и способен обрабатывать гораздо более тонкие инструкции, чем GPT-3.5».
Без сомнения, одним из наиболее интересных аспектов GPT-4 является его способность понимать изображения так же, как и текст. GPT-4 может подписывать и даже интерпретировать относительно сложные изображения, например, идентифицировать адаптер кабеля Lightning по изображению подключенного iPhone.
Возможность понимания изображений пока доступна не для всех клиентов OpenAI — для начала OpenAI тестирует ее с одним партнером, Be My Eyes. Новая функция «Виртуальный волонтер» Be My Eyes на базе GPT-4 может отвечать на вопросы об отправленных ей изображениях. Компания объясняет, как это работает, в своем блоге:
«Например, если пользователь отправит фотографию своего холодильника изнутри, виртуальный волонтер сможет не только правильно определить, что в нем находится, но и экстраполировать и проанализировать, что можно приготовить из этих ингредиентов. Инструмент также может предложить ряд рецептов для этих ингредиентов и отправить пошаговое руководство по их приготовлению».
Потенциально более значимым улучшением в GPT-4 является вышеупомянутый инструментарий управляемости. С GPT-4 OpenAI представляет новую возможность API, «системные» сообщения, которые позволяют разработчикам предписывать стиль и задачи, описывая конкретные направления. Системные сообщения, которые также появятся в ChatGPT в будущем, по сути являются инструкциями, которые задают тон и устанавливают границы для следующих взаимодействий ИИ.
Например, системное сообщение может выглядеть так: «Вы репетитор, который всегда отвечает в стиле Сократа. Вы никогда не даете ученику ответа, но всегда стараетесь задать правильный вопрос, чтобы помочь ему научиться думать самостоятельно. Вы всегда должны согласовывать свой вопрос с интересами и знаниями учащегося, разбивая проблему на более простые части, пока она не достигнет нужного для них уровня».
Однако даже с системными сообщениями и другими обновлениями OpenAI признает, что GPT-4 далек от совершенства. Он по-прежнему «галлюцинирует» факты и делает ошибки в рассуждениях, иногда с большой уверенностью. В одном примере, приведенном OpenAI, GPT-4 назвал Элвиса Пресли «сыном актера» — очевидная ошибка.
«GPT-4, как правило, не знает о событиях, которые произошли после отключения подавляющего большинства его данных (сентябрь 2021 года), и не учится на своем опыте», — пишет OpennAI. «Иногда он может совершать простые логические ошибки, которые, кажется, не соответствуют компетентности во многих областях, или быть слишком легковерными, принимая очевидные ложные утверждения от пользователя. И иногда он может потерпеть неудачу при решении сложных проблем так же, как это делают люди, например, при внесении уязвимостей в код, который он создает».
Однако OpenAI отмечает, что он внес улучшения в определенные области; Например, GPT-4 с меньшей вероятностью откажет в запросах о том, как синтезировать опасные химические вещества. Компания заявляет, что GPT-4 в целом на 82% реже отвечает на запросы о «запрещенном» контенте по сравнению с GPT-3.5 и отвечает на деликатные запросы — например, медицинские советы и все, что касается членовредительства — в соответствии с политиками OpenAI 29. % чаще.
С GPT-4 явно есть что распаковать. Но OpenAI, со своей стороны, продвигается вперед на всех парах — очевидно, уверенный в своих улучшениях.
«Мы надеемся, что GPT-4 станет ценным инструментом для улучшения жизни людей за счет поддержки многих приложений», — пишет OpenAI. «Предстоит еще много работы, и мы с нетерпением ждем возможности улучшить эту модель благодаря коллективным усилиям сообщества, строящего поверх модели, исследуя ее и внося свой вклад».