МОСКВА, 14 марта. /ТАСС/. Американская компания OpenAI представила новое поколение алгоритма по обработке естественного языка - мультимодальную модель GPT-4 (Generative Pre-trained Transformer 4). Новая нейросеть ушла вперед по сравнению с GPT-3.5, она может давать ответы на изображения, а сами ответы более достоверны, сообщается в пресс-релизе OpenAI.
Так, GPT-4 наделена большей "креативностью" и более надежна в использовании, она умеет обрабатывать более детализированные запросы. По внутренним оценкам фактичности, или достоверности, она превосходит GPT-3.5 на 40%. Как пример компания приводит тест на адвоката - симулятор, по которому оценивались обе нейросети. Результаты теста GPT-4 оказались примерно в 10% лучших, а GPT-3.5 - в 10% худших.
Новая нейросеть может принимать вводные в виде текста и картинок, а не только текста, как было ранее, выходные данные - по-прежнему в текстовом формате. "В различных обстоятельствах - включая документы с текстом и изображениями, диаграммы или скриншоты - GPT-4 демонстрирует те же возможности, что и при работе с только текстовыми данными", - отмечает OpenAI. Тем не менее загрузка изображений пока что предварительно тестируется - эта возможность еще недоступна для пользователей.
Также отличием от предыдущего поколения являются новые меры предосторожности в части запрещенного контента - склонность нейросети к ответам на вопросы подобного характера снижена на 82%. При этом на 29% увеличилась частота допустимых (в соответствии с политикой компании) ответов на чувствительные вопросы, к примеру на просьбы дать медицинский совет.
Сейчас попробовать новую модель могут пользователи с подпиской ChatGPT Plus. Компания-разработчик не исключает, что в будущем введет новый уровень подписки для более массового использования GPT-4 - это будет зависеть от итогов наблюдений за трафиком. Также OpenAI допускает, что позднее откроет доступ к GPT-4 для некоторого количества пользователей без подписки.
Компания, по ее заявлению, потратила шесть месяцев на отладку GPT-4. Тем не менее нейросеть все еще может допускать ошибки или давать "вредные советы" - ее новые возможности несут новые риски. OpenAI привлекла более 50 специалистов из разных областей, чьи советы легли в основу мер по смягчению последствий таких рисков. Так, GPT-4 теперь способна чаще и лучше отклонять запросы о синтезировании опасных химикатов.