15 августа 2023, 23:07

OpenAI тестирует ИИ-системы по модерации контента

В компании отметили, что нейросеть GPT-4 настолько успешно справляется со своей задачей, что ее инструменты способны помочь сделать шестимесячную работу за день

НЬЮ-ЙОРК, 15 августа. /ТАСС/. Компания OpenAI, оператор чат-бота ChatGPT, занимается тестированием систем по отсеиванию нежелательной информации на базе искусственного интеллекта (ИИ). Об этом сообщило агентство Bloomberg со ссылкой на заявление представителя компании Андреа Валлоне.

По ее словам, нейросеть GPT-4, на основе которой сейчас работает ChatGPT, можно использовать для быстрой маркировки и фильтрации сообщений, что позволяет задействовать ее для разработки правил в отношении контента определенного рода. В фирме заявляют, что GPT-4 настолько успешно справляется с задачей модерации, что ее инструменты могут помочь компаниям "выполнить шестимесячную работу всего за день или около того".

В то же время Валлоне подчеркнула, что процесс отсеивания информации не следует полностью автоматизировать, поскольку "использование технологии для интерпретации нюансов человеческого письма может оказаться сложной задачей". В идеале фирмы могли бы использовать эту технологию, чтобы "освободить своим сотрудникам время для принятия более сложных решений" по вопросам модерации, пояснила она.

Агентство отмечает, что многие крупные компании, в том числе Meta (признана в РФ экстремистской), уже используют ИИ-технологии для поддержки работы сотрудников в сфере модерации контента.

Чат-бот ChatGPT от компании OpenAI был запущен в конце ноября 2022 года. Сервис взаимодействует с пользователем в диалоговом режиме. Искусственный интеллект на основе языковой модели GPT-3.5 может отвечать на дополнительные вопросы, признавать свои ошибки, оспаривать неверные предпосылки и отклонять неуместные запросы. В середине марта компания представила следующую модель - GPT-4. 

Теги:
США