В РФ разработали ИИ-систему для автоматического сокрытия нежелательного контента
НОВОСИБИРСК, 13 мая. /ТАСС/. Систему, которая, используя технологии искусственного интеллекта (ИИ), скрывает нежелательное видео и аудио без участия модераторов, разработали в Новосибирском государственном университете (НГУ). Об этом сообщили ТАСС в пресс-службе вуза.
"Система автоматически скрывает нежелательный контент в видео- и аудиофайлах. Новый сервис ориентирован как на обычных пользователей и авторов контента, так и на крупные медиакомпании, онлайн-кинотеатры и видеохостинги", - отметили в пресс-службе.
По словам разработчиков, система самостоятельно распознает сцены с курением, нецензурную лексику, признаки экстремистских материалов и контент 18+. Такие фрагменты она автоматически закрывает мозаикой или "запикивает". "Мы создаем решение, которое позволит публиковать безопасный контент, не нарушающий правила платформ и законодательства. Наша система фильтрует материалы до публикации, чтобы авторам не приходилось делать это вручную", - рассказал представитель команды Илья Трушкин.
Приступая к проекту, разработчики тщательно изучили рынок на предмет наличия на нем подобных сервисов. "Аналогичных решений на рынке мы не нашли. Большинство существующих инструментов ограничены фотоформатом, требуют ручной модерации или просто уведомляют о наличии нарушающего контента. Наша система идет дальше - она скрывает нежелательные элементы автоматически, что упрощает публикацию и повышает безопасность контента", - пояснил Трушкин.
Такое решение может заинтересовать медиаплощадки, которые в первую очередь несут ответственность за контент. С помощью этого сервиса они смогут автоматически приводить попадающий к ним от сторонних лиц контент в соответствие требованиям законодательства.
Сейчас команда завершает настройку развертывания и тестирует интеграцию продукта. Сервис будет доступен в двух версиях: бесплатной - для обычных пользователей, коммерческой - для крупных компаний, отметили в вузе.



