AP: алгоритмы проверки Facebook работают неточно в отношении контента на арабском
Как сообщает агентство, сотрудники и алгоритмы Facebook подвергали жесткой модерации высказывания на арабском языке, которые ошибочно принимали за политические призывы
ВАШИНГТОН, 25 октября. /ТАСС/. Система модерации политического контента социальной сети Facebook допускает серьезные ошибки в странах Ближнего Востока, определяя в черный список нейтральные слова на арабском языке из-за нехватки специалистов, знакомых с местным языком и культурой. Об этом в понедельник сообщило агентство Associated Press (АР) со ссылкой на внутренние документы социальной сети, предоставленные ее бывшей сотрудницей Фрэнсис Хауген.
"Мы некорректно применяем правила о противодействии терроризму относительно контента на арабском языке. [Существующая система] ограничивает возможность пользователей участвовать в политической дискуссии, что нарушает их право на свободу слова", - написано в одном из внутренних документов Facebook. В докладе указывается, что почти в половине всех случаев, когда пользователи решили обжаловать удаление своего высказывания, была обнаружена ошибка со стороны соцсети.
Как поясняет агентство, сотрудники и алгоритмы Facebook подвергали излишне жесткой модерации высказывания, которые ошибочно принимали за политические призывы к насилию. Так, в черный список попало множество нейтральных арабских слов, которые могли использовать в своем наименовании или в своих лозунгах различные радикальные группировки. Причем эта проблема носит "системный характер", так как компания не располагает арабоязычными специалистами для каждой из стран региона, диалект в которых может разительно отличаться.
Как пишет АР, арабский язык - третий по значимости язык для платформы, однако Израиль - единственная страна Ближнего Востока, где расположен региональный офис Facebook. Наиболее жесткая модерация наблюдается в Сирии и на территории Палестины, добавляет агентство.
Ошибки модерации в Азии и Африке
В то же время из-за нехватки специалистов со знанием местных языков Facebook пропускает множество разжигающих ненависть высказываний в странах Азии. Компания признала, что "не смогла остановить распространение риторики ненависти в отношении рохинджа", мусульманского меньшинства в Мьянме.
В Афганистане соцсеть не перевела правила сообщества о дезинформации и риторике ненависти на наиболее распространенные местные языки пушту и дари. В свою очередь агентство Reuters отмечает, что у Facebook в 2020 году не было алгоритмов для выявления оскорблений на основных языках Эфиопии оромо и амхарском. Эти пробелы могут привести к распространению оскорбительных постов в странах, которые Facebook сам же и определил в разряд опасных с точки зрения провокации насилия.
"Проблема в том, что, когда создавалась платформа, никто не думал, что однажды им придется заниматься модерацией политических высказываний по всему миру", - указала сотрудница американского Института Ближнего Востока Элиза Кэмбелл. Ошибки, связанные с модерацией политического контента, создают впечатление, что соцсеть ангажирована и поддерживает правительства в ущерб этническим меньшинствам, резюмирует Associated Press.
По данным агентства, в составлении материалов The Facebook Papers приняли участие 17 американских СМИ. Журналисты провели совместную работу, изучив тысячи страниц внутренних документов американской компании, которые оказались в распоряжении бывшей сотрудницы Facebook Фрэнсис Хауген.