10 декабря 2021, 13:23
Статья

Журналисты получили доступ к внутреннему документу соцсети, где довольно подробно объясняется, как работают ее алгоритмы. Сотрудник TikTok, передавший этот документ прессе, поддерживает ранее высказанные опасения экспертов о том, что они могут усиливать депрессию у пользователей

Dinendra Haria/ SOPA Images/ Sip via Reuters Connect

В The New York Times (NYT) вышла статья под названием "Как TikTok читает ваши мысли", основанная на выводах из ознакомления с внутренним документом соцсети. Алгоритмы TikTok нацелены на то, чтобы побудить пользователей оставаться на платформе подольше и почаще возвращаться туда. В общем-то, цели неоригинальны, любая соцсеть продумана таким образом, чтобы получать как можно больше нашего внимания. Недавняя утечка ценна тем, что дает больше информации о том, как устроен один из самых обсуждаемых "черных ящиков" в интернете — пугающе проницательные рекомендательные алгоритмы TikTok. Как конкретно соцсеть решает, какое видео вы посмотрите следующим? Мы собрали главное из статьи NYТ и вспомнили выводы других расследований об алгоритмах TikTok. 

Что показала недавняя утечка?

  • TikTok оценивает то, насколько видео будет интересно пользователю, основываясь на четырех показателях: лайки, комментарии, тот факт, было ли воспроизведено видео, время просмотра. Эти показатели суммируются, и каждому видео назначается рейтинг. Пользователи видят в ленте рекомендаций тиктоки, набравшие максимальное количество баллов. Лента рекомендаций — это главная и самая популярная функция TikTok, в ней вам показывают ролики незнакомых пользователей, а не тех, на кого вы подписаны. Благодаря такому устройству вчерашние ноунейм-пользователи могут заработать многотысячную аудиторию одним роликом, залетевшим в рекомендации. Собственно, если вы иногда заходите посидеть в TikTok, то видите именно ленту рекомендаций, а не ленту подписки. 
  • Видео назначаются специфические фильтры. Если автор снимает серию роликов на одну тему и ему, чтобы понять один ролик, надо быть в курсе предыдущих, то ему назначают фильтр same_author_seen.
  • Если алгоритм замечает, что пользователю становится скучно в TikTok, то отменяет некоторые фильтры, в результате которых пользователь видит однотипный контент. Чтобы этого не произошло, пользователь периодически видит в ленте "принудительную рекомендацию" — тиктоки на тему, которой он ранее не интересовался.
  • То, насколько автор контента популярен на площадке, то есть как хорошо смотрят его ролики, их качество, частота публикаций и частота возвратов, также влияет на рекомендательные алгоритмы.
  • NYТ сообщает, что модераторы имеют доступ к любому контенту, загруженному на площадку, включая неопубликованные черновики и видео только для друзей — взаимных подписок. 
  • По мнению основателя исследовательской группы Algo Transparency Гийома Шасло, которому журналисты NYТ показали внутренний документ TikTok, алгоритмы площадки "скорее пытаются вызвать у пользователей цифровую зависимость, нежели предложить ему то, что он на самом деле хочет". Другой эксперт, профессор Калифорнийского университета в Сан-Диего Джулиан Маколи, говорит, что "точность алгоритмов достигается за счет огромного набора данных и вовлеченности пользователей, а не какой-то магии".

Почему то, как работают алгоритмы TikTok, важно?

У экспертов вызывает беспокойство рекомендательная лента, которая, по некоторым мнениям, загоняет пользователей в "кроличью нору". "Кроличья нора" — это то, куда погружается пользователь сайта, переходя от темы к теме. Феномен изначально стал известен как "черная дыра Википедии". Вы заходите посмотреть биографию актера из нового фильма, оттуда идете читать, где он еще снимался. Один из фильмов посвящен, скажем, Вьетнамской войне, вот вы уже читаете про войну Вьетнама и США и так далее. TikTok обвиняют в том, что он загоняет в "кроличью нору", но по одной тематике: пользователю присваивают интерес к теме и "варят" его в нем. Алгоритмы TikTok пугающе умны и очень быстро схватывают, что человеку интересно. Один пользователь рассказал, как TikTok догадался о его бисексуальности и стал показывать ему соответствующие видео еще до того, как он сам определил это для себя. Таким же образом алгоритмы могут загонять в "кроличью нору" с депрессивным контентом. Такой вывод сделали авторы расследования The Wall Street Journal (WSJ). 

Журналисты WSJ провели собственный эксперимент — создали более сотни ботов в соцсети, которые просмотрели сотни тысяч роликов. Боты не лайкали и не комментировали видео, а только смотрели их, некоторые дважды. Соцсеть выяснила интересы одной части аккаунтов WSJ через 40 минут, другой — через два часа. После чего показывала ролики только по одной тематике, перебивая их рекламой. Одному из ботов присвоили интерес к роликам о расставании, депрессии. В итоге его лента на 93% состояла из контента о проблемах с психическим здоровьем, остальное — реклама. В TikTоk заявили, что это расследование не вполне корректно: боты выбирали себе один интерес, в то время как у человека обычно много разносторонних интересов. Но вряд ли тот, кто часто пользуется TikTоk, будет отрицать, что обнаруживает себя в информационном пузыре, почти полностью состоящем из видео на одну и смежные с ней темы. Такие же опасения поддерживает и сотрудник соцсети, передавший прессе внутренние документы на условиях анонимности.

Действительно TikTok ухудшает психическое здоровье?

Пока TikTok не обвиняли практически ни в чем таком, в чем ранее не обвиняли другие социальные сети. Наверняка у площадки, где можно "вывезти внешностью" и есть сотни фильтров, меняющих лицо до идеала, все впереди. Ранее главным злом для социальных исследователей считался Instagram, популяризирующий "Instagram-внешность" — высокие скулы, пухлые губы, маленький аккуратный нос, длинные ресницы, миндалевидный разрез глаз, гладкую белую кожу. Множество исследований содержат выводы, что Instagram может провоцировать тревогу, депрессию. В 2018 году, по данным Американской ассоциации пластических хирургов, пишет The New Yorker, жители страны потратили $16,5 млрд на операции и уколы красоты, большинство из них — девушки, которые желали приблизить свою внешность к стандартам, популяризированным Ким Кардашьян, Беллой Хадид, Эмили Ратаковски. 

Впрочем, есть кое-что новое. Недавно в прессе появилась история о том, как подростки и молодые люди неосознанно перенимают нервные тики, увиденные в TikTok. За время пандемии обращения к психиатрам в США, Австралии, Канаде, Великобритании с этими симптомами увеличились в разы. Врачи говорят, что большинство обратившихся смотрели в TikTok контент под хештегом #tourettes — всего у видео под этим тегом более 5 млрд просмотров. Все началось с немецкого YouTube-блогера Яна Циммермана, который рассказывает о жизни с синдромом Туретта — одним из симптомов этого расстройства являются тики, а также выкрики разных слов и бранных выражений. Исследователи связали эту проблему со стрессом, который испытывали дети в период пандемии, когда из-за удаленной формы обучения увеличилась нагрузка. У многих пациентов физиологические симптомы проходили после того, как врачи объясняли им вероятную причину.

В чем еще уличали TikTok?​​​​​​

В прошлом и позапрошлом годах в результате некоторых утечек стало известно, что модераторы TikTok ограничивали продвижение контента "некрасивых" пользователей, "с лишним весом", физическими недостатками, тех, кто снимает "в бедных интерьерах". На момент, когда журналисты обнаружили это, руководство соцсети заявило, что это старые правила, которые больше не применяются и были созданы, чтобы уберечь пользователей от сетевой травли. Но в утекших внутренних документах такая цель не указывалась.

Анастасия Акулова