TikTok ставит диагнозы и узнает сексуальную ориентацию пользователей раньше, чем они сами. Это не вопрос слежки и воровства личных данных: так работают алгоритмы площадки. Именно они сделали соцсеть успешной. Рассказываем, как они работают, и можно ли их «подчинить».
Важны не лайки, а время просмотра
Как выяснило издание The Wall Street Journal, алгоритм обращает больше внимания на то, как долго пользователь смотрел видео, чем на лайки и комментарии. Все логично: если человек досмотрел ролик до конца, значит, что-то его зацепило. В итоге лента пользователя начинает заполняться именно таким контентом – не «отлайканным», но досмотренным до конца. Вскоре уже 93 % рекомендаций состоят из подобных видеороликов. Остальные 7 % – реклама в TikTok.
Главное – хороший контент
Если досматрвиаемость – главный критерий для TikTok, то единственный способ прописаться в ленте рекомендаций надолго – создавать качественный контент, который захотят досмотреть.
Эту догадку и подтвердили журналисты WSJ. Они зарегистрировали в приложении более сотни аккаунтов. Все согласно требованиям: с указанием места жительства, даты рождения, увлечений.
Управляющие аккаунтами боты просмотрели тысячи видео, не оставляя реакций. Всего через два часа алгоритм TikTok определил пристрастия всех ботов и наполнил ленту рекомендаций соответствующим контентом.
Кроличья нора с алкоголем и анорексичками
На первый взгляд, эта проницательность алгоритма идет всем на пользу: одни получают хороший и интересный контент, другие – бесплатные просмотры. По факту «страдают» все.
Создателям контента приходится работать «на алгоритм». Если TikTok расценил одно видео как досматриваемое, у того же автора он будет промоутировать в первую очередь аналогичные ролики. Причем тип контента будет важнее, чем его креатор.
Пользователи же проваливаются в так называемую кроличью нору: от легких роликов люди доходят до серьезных и иногда даже опасных. Так, бот которому в интересы прописали секс, «провалился» в тему БДСМ, а лента депрессивного бота оказалась забита роликами исключительно про ментальное здоровье.
Чем дальше в воронку контента погружались боты, тем опаснее становился их контент: появились ролики про суицид, передозировки, анорексию – все то, что обычно не проходит модерацию.
Выбраться из этой кроличьей норы можно, только резко сменив интересы. Увы, реальные люди, а не боты, обычно на такое не способны и попадают под влияние контента, который даже не выбирают.