Видео о суициде, членовредительстве и дезинформации, несмотря на кажущиеся строгими правила, легко циркулируют на TikTok. Приложение для короткометражных видео не очень строго следует собственным правилам.
Об этом говорит журналист RTL Nieuws Тимо Нийссен, который на месяц работал под прикрытием в TikTok.
Дико популярный TikTok разработал множество правил о том, что разрешено, а что нет на платформе. По всему миру более десяти тысяч модераторов, которые смотрят видео и проверяют, соблюдаются ли правила. Но в правилах есть серая зона. Модераторы работают в условиях сильного дефицита времени, а это значит, что у них есть в среднем всего 14,4 секунды на каждое видео, чтобы оценить его.
Внутренние правила TikTok не всегда соответствуют тому, о чем публично заявляет приложение, обнаружил RTL Nieuws. Например, общедоступные принципы сообщества запрещают публиковать видео со словами вроде «Я хочу покончить с собой» или «Я собираюсь порезаться». Но, согласно внутреннему руководству модератора, видео не должно удаляться, пока у пользователя не появится «намерение» причинить себе вред.
Это намерение нелегко определить по весело-саркастическому тону многих пользователей TikTok. Модераторы должны принять решение за считанные секунды, и они не могут адекватно оценить дополнительный контекст, не посмотрев другие видео, загруженные пользователем.
Также модераторы не намерены классифицировать все, что близко к членовредительству «просто на всякий случай». Это потребовало бы слишком много работы для других команд, которым также пришлось бы просматривать эти видео, согласно инструкции внутреннего обучения.
Внутренние правила TikTok также очень ограничены в отношении фейковых новостей и дезинформации, заметил RTL Nieuws. TikTok заявляет в своих публичных рекомендациях, что будет удалять контент, который является «неправильным или ложным» и причиняет «значительный вред». Но во внутреннем справочнике есть только ограниченный список из 16 определенных примеров дезинформации. Во время обучения им даже говорят, чтобы они сами не гуглили, правильно что-то или нет. На практике это означает, что бредовые истории, не вошедшие в список образцов, свободно циркулируют на платформе. Например, видеоролики, в которых утверждается, что крем от солнца вызывает рак. Модераторов учат помечать видео как фальшивые новости только в том случае, если видео с дезинформацией было снято, например, новостной студией или если оно показывает «последние новости».
Журналист RTL Nieuws месяц работал модератором амстердамской команды TikTok. TikTok обратился к нему через LinkedIn с просьбой о вакансии, когда он подал заявку, поскольку это был единственный способ заглянуть за кулисы влиятельной технологической компании. За один месяц он прошел серию обучающих курсов для новых сотрудников, объясняющих руководство по модерированию, и еще два дня применял эти знания на практике.
В этом месяце TikTok подписал новый европейский кодекс поведения для борьбы с распространением дезинформации. Он берет на себя обязательства больше сотрудничать с независимыми специалистами по проверке фактов и меньше распространять ложную информацию. Несоблюдение правил может привести к крупным штрафам. Правила также подписали другие крупные технологические компании, такие как Google и Meta.
Все социальные сети имеют дело с такими видео и ищут лучшие способы их модерации. Из-за того, как приложение TikTok составлено, для этой среды особенно важно сделать это хорошо. 70 процентов TikTok просматриваются через страницу «Для вас». Там алгоритм представляет пользователям видео, которые точно соответствуют их интересам.
TikTok публично заявляет, что предлагает помощь людям с суицидальными мыслями, направляя их по номеру 113. На самом деле эта помощь не такая обширная. TikTok проводит внутреннее различие между чрезвычайными и неэкстренными ситуациями. Если кто-то публикует видео, в котором говорится, что он только что порезался, это чрезвычайная ситуация. Но если те же изображения публикуются в виде слайд-шоу фотографий, это не считается чрезвычайной ситуацией. TikTok считает, что об опасной для жизни ситуации не может быть и речи.
Внутренняя группа реагирования на чрезвычайные ситуации TikTok (ERT) может наблюдать только в случае чрезвычайной ситуации. Это люди, которые могут звонить в экстренные службы, модераторы же не могут. Им вообще не сообщают, что будет дальше с их отчетом и рассматривает ли его ERT. В неэкстренных случаях видео будет только удалено, а его создатель не будет перенаправлен на телефоны доверия, сообщили модераторы во время тренинга.
На 113 о таких рефералах ничего не известно.
«Я никогда не слышала, чтобы люди обращались к нам или их к нам направляли», — сказала Скарлет Хемкес из службы предотвращения самоубийств.
После публикации TikTok сообщает RTL Nieuws, что о таких пользователях будет сообщаться в полицию только в экстренных случаях. TikTok не будет уведомлять службу 113 из соображений конфиденциальности пользователей.
TikTok говорит в комментарии, что они работают с тысячами людей, чтобы сделать сеть безопасной и интересной. Компания настаивает на удалении контента, который прославляет или пропагандирует самоубийство, и на том, чтобы модераторы были обучены этому. Компания также заявляет, что использует специалистов по проверке фактов, «специалистов по безопасности» и модераторов, чтобы защитить сеть от дезинформации.
Источник: rtlnieuws.nl