Какой контент чаще всего удаляла Facebook? Отчет компании за второй квартал
Facebook опубликовала квартальный отчет о соблюдении стандартов сообщества, который отражает итоги работы Facebook и Instagram над зачисткой вредоносного контента. Во втором квартале в Facebook было удалено более 1,5 млрд публикаций и заблокировано столько же фейковых аккаунтов, а в Instagram было удалено свыше 23,9 млн единиц вредоносного контента. С августа такая отчетность будет выходить каждый квартал.
Тотальная зачистка
Согласно принятым в Facebook стандартам сообщества, удалению подлежат материалы, содержащие обнаженное взрослое и детское тело, проявления сексульной активности, порнографию, сцены сексуального и физического насилия, попытки суицида и аутоагрессии.
В социальной сети также запрещены любые проявления буллинга и харрасмента, языка ненависти и экстремизма, упоминания террористических организаций, попытки сбыта наркотиков и огнестрельного оружия,спам, а также использование фейковых аккаунтов. Для Instagram актуальны все те же положения, но в перечне не фигурируют спам и фейки, с которыми, судя по всему, поддержка соцсети пока не борется. Кстати, именно эти показатели стали лидирующими в отчете Facebook за второй квартал: модераторы соцсети удалили 1,4 млрд материалов, содержащих спам, и заблокировали 1,5 млрд фейков.
Среди общих для соцсетей запрещенных типов контента было удалено больше всего материалов с изображением обнаженного тела и сексуальными сценами — 35,7 единиц в Facebook и 12,4 млн в Instagram . На втором месте в обеих социальных сетях оказались публикации, содержащие так называемый язык ненависти и экстремизм — 22,5 млн на Facebook и 3,3 млн в Instagram. Третье по распространенности место занял контент со сценами проявления насилия и агрессии: 15,1 млн материалов пришлось на Facebook, 3,1 млн — на Instagram.
Технология упреждающего распознавания
Во время пандемии распознавание недопустимого контента на Facebook осуществлялось с помощью технологии упреждающего распознавания, поскольку модераторов отправили на самоизоляцию. Сегодня компания использует для модерации машинный и ручной подходы, чем может быть обусловлено различие показателей в начале и конце квартала.
Команда Facebook отмечает, что в большей степени полагается на рецензентов при распознавании контента, содержащего сцены самоубийств, членовредительства и сексуальной эксплуатации детей. Вместе с тем разработчики социальной сети улучшили технологию, которая упреждающе находит и удаляет идентичный или похожий контент, нарушающий политику Facebook.
Так, с ее помощью Facebook удалось на 6% повысить уровень обнаружения публикаций экстремистского характера, в результате чего социальная сеть распознала во втором квартале 95% подобных материалов, при том что и объем контента, который требовал, модерации вырос более чем вдвое — с 9,6 млн единиц в первом квартале до 22,5 млн во втором. В Instagram упреждающий показатель выявления языка ненависти повысился с 45% до 84%, а объем контента, который подлежал удалению, прирос с 808,9 тысяч до 3,3 млн единиц ко второму кварталу.
Также Facebook удалось обнаружить и удалить на 8,7 млн материалов, связанных с терроризмом, что на 2,4 млн больше, чем в первые три месяца этого года. Для повышения инклюзивности своих продуктов компания создала команду Instagram Equity, Совет по инклюзивным продуктам Facebook и Консультативный совет по разнообразию.
Помимо этого, компания будет дорабатывать информационные политики, чтобы предметнее выявлять определенные виды скрытых ненавистнических и дискриминационных высказываний, например, посты о людях с темным цветом кожи или стереотипы о еврейском народе, контролирующем мир. Чтобы пользователи были уверены в достоверности объемов вредоносного контента, которые публикует Facebook, компания будет проводить независимый сторонний аудит, начиная с 2021 года.