Как не потонуть в потоке информации: модерация контента

Как не потонуть в потоке информации: модерация контента

Елена Жабинская - 02.25.2020

Времена, когда каждый может получить свои 15 минут славы, настали: чтобы обратиться к всемирной аудитории достаточно иметь желание и выход в интернет. Границы между ресурсами стираются — на одном и том же портале пользователи публикуют личные фото и дневниковые записи, поднимают общественные обсуждения, создают обучающий, развлекательный, художественный контент, продвигают бизнес... Значение и масштабы онлайн‑среды уже не позволяют владельцам ресурсов игнорировать ответственность за этот поток информации. В этом блоге предлагаю обсудить модерацию контента — одно из направлений деятельности Teleperformance.

Что это?

Модерация — это фильтрация информации, загружаемой на ресурс в общий доступ, силами владельцев и администрации этого ресурса. Мы будем говорить конкретно о модерации пользовательского контента в соцсетях — текстов, фото и видео — хотя модерацию проходят также рекламные материалы, финансовые операции в финтех приложениях и другие взаимодействия с персональной информацией.

Как правило, контент модерируется двумя способами параллельно: с помощью алгоритмов и вручную, руками специалистов‑модераторов. Вместе люди и роботы отслеживают все обновления и проверяют их на соответствие тематике и политике ресурса.

Что именно можно и нельзя публиковать оговаривается в пользовательском соглашении. Контент, не соответствующий правилам сообщества, модераторы блокируют и удаляют. В зависимости от политики ресурса, в некоторых случай профиль, размещающий такой контент, может получить предупреждение, блокировку или даже быть удалён полностью.

Зачем это нужно?

Законодательство большинства стран запрещает и ограничивает распространение определенных видов контента, а в последнее время, с актуализацией этой проблемы, и напрямую возлагает ответственность за контролем на владельцев ресурсов. Чаще всего речь идёт о социально неприемлемом (ненормативная лексика, насилие, пугающие и провокационные кадры), «взрослом» или потенциально опасном (враждебные высказывания, «вредные советы» и сомнительные инструкции) контенте. Но иногда есть и дополнительные ограничения. Например, возрастной ценз для пользователей ресурса — некоторые соцсети не позволяют детям заводить профиль, чтобы оградить их от контакта со злоумышленниками, которые могут написать им в личные сообщения или выследить по фотографиям. Местные законы могут регулировать предвыборную агитацию, те или иные политические высказывания, публикации на тему алкоголя, наркотиков, лекарств, азартных игр — список можно продолжать довольно долго. Сейчас на слуху недавно принятый в Российской Федерации закон, расширяющий зону ответственности медиа за публикацию, среди прочего, призывов к нарушению закона. В Европейском союзе также в конце 2020 года вышел Закон о цифровых услугах, устанавливающий прозрачные правила модерации контента и отчетности о ней для диджитал‑гигантов.

Вторая причина — забота о репутации ресурса через заботу о пользователях. Владельцы любого крупного и авторитетного портала стараются оградить свою аудиторию от неприятного и опасного контента, а также от спама и флуда, ограничивая тематику для публикаций или вводя различные механики «теневого бана».

Почему алгоритмов недостаточно?

Продвинутые роботы, которых используют крупные ресурсы, учатся на практике, а в информации недостатка нет. Поэтому алгоритмы уже очень хорошо определяют нецензурную лексику даже в искаженном и «запиканном» виде, порнографические изображения и, конечно, защищенные авторским правом материалы. Но, как мы уже обсудили, сфера контроля гораздо шире, а грань между безобидным и опасным иногда тонка и очень условно. Ложные срабатывания и пропуски случаются постоянно. Отличить видеорецепт по приготовлению пирога от инструкции по изготовлению взрывоопасного вещества робот, скорее всего, не сможет. Только живой модератор оценит высказывание в контексте и поймет юмор или сарказм, заметит несоответствие формы и содержания (например, неприемлемый текст или опасный совет в анимированном ролике), распознает насилие и оскорбление.

Из этих соображений часть ресурсов, даже весьма крупных, прибегает к полностью ручной модерации. В случае комбинированного формата модерации, в арсенале ботов есть несколько инструментов, которые облегчают людям работу:

  • Распознавание картинки (помогает выявить непристойный контент или присутствие на изображении детей);
  • Распознавание текста на визуальных материалах (пользователь может попытаться обойти алгоритм, разместив сомнительную надпись на картинке или инстаграм-маске);
  • Анализ истории и поведения аккаунта (соцсети могут устанавливать «испытательный срок» новичкам или, наоборот, контролировать слишком активную деятельность, реагировать на возобновления постинга после длинной паузы, смену геолокации и т.д.);
  • Регистрация сигналов от пользователей, как прямых жалоб, так и косвенных реакций (например, обилие дизлайков).

Работа с кадрами

Как и в любом другом виде нашей деятельности, построенной на взаимодействии между людьми, очень важны личные и профессиональные качества модераторов. Уже на этапе отбора важно определить стрессоустойчивость, эмоциональную стабильность, гибкость психики кандидатов, оптимистичный склад характера. Ещё одна тонкость — модератору нужно уметь разделять свои личные убеждения (этические, политические, религиозные) и правила и политику компании. Во время обучения модераторов уделяется внимание как изучению этих правил и стратегии принятия решений, так и развитию и совершенствованию перечисленных выше качеств.

Мы всегда серьёзно подходим к комфорту наших сотрудников, большинство из которых работает на линии консультации и поддержки клиентов, периодически сталкиваясь с конфликтами и стрессом. Наша забота выражается в создании уютных и продуманных мест отдыха, возможностей для уединения или, напротив, общения с коллегами, а также в выстраивании мотивирующей и объединяющей корпоративной культуры, совместных мероприятий и событий.

В случае с модераторами всё это особенно важно, ведь они каждый день сталкиваются именно с тем, от чего необходимо ограждать. Им приходится видеть шокирующий, неприятный, иногда травмирующий контент. Поэтому психической гигиене сотрудников уделяется особого внимание, а штат такого проекта включает психолога, который планово контролирует ситуацию и оказывает помощь коллегам по запросу.

Все темы в нашем блоге мы рассматриваем с точки зрения собственного опыта, опыта Teleperformance за рубежом, а также лучших практик отрасли, которые мы постоянно изучаем и анализируем. Хотите узнать больше о нашей работе в области модерации контента? А может быть, вам интересно обсудить определенный аспект этого направления? Пишите нам!

Image Linkedin
Image Twitter
Image Facebook
Image Email
Image Share