Комментарий: Мозг - лучший способ защиты от лжи
26 января 2015 г.В конце января компания Facebook объявила о принятии мер по борьбе с заведомо ложными новостями. Нововведения, призванные коллективными усилиями пользователей уменьшить число публикуемых фальшивок, - повод задуматься: а в состоянии ли в принципе интернет-сообщество повлиять на качество того, что оно потребляет. Российским пользователям пока не дали права помечать ложные, по их мнению, публикации, но, может, и не стоит об этом сожалеть: есть большие сомнения в том, что это вообще хоть как-то будет работать.
Продвигая контент
Facebook наряду с другими соцсетями и платформами стала огромной и, главное, очень влиятельной площадкой для разного рода публикаций. Это мощный инструмент в продвижении интернет-ресурсов и контента, которым они наполнены. Анонс колонки, которую вы сейчас читаете, гарантированно появится или, скорее всего, уже появился в Facebook и других соцсетях, как минимум, дважды - в аккаунтах DW и моих личных. Так ее прочитают гораздо больше людей. Ресурсы делают все, чтобы попасть в ленты пользователей, "затачивая" под них контент и сопровождая свои заметки инструментами, которые сводят публикацию в соцсети к паре кликов. В результате ленты превращаются в череду репостов разного рода новостей, статей, фотографий и видеороликов.
Пару кликов сделать легко, особенно, если публикация интересная, спорная и яркая. Без всяких усилий, даже без единой собственной мысли соберешь кучу лайков и комментариев. Пустячок, а приятно. При этом мало кто утруждает себя проверкой фактов. Не говоря уж о том, что существует такая вещь, как намеренное продвижение заведомо ложной информации - с помощью ботов (аккаунтов-роботов) или нанятых пользователей. Поэтому откровенной чуши и откровенного вранья в наших лентах - пруд пруди.
Русскоязычный читатель особенно хорошо чувствует это в дни обострения российско-украинского противостояния: безумие льется в ленту с откровенно сомнительных ресурсов обеих сторон. Но раз вводятся инструменты общественного контроля, то теперь, наверное, заживем, и, по крайней мере в Facebook, будет правда и ничего, кроме правды?!
Вкалывают роботы, а не человек
Проблема только в том, что гигантские объемы информации модерировать может только робот, который, разумеется, действует по определенному алгоритму. Вот как описывают его в Facebook: если получено много жалоб на ту или иную публикацию, то ее реже показывают в лентах пользователей, и, при определенном пороге, еще и помечают: "На эту запись получено большое количество жалоб о том, что в ней содержится ложная информация".
Но как в этом случае уберечься от спланированных кампаний? Когда те же боты, которые публикуют нужные статьи, лайкают и делятся ими, перенаправляются на жалобы. Или, например, вполне реальные пользователи будут сетовать на якобы ложную информацию только потому, что они придерживаются других политических взглядов, нежели автор. Как фильтровать ложные доносы, в том числе и организованные, и чем они лучше ложных публикаций?
Теория и практика соцсетей
Тот, кто пробовал жаловаться на любые записи в Facebook, более или менее хорошо понимает, как работает фейсбучный робот и вряд ли им доволен. Мне самому пришлось столкнуться с ним буквально на днях в борьбе против фейковой группы одной из передач "Эха Москвы". Она нарушает сразу несколько правил Facebook, начиная с того, что выдает себя за другого пользователя (группу), и заканчивая тем, что публикует чужие фотографии.
Все работает неплохо, пока нарушение легко определить инструментально. Если в жалобе предъявить права, например, тот же снимок, ранее опубликованный в Instagram владельца, то он, скорее всего, будет удален. Но это никак не защищает от того, что этот же пользователь тут же не опубликует другую вашу картинку. И "бодаться" таким образом можно бесконечно, точнее, пока жалобщик не устанет, тем более что процесс подачи жалобы гораздо более трудоемкий, чем публикация чего бы то ни было. Ну, и какие-то более тонкие моменты, например, высказывание от имени другого лица, робот просто не понимает и не считает нарушением правил сообщества.
Никто, кроме нас
Столь же "квалифицированный" робот, очевидно, будет принимать и жалобы на дезинформацию. Возможно, алгоритм действия определения ложных публикаций несколько сложнее, чем нам рассказывают. Во всяком случае, мне хотелось бы в это верить или думать, что к этому рано или поздно придут. Например, получив определенное количество жалоб на публикацию, робот мог бы проверить источник на "авторитетность" - посещаемость, индекс цитирования, время, которое он существует в интернете, и другие показатели. И если речь идет об очевидной пустышке-однодневке, то помечать публикацию, как "возможно ложную".
Однако и в этом случае полностью защитить нас от обмана и манипуляций не может никто, кроме нас самих. Только собственная голова на плечах и критическое осмысление всего, что мы видим. Это, конечно, непросто. Но даже в такой среде как интернет, авторитет издания или пользователя - неплохая гарантия правдивости, ну, или по крайней мере незлонамеренности публикации. Скажем, переходя из соцсети на DW, вы, скорее всего, отдаете себе отчет в том, что здесь вас вряд ли обманут. Дело просто в ответственном выборе.
Александр Плющев, журналист, интернет-эксперт, популярный блогер, постоянный ведущий радиостанции "Эхо Москвы"