Новини
Як Facebook і Google фінансують глобальну дезінформацію
Технологічні гіганти платять мільйони доларів операторам клікбейтних сторінок, фінансуючи погіршення інформаційних екосистем у всьому світі.
Середа, 24 листопада 2021, 11:24

Про це йдеться у матеріалі видання Technology Review.

М’янма, березень 2021 року. Минув лише місяць після захоплення державної влади в країні військовими.

На відео, що транслювали через Facebook Live, можна побачити сотні людей, які протестують проти військового перевороту на вулицях М’янми. Відео набрало майже 50 000 поширень і понад 1,5 мільйона переглядів у країні з населенням трохи більше 54 мільйонів.

Експерти використовували ці кадри разом із сотнею інших живих стримів для відстеження ситуації в країні.

Але вже за день це саме відео знову багато разів з’являлося у соцмережах як начебто “лайвстрим” з місця подій.

У країні вирувала політична криза, але вже не було можливості зрозуміти, що з того правда, а що – ні.

У 2015 році 6 із 10 веб-сайтів М’янми, які мали найбільше число підписників у Facebook, належали авторизованим ЗМІ. За рік Facebook (який нещодавно змінив назву на Meta) запропонував глобальний доступ до Instant Articles, програми, яку видавці могли використовувати для монетизації свого контенту.

Тоді у топ-10 у місцевому сегменті Facebook залишилось лише два авторизованих видавці М’янми, а вже у 2018 році не залишилось жодного. Натомість там тепер переважили фейкові новини та клікбейтні сайти. У країні, де Facebook є синонімом Інтернету, низькопробний контент почав домінувати над усіма іншими джерелами інформації.

Саме під час цієї стрімкої деградації цифрового середовища М’янми у серпні 2017 року бойовики мусульманської етнічної меншини рохінджа здійснили напад на співробітників місцевих спецслужб. Після цього почалися репресії щодо рохіджа з боку поліції та військових, а фейкові новини та статті довкола цієї теми стали ще більш популярними в соцмережах. У таких новинах ішлось, як правило, про те, що мусульмани озброєні, що вони збираються у групи по 1000 осіб і вже причаїлися десь за рогом вулиці, готові нападати та вбивати.

Досі залишається нез’ясованим, чи ці фейкові новини продукувалися зацікавленими політичними силами, чи поширювалися як частина гарно оплачуваних замовлень. У будь-якому випадку, величезна кількість фейкових новин і клікбейт-сторінок сприяли ескалації і без того небезпечного протистояння на етнічному та релігійному ґрунті. Такі новини вплинули на громадську думку та загострили конфлікт, який, врешті-решт, призвів до загибелі 10 000 рохінджа та перетворив ще 700 000 осіб на біженців.

У 2018 році розслідування ООН визнало насильство та злочини проти рохінджа геноцидом та підтвердило, що Facebook відіграв у цьому “визначальну роль”.

За кілька місяців Facebook визнав, що недостатньо зробив для того, “аби запобігти використанню нашої платформи для розпалювання офлайн-насильства”.

Внутрішньокорпоративні документи компанії Facebook, оприлюднені її колішнею працівницей Френсіс Хауген, підтвердили те, про що громадські активісти говорили роками: Facebook використовує алгоритми посилення провокативного контенту, недостатньо модерує пости, за винятком тих, що націлені на аудиторію США та ЄС, а також сприяє поширенню агресивної риторики та дезінформації, що дестабілізуює ситуацію в країнах у всьому світі.

Але в цій історії не згадано один суттєвий момент. Facebook не просто посилює дезінформацію. Компанія сама її і фінансує.

Розслідування MIT Technology Review, що ґрунтується на оцінках експертів, аналізі даних і документах, виявило, що Facebook і Google платять мільйони рекламних доларів, щоб фінансувати клікбейт, що і призводить до занепаду інформаційних екосистем у всьому світі.

Анатомія клікбейт-ферми

Facebook запустив програму Instant Articles разом з кількома американськими та європейськими видавцями у 2015 році. Компанія тоді анонсувала програму як дієвий спосіб зменшити час завантаження статей та зручний для користувачів інструмент.

Цей крок вдало перехопив рекламні надходження, що йшли тоді Google. До Instant Articles статті, опубліковані на Facebook, спрямовувалися у браузер, де вони відкривалися на власному веб-сайті видавця. Постачальник реклами, зазвичай Google, потім заробляв на переглядах рекламних оголошень або кліках. За новою схемою статті відкриваються вже безпосередньо в додатку Facebook, де рекламні площі належать саме йому.

Instant Articles швидко втратили популярність серед провідних видавців. Для них виплати були недостатньо високими порівняно з іншими доступними формами монетизації. Але все інакше склалося для видавців Global South, яких Facebook залучив до програми в 2016 році. У 2018 році компанія повідомила, що виплатила 1,5 мільярда доларів видавцям і розробникам додатків. У 2019 році ця цифра сягла кількох мільярдів доларів.

До того часу Facebook мало зважав на якість видавців, які приєднуються до програми. Сама платформа також мало штрафувала користувачів за розміщення ідентичного контенту на сторінках Facebook – вона навіть стимулювала таку поведінку. Розміщення однієї і тієї ж статті на кількох сторінках може збільшити кількість користувачів, які натиснули на неї, та збільшити дохід від реклами.

Клікбейт-ферми у всьому світі скористалися цим недоліком як стратегією, яку вони продовжують використовувати і сьогодні.

Такі клікбейтні контори швидко з’явилися і в М’янмі. За допомогою привабливого та клікабельного контенту вони могли отримувати тисячі доларів на місяць від рекламних надходжень. Внутрішня документація Facebook, яка сплила у звіті від МІТ у жовтні, засвідчила, що компанії було відомо про цю проблему вже з 2019 року.

Попри тиск від працівників компанії та незалежні рослідування, Facebook не дуже вдавалося протистояти таким зловживанням.

Згідно з тим самим звітом МІТ, ця проблема має тепер глобальний характер. З’явилися тисячі подібніх клікбейт-контор, особливо у країнах, де виплати Facebook забезпечують більший та сталіший прибуток, аніж інші підходи.

Винний у цьому і Google. Його AdSense програма, якою зловживали контори з Македонії та Косово, працювали з американською аудиторією напередодні президентських виборів 2016 року.

Ферма створює веб-сайт або кілька веб-сайтів для публікації переважно плагіату.

Ферма реєструє їх в Instant Articles та Audience Network, які вставляють рекламу в статті.

Потім ферма одночасно публікує ці статті в кластері з десятків сторінок Facebook.

Багато клікбейт-контор сьогодні монетизують свій контент за допомогю Instant Articles і AdSense, отримуючи відсоток від обох компаній. А оскільки алгоритми Facebook і YouTube просувають той контент, що притягує аудиторію, таким чином вони створили інформаційну систему, де контент, що стає вірусним на одній з цих платформ, почасти експлуатується і на іншій для більших охоплення та прибутків.

Google визнав згодом, що така поведінка порушує його політику, та прикрив усі подібні канали на YouTube.

Тим часом компанія впроваджувала нові програми монетизації, щоб отримати нові джерела доходу. Окрім Ad Breaks для відео, була IGTV Monetization для Instagram та реклама In-Stream для Live videos.

Розлідування MIT Technology Review виявило, що проблема зараз має глобальний характер. Клікбейт процвітає насамперед у країнах, де виплати Facebook забезпечують більший дохід, ніж інша доступна робота.

“Ми наполегливо працюємо, щоб захистити глядачів від клікбейту або оманливого контенту на наших платформах, і інвестуємо значні кошти в системи, призначені для просування авторизованої інформації”, – стведжує представник YouTube Айві Чой.

Клікбейт-ферми орієнтуються не лише на свої країни. Наслідуючи приклад Македонії та Косово, новітні оператори зрозуміли, що їм не обов’язково розуміти ані контекст країни, ані її мову, щоб отримувати дохід від політичних провокацій.

Розслідування MIT Technology Review зосередило увагу на сторінках із Камбоджі та В’єтнаму – двох країн, де операції з клікбейтом зараз нагадують ситуацію в М’янмі.

Вони знайшли понад 2000 сторінок, задіяних у клікбейт-операціях в обох країнах (і ці дані можуть бути заниженими, оскільки не всі сторінки Facebook відстежуються за допомогою CrowdTangle). Багато з них мають мільйони підписників і, ймовірно, охоплюють ще більше користувачів. У звіті за 2019 рік виявлено, що 75% користувачів, які стикалися з контентом клікбейт-ферм Македонії та Косово, ніколи не переходили на жодну зі сторінок. Натомість система рекомендацій Facebook додавала цей контент в новинні стрічки.

Коли MIT Technology Review надіслало Facebook список цих сторінок і детальне пояснення методології, преспредставник компанії Meta Джо Осборн назвав аналіз “недостатнім”. “Хоча деякі сторінки, можливо, були в наших списках видавців, багато з них насправді не монетизувалися у Facebook”, – стведжував він.

Осборн також підтвердив, що більшість знайдених у Камбоджі клікбейт-сторінок були безпосередньо зареєстровані в одній із програм монетизації Facebook.

Facebook постійно намагається вилучити подібні контори зі своїх програм. Наприклад, у Камбоджі лишилось тільки 30 сторінок, які досі монетизуються, сказав Осборн. Але наші дані зі списків видавців Facebook доводять, що реагують на них часто із запізненням – клікбейт-сторінки можуть залишатися в межах програм монетизації місяцями, перш ніж їх видаляють.

Використовуючи ту ж методологію, розслідування MIT Technology Review також виявило понад 400 іноземних сторінок, орієнтованих переважно на американську аудиторію, у кластерах, які з’являлися у списках видавців Facebook за останні два роки.

Осборн стверджує, що розслідування МІТ змусило Facebook відстежити згадані облікові записи. Чой говорить, що Google видалив рекламу AdSense із сотень сторінок через порушення, але самі сайти досі можуть монетизуватись на основі регулярних оглядів компанії.

Активність однієї сторінки або групи сторінок може видатися незначною, каже Камілла Франсуа, дослідниця з Колумбійського університету, яка вивчає організовані кампанії дезінформації в соціальних мережах. Але коли сотні чи тисячі учасників поширюють однаковий контент і охоплюють мільйонні аудиторії, це може справді вплинути на суспільну думку.

Дезінформація в оренду

У відповідь MIT Technology Review Девід Агранович, директор із глобальних загроз у Facebook, написав у твіттері: “Сторінки, на які посилається ваше дослідження 2019 року, є фінансово мотивованими спамерами, а не сторінками відкритого впливу”.

Але експерти з дезінформації вважають помилковим підхід жорсткого розмежування фінансово мотивованих спамерів та операцій політичного впливу.

Наміри у цих двох випадках начебто різняться: фінансово мотивовані спамери байдуже ставляться до контенту, який вони публікують. Вони йдуть туди, де є кліки та гроші. Натомість політичні мотивовані операції спрямовані на просування конкретних ідей.

Але практика показує, що така відміність малосуттєва, бо за своєю тактикою та впливом вони часто схожі.

Македонський кластер – яскравий приклад. Здебільшого його контент – це тема прав жінок і ЛГБТ. Але під час виборів 2020 року кластер публікував особливо дискусійний політичний контент. Це були і січневі заворушення біля Капітолія, і полеміка довкола закону, що обмежував права на аборти у Техасі.

Водночас контори політичного спрямування можуть публікувати контент про селебрітіз та тваринок, щоб вибудовувати сторінки у Facebook з великою кількістю підписників. А потім, коли відбуваються якісь суперечливі політичні події, вони зміщують фокус на них, використовуючи величезну аудиторію, яка вже є в їхньому розпорядженні.

Подібне часто траплялось уже в М’янмі, зокрема під час кризи з репресіями проти рохінджа, а потім напередодні військового перевороту в країні.

У жовтні 2020 року Facebook видалив низку сторінок і груп, залучених у координованих клікбейт-операціях в М’янмі. Дослідники з Graphika (компанія, яка вивчає поширення інформації в Інтернеті), проаналізувавши ті сторінки, виявили, що вони вибудовувалися переважно довкола новин про знаменитостей та пліток, але разом з тим просували політичну пропаганду, небезпечну антимусульманську риторику та дезінформацію про COVID-19 у ключові моменти кризи в цій країні. Десятки сторінок мали понад 1 мільйон підписників кожна, а найбільша з них мала їх аж понад 5 мільйонів.

Така ж схема працювала на Філіппінах напередодні виборів президента Родріго Дутерте у 2016 році. Дутерте часто порівнювали з Трампом – через його популістську політику, запальну риторику та схильність до авторитаризму.

В останні місяці кампанії Дутерте домінував у політичному дискурсі в соціальних мережах. Сам Facebook охрестив його “безперечним королем дискусій у Facebook”, коли виявилося, що 68% усіх обговорень у соцемережі, пов’язаних із виборами, точилися саме довкола його імені.

Загроза, що зростає

У першій половині 2019 року Facebook доклав значних зусиль, щоб прибрати клікбейт-ферми з Instant Articles та Ad Breaks. Зокрема, компанія почала перевіряти видавців на оригінальність контенту та позбавляти монетизації тих, хто публікував переважно неоригінальний контент.

Але ці автоматизовані перевірки мають обмежений характер. Вони перш за все орієнтуються на оцінку оригінальності відео, а не, наприклад, на те, чи є стаття плагіатом. Також вони обмежені можливостями штучного інтелекту щодо певної мови. “В Ефіопії 100 мільйонів людей і шість мов, а Facebook підтимує лише дві з цих мов”, – засвідчила Хауген у Конгресі.

Матеріали дослідження показують, як камбоджійські оператори збирають інформацію про найефективніший контент у кожній країні для своїх клікбейт-сайтів. Одна з папок на Google Drive містить два десятки електронних таблиць із посиланнями на найпопулярніші групи Facebook у 20 країнах, включно зі США, Великою Британією, Австралією, Індією, Францією, Німеччиною, Мексикою та Бразилією.

У навчальному відео показано, як вони знаходять найбільш вірусні YouTube-відео різними мовами та використовують автоматизований інструмент для перетворення їх на статтю для свого сайту. Розслідування виявило 29 YouTube-каналів, що поширюють дезінформацію про поточну політичну ситуацію в М’янмі, які потім перетворювали на клікбейт-статті та поширювали у Facebook.

Після появи розслідування щодо цих контор, YouTube припинив їхню роботу за порушення правил спільноти. Сім з них були частиною скоординованих операцій впливу на ситуацію в М’янмі.

Прибуток важливіший за безпеку

Під час свого свідчення в Сенаті в жовтні цього року Хауген звернула увагу на фундаментальні недоліки підходу Facebook до використання контенту. За її словами, поточна стратегія ґрунтується на тому, щоб визначити, які речі мають там право з’явитися, а які – ні. Вона впевнена – в компанії немає проактивного та цілісного підходу, який вимагав би від компанії відстеження усіх порушень, а також модерації усіма мовами світу. Хауген каже, що поки Facebook програє по обох пунктах.

Головною причиною ситуації, що склалася, за словами Хауген, є прагнення Facebook залучити якомога більшу кількість користувачів, і саме через це платформа перетворилася на велетенський рупор ворожнечі та дезінформації.

Першим кроком для клікбейт-ферм є приєднання до програм монетизації, але прибуток залежить від того, наскільки системи рекомендацій Facebook поширюють їхні статті.

Тому мало просто відсіювати подібні ферми: мотивовані учасники завжди зможуть розгорнути нові веб-сайти та нові сторінки, щоб отримати більше грошей. Натомість потрібно переглянути алгоритми та механізми винагороди за контент.

Хауген впевена, “Facebook може змінитися, але, очевидно, не збирається робити це сам собою”. “Я боюся, що якщо не вживати заходів, екстремістська поведінка, яку ми бачимо сьогодні, це лише початок. Те, що ми бачили у М’янмі і зараз бачимо в Ефіопії, – це лише початок жахливої історії, і неможливо передредбачити її кінець”.

У жовтні спеціальний представник ООН у М’янмі заявив, що в країні розпочалась громадянська війна. Тисячі людей втікають до сусідніх країн. Уже середина листопада, а клікбейт-ферми продовжують щогодини постити фейкові новини. В одних пишуть, про повідмоляюють про вбивство демократично обраної прем’єрки Аун Сан Су Чжі, яку військові відсторонили від влади, а в інших – про те, що військові звільнили її з тюрми.

Теги: Google, Facebook, дезинформация, Мьянма

Межа у YouTube

Підписатись