Правда, брехня і штучний інтелект: як технології одночасно сприяють поширенню дезінформації і боротьбі з нею
Автор: Ольга Юркова, членкиня комунікаційної групи “Технології та суспільство”, журналістка, редакторка, медіаконсультантка
Правда, брехня і штучний інтелект: як технології одночасно сприяють поширенню дезінформації і боротьбі з нею
Автор: Ольга Юркова, членкиня комунікаційної групи “Технології та суспільство”, журналістка, редакторка, медіаконсультантка
Ольга Юркова (фото: надано Ольгою Юрковою)

У 2014 році я була серед українських медійників, випускників одного із проектів Могилянської школи журналістики, які створили проект StopFake. Це було нашою реакцією на зливу фейків про Україну, ми та деякі інші українські команди почали порушувати цю проблему перед регулюючими органами (policymakers), зокрема на міжнародному рівні. Але тоді нас мало хто слухав – було складно повірити у такі масштаби дезінформації. Можливо, ми б і самі не повірили, якби не зіткнулися з нею.
Ми не підозрювали, що це лише початок і скоро кампанії дезінформації охоплять увесь світ. І станеться це зокрема завдяки застосуванню нових технологій у галузі штучного інтелекту та машинного навчання.  У світі точаться дискусії: чи допоможуть ці технології впоратися з дезінформацією чи навпаки, піднімуть рівень пропаганди та маніпуляцій на недосяжну для людини висоту. Виглядає, що відповідь – і те, й інше одночасно.
У світі точаться дискусії: чи допоможуть ці технології впоратися з дезінформацією чи навпаки, піднімуть рівень пропаганди та маніпуляцій на недосяжну для людини висоту. Виглядає, що відповідь – і те, й інше одночасно

За чотири роки я стояла на сцені конференції TED у Ванкувері та розповідала про наш досвід. Міжнародна аудиторія слухала мене зі значно більшою увагою. Уже було відомо про факти несанкціонованого доступу політтехнологів із компанії Cambridge Analytica до даних користувачів Facebook, а також впливу «фабрики тролів» на вибори у США 2016 року та Brexit. Після цих подій феномен поширення дезінформації онлайн став однією з найбільш обговорюваних глобальних проблем.
Шок від фейків був пов'язаний не так із кампанією ненависті, як із розвитком мобільної індустрії та соцмереж як джерела інформації. Поділитись новиною стало легко як ніколи. Це дало фейкам суперсилу поширюватися в режимі реального часу, провокуючи паніку, чутки та поляризацію суспільства.
Іноземне втручання у вибори також не було чимось новим, як і технологія мікротаргетингу. Але використання мікротаргетингу у просуванні дезінформації привернуло до них загальну увагу. Виникла потреба зрозуміти, як не дати використати цю технологію для підриву довіри у суспільстві і демократичних виборчих практик.

Ольга Юркова (фото: надано Ольгою Юрковою)
Як працює мікротаргетинг?

Як це працює? Технології збирають і вбудовують у наші споживчі профілі дані про відвідані нами сайти, нашу геолокацію, покупки та публікації. На їхній основі алгоритм визначає нас як аудиторію для певних повідомлень. У випадку з Cambridge Analytica це було зроблено за допомогою онлайн-вікторини, яка збирала інформацію користувачів. Системи тестують тисячі меседжів у пошуках тих, які найкраще переконають кожну окрему цільову аудиторію. Якщо раніше агітація цілилася у «середнього» прихильника політика чи партії, то мікротаргетинг охоплює всі сегменти ідеологічного спектру, а також людей, які раніше не голосували. При цьому меседжі можуть бути протилежні за змістом. Це дозволяє залучати максимальну кількість голосів. Те саме технології можуть зробити для пропагандиста, який хоче розділити суспільство або підірвати довіру до окремих осіб чи інституцій. Це стало можливим завдяки синергії потужного ШІ, доступності даних та браку медіаграмотності користувачів.
Після скандалу з Cambridge Analytica низка країн посилила закони щодо захисту персональних даних. Але тут усе ще є над чим працювати. Дослідження говорять, що уряди та окремі політики продовжують спроби використати силу соцмереж, аби підірвати довіру в суспільстві та посіяти хаос.

Революція і еволюція медіаспоживання


Усе почалося зі зміни процесу виробництва новин – і, як наслідок, їхнього споживання. На початку 2000-х, коли я розпочинала свою кар’єру у журналістиці, на шляху читача до інформації стояла ціла армія фахівців: автори, редактори, коректори. Вони відсіювали відверто фейковий або антинауковий контент. Інститут цензорів часів СРСР тоді вже припинив існування, хоча траплялися випадки державної цензури. Утім, будь-які медіа потенційно містили інші види цензури: цензуру видавця, цензуру редактора та найскладнішу для виявлення самоцензуру журналіста.
Поява блогів та соціальних мереж «звільнила авторство» – кожен став медіа. Медіаіндустрія сприйняла це як утопію, творення нового світу, вільного від цензури. Було багато ентузіазму щодо ідеї «вірусного редактора»: свідки подій та найкомпетентніші експерти створюватимуть контент, аудиторія перевірятиме його правдивість, а рейтинг залежатиме від попиту. Редактори зникнуть як професія, адже їм залишиться лише стати модераторами user-generated content (контенту, що виробляється користувачами). Але виявилося, що між журналістикою та блогерством така сама прірва, як між академічними вченими та теоретиками пласкої Землі.
Виявилося, що між журналістикою та блогерством така сама прірва, як між академічними вченими та теоретиками пласкої Землі.
З'ясувалося також, що аудиторією ніколи не було так легко маніпулювати, як в епоху соцмереж. Сьогодні «бульбашки фільтрів» створюють для різних соціальних, культурних або ідеологічних груп різні реальності, у яких фейкові новини і люди, які здатні їх спростувати, можуть ніколи не перетнутися.
Еволюція Інтернету пройшла три фази. На перших сайтах опублікувати щось було складно навіть технічно. На другій стадії з’явилися інтуїтивно зрозумілі платформи блогінгу для текстів, відео, аудіоконтенту тощо. На третій ці платформи еволюціонували у соціальні мережі, які об'єднали користувачів для взаємодії з контентом та між собою: Facebook, YouTube, Twitter. Список цих брендів зростає, адже темпи прогресу прискорюються. Весь час тестують нові формати для старих і нових аудиторій. Лише за 2020 рік світову популярність отримав Clubhouse, а TikTok у грудні 2021 обійшов за відвідуваністю Facebook і Google. Месенджери вже виконують окремі функції соціальних медіа. Деякі, як Telegram, поєднують у собі переваги і загрози обох продуктів. При цьому досліджувати як соцмережі, так і месенджери стає все складніше. Алгоритми платформ впливають на результати і перешкоджають відтворюваності досліджень. Месенджери є «сірою зоною» зокрема й тому, що через наскрізне шифрування для захисту приватності там майже неможливо відстежувати появу і поширення дезінформації. Одне з досліджень показало, що 50% канадських респондентів регулярно отримували фейкові новини саме у месенджерах. Потрібен баланс між конфіденційністю, особистою безпекою та протидією дезінформації.
Доктор Жига Турк з Університету Любляни називає п'ять етапів новинного процесу: створення, редагування, публікація, підсилення (або просування) та споживання. У традиційній моделі контент створювали здебільшого фахові журналісти, а відповідальність за наступні три етапи лежала на медіа. Сьогодні єдиної точки контролю немає, але найчастіше усі ці етапи реалізуються на платформах соцмереж. Це дає їм сильну позицію для впливу на цей процес.
Сервісами, які дозволяють навіть дитині створити фейкове фото чи відео, вже нікого не здивуєш. ШІ навчився визначати ознаки редагування та відстежувати походження зображень. Сьогодні у гру вступають нові технології, які називають зброєю інформаційних воєн майбутнього, такі як deepfakes. Це відео, де обличчя однієї людини переконливо замінено обличчям, яке створив комп’ютер із фрагментів її фото, відео та голосу, які вже є в інтернеті. Вони приносять багато користі, дозволяючи скоротити час відеозйомок, індивідуалізувати онлайн-навчання тощо. Але їхній потенціал у створенні фейків лякає.
Подібним чином працюють роботи-генератори текстів (GPT). Їхній потенціал майже необмежений: можуть бути розумними помічниками, писати тексти і програми, обробляти масиви даних. Водночас за кілька років, за прогнозами, їхні можливості у створенні дезінформації перевершать зусилля будь-якої “фабрики тролів”. Улітку 2020 компанія OpenAI презентувала генератор GPT-3, що доповнює та створює з нуля англомовні тексти, які не відрізняються від створених людьми. Як ідеться у звіті Центру безпеки та новітніх технологій США від травня 2021 року, програма генерує дуже переконливі фейкові твіти та новини, змінюючи тональність та наратив залежно від потреби – наприклад, вони можуть бути про- або антитрампівські. Масове виробництво подібного контенту може впливати на громадську думку. Така дезінформація вимагатиме менше часу та зусиль, а охоплення та ефективність кампаній зростуть. Саме тому автори технології не відкривають масового доступу до неї.
Платформи разом із провідними університетами працюють над програмним забезпеченням для виявлення deepfakes. Google створив базу з близько 3000 таких відеофейків, де використовуються різні методи їх створення, щоб навчити ШІ їх визначати. Подібні бази створили Facebook та Adobe, продовжують з’являтися нові. Робота, яка ще попереду – навчити алгоритми виявляти будь-які створені ШІ матеріали, будь то deepfake-відео, текст чи зображення. Однак більшість цих інструментів усе ще у розробці та не готові до широкого використання. Багато платформ заборонили публікувати фейкові відео. Але вони досить легко можуть прослизнути через системи модерації.
Доступність додатків для створення deepfakes кожному, хто має мобільний телефон, – питання часу. Відповідальні творці таких програм вбудовують у них маркери, які попередять глядачів, що відео є маніпульованим. Але якщо це спрацює з відео, з текстом може не спрацювати – принаймні поки що.
Відтак, поле для маніпуляцій є на кожному з етапів новинного процесу. І поки розробники працюють над новими інструментами їх виявлення, платформи також мають достатньо засобів, щоб зупинити їх.
На етапі створення важливо зруйнувати бізнес-модель «клікбейту», яка поки що виглядає цілком ефективною. Для цього великим рекламним сервісам на кшталт Google AdSense варто перестати розміщувати рекламу на сайтах фейкових новин. Нейронні мережі, які шукають найкращу аудиторію для реклами, так само можуть обходити «клікбейтні» сайти. Власне, вони вже роблять це, але поки з недостатнім ступенем успішності.
На етапі публікації у гру вступають стандарти спільнот. Заборона поширення шкідливих відео на YouTube або постів у Facebook – ефективний спосіб регулювання. Соцмережі, хоч і по-різному, виконують роль наглядача, коли йдеться про «дорослий» контент, порушення авторських прав, висловлювання, що розпалюють ненависть тощо. Проблема полягає у величезній кількості контенту та нестачі «рук» для його перевірки. Платформи покладаються на алгоритми та скарги користувачів. Якщо їх дуже багато, контент блокують або демонетизують - скажімо, YouTube позбавляє канали можливості заробити на рекламі. Війна проти шкідливого контенту підміняється війною скарг. Протилежна крайність - доведення функції наглядача до максимуму.
І, нарешті, саме платформи відіграють роль підсилювачів, показуючи користувачам одні новини та приховуючи інші. Facebook демонструє нам менше 10% від усього контенту, на який ми підписані. Видимість залежить від уподобань клієнта, інтересу до сторінки, посту, формату контенту (наприклад, зображення та відео популярніші за текст) і його «свіжості», взаємодій, лайків, відвідувань та оцінки соцмережею. Twitter ранжує твіти за часом поширення та «релевантністю для користувача». У TikTok усе залежить від того, чому надає перевагу клієнт. Багато цих параметрів можуть бути «накручені» ботами. Зрештою, алгоритми непрозорі. Це дає платформам свободу у виборі того, які новини просувати, а які – приховувати. Крім того, алгоритми можуть бути недосконалими. Залежність новинної стрічки від уподобань лише ущільнює «бульбашки фільтрів» навколо кожного з нас і робить діалог майже неможливим.

Алгоритми створюють люди


Усі методи боротьби з фейками та маніпуляціями впираються у питання, хто і як їх визначатиме.

Є дві стратегії автоматичного виявлення фейкових новин: за контентом та за соціальним контекстом
Є дві стратегії автоматичного виявлення фейкових новин: за контентом та за соціальним контекстом. Останній стосується джерела інформації та характеру її поширення. Той факт, що новину публікує «клікбейтний» сайт, вказує на її ненадійність. Неавтентичний характер поширення багатьма акаунтами може викликати підозри у використанні груп ботів для розкрутки. Але алгоритм може зайти у глухий кут, якщо авторитетний сайт помилково розмістить фейк. У свою чергу, аналіз контенту складний для штучного інтелекту, адже багато маніпулятивних новин містять гумор, натяки, мораль або метафори, особливо коли йдеться про політику. Тому найкраще працює інтелектуальний тандем людини та машини. Нейромережа заощаджує час, скануючи величезні обсяги контенту. Людині залишається крихітна частина роботи, щодо якої ШІ не може ухвалити рішення самостійно.
Помилкою є вважати, що алгоритми не помиляються. ШІ навчається на заданому наборі даних, обраному людьми, які можуть мати різні наміри. Користувач має право не захотіти довіряти цим людям фільтрувати його стрічку новин. З огляду на це прозорим методом протидії дезінформації є співпраця платформ із незалежними фактчекерами, які перевіряють і маркують фейки і маніпуляції. Система попереджає користувача, перш ніж він захоче поділитися таким контентом, але рішення ухвалює він сам. В Україні з 2020 року Facebook співпрацює з двома організаціями – StopFake та VoxCheck. Це дозволило маркувати маніпулятивний контент, пов'язаний із пандемією Covid-19, що знижує їх видимість і рейтинг сторінок, які їх поширюють. З фактчекерами працюють Instagram, Google, TikTok. Експерти кажуть, що краще мати на ринку декілька команд перевірки фактів, щоб користувач міг обрати, кому довіряє більше.
Етап споживання - найважливіший. Хоч би як парадоксально звучало, головні поширювачі фейків - звичайні люди, які в них повірили. Натискаючи "поділитися", кожен користувач перетворюється на проміжну ланку дезінформації. Якщо він стане невразливим до маніпуляцій, ланцюжок перерветься. Що може з цим робити кожен із нас? Обирати послуги фактчекерів, яким довіряє. Користуватися розширеннями для браузерів, які маркують підозрілий контент у стрічці новин, та програмами перевірки фото, відео й текстів.
У довгостроковій перспективі я вірю в освіту та медіаграмотність, яку не замінить жодний штучний інтелект
Втім, у довгостроковій перспективі я вірю в освіту та медіаграмотність, яку не замінить жодний штучний інтелект. Він може полегшити її, пропонуючи автоматичні інструменти фактчекінгу. Але фундамент розумного ставлення до інформації варто закладати у школах та дитсадках, як це роблять у багатьох країнах. В Україні понад 1500 шкіл уже беруть участь у програмі впровадження медіаграмотності у шкільну програму «Вивчай та розрізняй», яку реалізує IREX спільно з Міністерством освіти у партнерстві з громадськими організаціями та експертами.
Очевидно, що боротьба з дезінформацією за допомогою ШІ – гра, яка вартує свічок. Але тут потрібні обачність та комплексність. Історія показує, що дезінформація була, є і буде. Кожен успішний засіб протидії породжує наступне удосконалення засобів обману. Винайдений сьогодні алгоритм може не виявляти завтрашніх фейків. Тому чарівної технологічної пігулки не існує. Але є надія, що нові технології спрацюють у комплексі з відповідальністю їх творців, платформ, які встановлять чесні та зрозумілі правила гри, та урядів, які регулюватимуть інформаційне поле настільки, скільки потрібно для державної безпеки, але не більше.
До вже перелічених технологічних заходів варто додати системи кібербезпеки як частину національної системи кіберзахисту, надання користувачам платформ більшого контролю над алгоритмом, що визначає їхню стрічку новин, та розширення прав та можливостей інтернет-користувачів щодо захисту своїх даних та приватності. Серед них й такий нескладний крок, як роз’яснення правил користування онлайн-сервісами і політики конфіденційності простою мовою. Адже зараз користувачі часто погоджуються з ними, не читаючи кілька сторінок складних юридичних формулювань. Є кілька нетехнологічних способів обмежити шкоду від дезінформації: вже згадана медіаграмотність, підтримка якісної журналістики, різноманітності медіаландшафту, збалансоване законодавче регулювання, яке забезпечить захист інформаційних та інших прав людини у цифровому середовищі тощо. Важливим є підвищення прозорості алгоритмів, їх незалежний аудит щодо відповідності демократичним засадам і правам людини, а також відкритість для дослідників. Це можливо лише під контролем суспільства.

Підготовлено в лютому 2022 року, опубліковано в січні 2023 року
Оновлення від лютого 2023 року від автора статті:
сталися зміни у розвитку технологій, що дотичні до теми поширення та протидії пропаганді, про які варто згадати. Вийшов ChatGPT - чатбот, який додає розмовний інтерфейс поверх тексту, що генеровано GPT-3. Він доступний як "попередній перегляд досліджень" на сайті OpenAI. Він може замінити Google або копірайтера та заощадити час при пошуку відповідей на нескладні питання. Але проблема в тому, що система ефективна настільки, наскільки хороші дані, на яких вона навчається. Наразі вона не розрізняє авторитетності джерел інформації. Тому видає текст, який добре читається і розумно звучить, але вводить в оману. Якщо ви погано розбираєтесь у темі, ви цього не помітите. OpenAI анонсувала інструмент, який ідентифікує написаний ШІ текст. Але він робить це лише у 26% випадків. Ще гірше він працює з короткими (до 1000 символів) і не англомовними текстами.
Для пошукових систем Google і Baidu розробляють власні подібні чатботи. Meta представила чатбот Galactica, але забрала її через три дні через занепокоєння щодо неточностей і дезінформації. Тому законодавці США закликають до втручання уряду для регулювання цієї сфери.
Стрімкі досягнення в області штучного інтелекту можуть сприяти поширенню дезінформації наступного року, попереджає новий звіт Top Risk Report за 2023 рік, щорічний документ американських аналітиків геополітичних ризиків Eurasia Group: «Великі мовні моделі, такі як GPT-3 і GPT-4, які незабаром будуть випущені, зможуть надійно пройти тест Тюрінга — Рубікон для здатності машин імітувати людський інтелект».
Отже, нові зміни не скасовують поставлених у статті питань, але прискорюють необхідність шукати нові відповіді на них.
© 2021-2023 Tech&Society Комунікаційна група. All rights reserved.