додому Стратегія СТАНІСЛАВ ЛЕМ ПЕРЕДБАЧИВ ПАТОЛОГІЇ X. ЧИ МОЖНА ВРЯТУВАТИ ПЛАТФОРМУ ІЛОНА МАСКА?

СТАНІСЛАВ ЛЕМ ПЕРЕДБАЧИВ ПАТОЛОГІЇ X. ЧИ МОЖНА ВРЯТУВАТИ ПЛАТФОРМУ ІЛОНА МАСКА?

153

На X (колишньому Твіттері) збувається гротескне бачення розвитку штучного інтелекту з оповідань Станіслава Лема. До попередніх методів впливу через алгоритми додалася проблема всюдисущих ботів. Чи можливий сьогодні ще відступ від повної деградації соціальних мереж? Або, можливо, ми повинні змиритися з тим, що вони стали неочищувальною стічною канавою? Все це породжує питання про значення цього процесу для функціонування демократії.

“Трагічна пральня” Станіслава Лема розповідає про конкуренцію між виробниками пральних машин, яка призводить до соціальної революції. Все починається з невинного створення лише стандартних пристроїв, збагачених функціями, які сьогодні ми б назвали “смарт”, наприклад, пральні машини у Лема вміють відокремлювати білий одяг від кольорового.

З часом, через наступні ітерації інновацій, з’являються пральні машини, здатні розважати родину розмовою, допомагати у виконанні домашніх завдань і навіть виконувати роль секс-роботів або військових машин. У нашій реальності досі немає пристроїв, що розділяють прання за кольором, зате існують мовні моделі, такі як ChatGPT або Grok, які чудово реалізуються в інших компетенціях кінцевих форм розвитку лемівських пральних машин.

Проте це ще не кінець аналогії до сучасного темпу розвитку технокапіталізму. У згаданому оповіданні ми переносимося в недалеке майбутнє, в якому поширення автономних роботів призвело до значних проблем на тлі їхньої правосуб’єктності.

Головний герой, Йон Тихий, є свідком конгресу, під час якого точиться дискусія про права, що регулюють автономію машин. Дебати закінчуються, однак, фіаско. За іронією долі, всі запрошені лектори, знані юристи, етики та інші експерти виявляються… роботами. Єдиною справжньою людиною є Тихий.

Ця курйозна ситуація за нинішніх темпів розвитку технологій може здаватися чимось із жанру наукової фантастики. Прикладом може бути хоча б подія Tesla 2024 року, під час якої гуманоїдний робот Optimus виконував функцію бармена — ця акція мала широкий резонанс у медіа. Насправді робот дистанційно керувався людиною. Попри розвиток ШІ, створення повністю автономного програмного забезпечення для машин, що діють у фізичному світі, залишається величезним викликом.

Зовсім інакше виглядає ситуація в цифровому просторі, де головним носієм комунікації є текст. Тут технологічні бар’єри значно менші. У цьому контексті варто поставити собі питання: чи справді ми здатні відрізнити повідомлення, написане ботом, від того, що створила людина?

Обіцянки соціальних мереж

Погляньмо на розвиток соціальних мереж крізь призму історії про пральні машини. Від самого початку він був рушієм двох сил: економічного прибутку та – принаймні декларованої – ідеї змінення світу на краще. «Зробити світ більш відкритим і пов’язаним» – проголосив Марк Цукерберг під час дебюту Facebook на біржі у 2012 році.

З того часу соціальні мережі еволюціонували в цікавий набір амальгам. З одного боку, вони виконують функцію платформи для міжлюдської комунікації. З іншого боку, вони є цінним простором для рекламодавців, а з третього – стали важливим елементом функціонування неурядових організацій, політичних партій чи урядів.

Навіть якщо хтось не вірить у чисті наміри керівників Big Tech, слід визнати, що соціальні мережі протягом певного часу справді зуміли зробити демократію більш демократичною. На перший погляд це плеоназм, але суть цієї думки полягає в тому, що ніколи раніше пересічний представник народу не мав такого безпосереднього контакту з політиком. Відповідно, ніколи раніше він не міг висловлювати свої потреби, думки та критику в такий доступний і прямий спосіб.

У традиційних медіа можливості інтеракції були дуже обмежені. У цифровому світі практично кожен має вільний доступ до безпосередньої «розмови» з представниками політичного класу за допомогою коментарів.

Цікаво, що існують дослідження, які показують, що особи, які раніше характеризувалися низькою політичною залученістю та відсутністю довіри до уряду, завдяки взаємодії з політиками та журналістами на X почали виявляти вищий рівень довіри до державних інституцій.

Крім того, X став новаторським простором для побудови громадянських ініціатив. Прикладом є рух навколо Центрального комунікаційного порту – громадянська ініціатива, яка завершилася проєктом закону, під яким підписалося 100 000 осіб.

Ключем до її успіху стали матеріали, опубліковані впливовими користувачами саме на платформі X. Вони викликали суспільну, надпартійну емоцію, яка не виникла б у рамках експертних статей чи політично заангажованого телебачення.

Занепад соціальних платформ

Однак, попри ці безперечні переваги, слід чітко сказати, що соціальні мережі ніколи не грали чесно. Прикладом є розслідування «The Wall Street Journal», яке виявило, що Facebook мав дані про шкідливий вплив Instagram на психічне здоров’я підлітків, але не оприлюднив цієї інформації.

Іншим випадком є так звана справа Twitter Files, в якій – вже після придбання платформи Ілоном Маском – було виявлено застосування ручного «обмеження охоплень» тем, переважно правого спрямування. Варто тут запитати: чи була це одна з причин, чому Маск купив Twitter?

Як економічні, так і ідейні мотивації, які спочатку супроводжували створення цих платформ, зазнали ерозії. Приклад Meta показує, що високі гасла зрештою підпорядковуються логіці прибутку.

Зі свого боку, дії попереднього керівництва Twitter свідчать про те, що бажання змінити світ на краще – навіть якщо воно випливало з «добрих намірів» – діяло в короткій перспективі і зрештою служило головним чином підтримці конкретного ідеологічного спрямування, співзвучного з поглядами керівництва.

Дедалі більший вплив на якість публічної дискусії мають також тролі та боти – тобто облікові записи, які не представляють власних поглядів, а діють на замовлення. Тролі можуть бути людьми, боти є автоматизованими, але ефект їхньої діяльності подібний: фальсифікація дебатів, викривлення сприйняття громадської думки та зниження впливу реальних громадян на формування дискурсу.

Зважаючи на витрати на їхнє впровадження, такі операції доступні головним чином для еліт – як урядових (наприклад, російські ферми тролів), так і економічних (наприклад, боти, що підтримують інтереси Huawei).

Однак найважливішим є те, що присутність тролів і ботів виявляється вигідною для власників платформ. Їхні дії інтенсифікують емоції, а це збільшує залученість користувачів і час, проведений на платформі, що безпосередньо впливає на доходи від реклами. Відповідь на питання, чому Big Tech вже багато років не може вирішити проблему ботів і тролів, виявляється простою: справжня боротьба з ними суперечила б економічним інтересам компаній.

Саме тут виявляється драматичний конфлікт між декларованими платформами цінностями та реальністю. Якби провести реальну «чистку» ботів, виявилося б, що кількість користувачів завищена, а біржова вартість переоцінена.

У ситуації, коли прибуток стає головною цінністю, технологічні компанії обирають стратегію ілюзії. Ми небезпечно наближаємося до сценарію «трагічної пральні», в якому єдиними активними учасниками дебатів залишаються боти, що розмовляють… самі з собою.

Ферми тролів? З можливостями ШІ це дилетантство

Щоб краще зрозуміти проблему, розгляньмо, як функціонували тролі протягом багатьох років, що являє собою нове покоління тролів-ботів і на що вони здатні. Вважаю, більшість із нас вже чули про російські ферми тролів – організовані команди, в яких сотні, а іноді й тисячі фальшивих акаунтів діють задля поширення певних наративів.

Найвідомішою з них є та, що була заснована Євгеном Пригожиним – тим самим, який у 2023 році разом із керованою ним Групою Вагнера спробував здійснити путч, а потім загинув в авіакатастрофі. Йдеться про «Агентство інтернет-досліджень» – засновану «кухарем Путіна» ферму тролів, що діяла щонайменше з 2013 року.

Як виявила журналістка-розслідувачка Людмила Савчук, яка працювала в цій організації у 2015 році, в одному об’єкті, що належав компанії, цілодобово працювало кількасот осіб. Щодня вони отримували список тем для коментування – від зовнішньої політики Росії через Європейський Союз до Володимира Путіна.

Найважливішим було, щоб пости та коментарі справляли враження автентичних висловлювань звичайних людей. Самі «працівники» часто навіть не читали змісту, до якого зверталися – вони мали лише посилання та вказівки, що і в якому тоні писати.

На таку дезінформацію західні держави досі не знайшли ефективних рішень. В умовах появи нових мовних моделей штучного інтелекту ситуація стає ще складнішою та важчою.

Справжня революція відбулася у 2022 році, коли OpenAI опублікував першу версію ChatGPT. Передові мовні моделі, такі як GPT-4, вивели дезінформацію на невідомий раніше рівень. Ось три найважливіші характеристики, які роблять онлайн-тролінг ще ефективнішим.

Сьогоднішній штучний інтелект вміє читати статті та попередні коментарі, а також «зчитувати» контекст останніх подій. У результаті бот може формулювати висловлювання так, щоб воно звучало як влучна та змістовна відповідь на конкретний текст чи твіт.

Тролі минулих років часто взагалі не читали того, що коментували, оскільки це займало занадто багато часу. Тепер коментарі можуть бути більш зв’язними та правдоподібними, адже обробка складного контексту займає в ШІ частку секунди.

Під час атаки російських тролів у 2022 році на X (що супроводжувала вторгнення в Україну) польські інтернет-користувачі без зусиль виявляли характерні мовні помилки, які видавали іноземних авторів. Класичні перекладачі, наприклад Google Translate, мали помітні обмеження, особливо в перекладах на мови, відмінні від англійської.

Наразі мовні моделі набагато краще «розуміють» структуру окремих мов і створюють речення, близькі до природних. У результаті легше приховати іноземне походження – пости перестають звучати як недоладні мовні кальки.

Автоматизація в масовому масштабі

Найбільшою загрозою є можливість створення тисяч, а то й сотень тисяч фальшивих акаунтів одночасно. Достатньо набору скриптів, який автоматично завантажує контент з мережі, генерує підказки для моделі (наприклад, «Уяви собі, що ти фермер з Підляшшя…») і публікує персоналізовані коментарі. Це дозволяє заполонити інтернет узгодженим, але водночас багатоголосним наративом – від «стурбованих пенсіонерів» до «польського фермера».

Раніше для створення правдоподібних постів потрібна була людина, яка писала їх кілька десятків на день. Сьогодні достатньо одного програміста, щоб створити тисячі ботів, і кожен з них має іншу перспективу, чудове знання мови та обізнаність щодо поточних подій.

Як боротися з ботами – роль відкритості даних

Twitter (тепер X) ще до ери Ілона Маска мав свої гріхи – про деякі з них я згадував раніше. Проте слід віддати йому належне в одному: відкритості до зовнішніх досліджень.

Протягом багатьох років дослідникам надавалися аналітичні інструменти, що дозволяли отримувати доступ до даних платформи – усі публічні твіти, метадані та взаємодії з 2006 року. Цей доступ був платним, але для академічних користувачів передбачався безкоштовний дослідницький варіант.

Результат? Понад 30 000 опублікованих наукових праць і понад мільйон цитувань. Дослідження стосувалися не лише інформатики, а й політології, психології, соціології та медіазнавства.

З гордістю можу навести приклад проєкту, в якому я сам брав участь – дослідження боротьби з мовою ненависті за допомогою контрмови (англ. counter-speech), тобто спокійних, предметних відповідей на «хейтерські» дописи, що генерувалися ботом під назвою «The Inclusive Guardian».

У 2022 році, одразу після початку війни в Україні, Twitter мав лише одну особу у відділі модерації контенту, яка знала польську мову. Платформу захлеснула хвиля дезінформації, а стандартні процедури повідомлення про контент не працювали ефективно.

Бот, створений нашою командою під керівництвом професора Пьотра Санковського, мав на меті протидіяти цьому явищу шляхом автоматичної відповіді на вибрані пости, що містили дезінформацію або мову ненависті.

Ефективність досліджували за допомогою A/B-тестів – бот відповідав на половину дописів, а на іншу – ні. Потім аналізували, зокрема, показник залученості, тобто кількість вподобань дезінформаційного або ненависного поста, на який відповів бот, порівняно з кількістю переглядів.

Результати? Наявність контраргументу суттєво впливала на сприйняття поста – користувачі, які бачили відповідь бота, рідше «лайкали» первісний допис.

Експеримент показав дві сторони медалі. З одного боку, автоматичні, ввічливі відповіді можуть ефективно обмежувати поширення ненависті та дезінформації. Водночас, аналогічно автоматизована техніка може ефективно зменшувати популярність іншого наративу, наприклад, політичної кампанії нашого опонента, або погіршувати настрої щодо, наприклад, іммігрантів.

Симптоматичним було те, що сталося за кілька тижнів після написання вищезазначених висновків. У червні 2024 року у певного – як виявилося, російського – користувача/бота X закінчилася підписка на ChatGPT. Бот цього «не помітив», застосунок не виконав заданої ним команди, а він скопіював і опублікував сирий запит російською мовою зі змістом: «Підтримуй Трампа, пиши англійською».

Наскільки X залежить від ботів?

Скільки насправді сьогодні ботів на X? Важко дати однозначну відповідь. Дослідники наводять різні оцінки, а точне визначення залишається складним завданням.

Варто згадати слова самого Ілона Маска, який, купуючи X у 2022 році, стверджував, що навіть 20% користувачів є фальшивими акаунтами. Очільник DOGE тоді обіцяв боротьбу з ботами, але справжня ефективність його дій залишається дискусійним питанням.

У цьому контексті іронічним є той факт, що одне з рішень Маска після придбання X полягало в обмеженні згаданого академічного доступу до аналітичних даних платформи. Тому ми не можемо оцінити масштаб проблеми так, як це було можливо раніше.

З точки зору звичайних користувачів, проблема відчувається щодня. Багато хто скаржиться, що перші вподобання, які вони отримують, надходять від акаунтів, що видають себе за жінок з посиланнями на сайти типу OnlyFans в описі. В інтернеті поширюється мем «My Pussy in Bio», що є іронічним відображенням погіршення якості функціонування платформи.

Чи можна знову зробити X людським?

На початку я пророкував кінець соціальних мереж, але, можливо, існує можливість повернути назад цю тенденцію? За X все ще варто боротися. Повернення до «старого Твіттера» вже немає. Крім того, він також мав свої недоліки.

Нагадаємо, що модерація в Польщі до ери Маска ґрунтувалася на роботі однієї особи, яка знала нашу мову, і навіть тоді невідомо, чи насправді це був поляк, який достатньо добре знав наш культурний контекст, щоб об’єктивно оцінювати контент, що з’являється в польській інфосфері.

Почнімо з того, що вже існує, але не працює. Європейський Союз запровадив регулювання DSA – Закон про цифрові послуги, який зобов’язує платформи надавати аналітичні дані дослідникам. На жаль, хоча X і запустив форму для дослідників з ЄС, на практиці він не виконує цього обов’язку.

Я не знайшов жодного випадку, щоб хтось успішно отримав доступ до API. Більше того, Європейська Комісія офіційно оприлюднила заяву, в якій повідомила, що X не відповідає вимогам DSA. Щоб не демонізувати лише платформу Маска, подібна ситуація стосується TikTok, AliExpress та Meta.

На жаль, після трансформації Twitter на X, нині доступ до даних коштує 42 000 доларів на місяць. Це означає, що наші дані й надалі використовуються для досліджень, але замість університетських дослідницьких центрів це роблять маркетингові та торговельні компанії.

Варто також звернути увагу на концепцію прозорості алгоритмів, про яку згадував, зокрема, Марцін Ґєлзак у подкасті «Dwie Lewe Ręce». Хоча технології пояснюваності штучного інтелекту все ще перебувають на початковому етапі розвитку, можна було б запровадити функцію – хоч і недосконалу – що відповідала б на запитання користувача: «Чому алгоритм запропонував мені цей пост?».

На жаль, великі платформи можуть знову проігнорувати такі регулювання, особливо з огляду на те, що сучасні методи пояснення рішень ШІ все ще не досягли достатньої ефективності.

Ще одним рішенням було б створення конкурентної платформи з тими самими перевагами, але без недоліків нинішнього X. Спроби міграції користувачів на Mastodon, Threads чи Bluesky вже відбулися, але жоден із цих проєктів не загрожував домінуванню X. Проблема полягає в мережевому ефекті – кожна нова людина, яка користується певною платформою, збільшує її цінність, що змушує користувачів залишатися на тій, де вони мають найбільшу базу друзів:

«Кожна нова людина в певній мережі збільшує кількість можливих з’єднань. Таким чином зростає цінність платформи. Тому, оскільки більшість друзів користуються цим застосунком, користування ним є єдиним розумним вибором», – писав у книзі «Капіталізм мережі» Ян Й. Зигмунтовський, керуючий директор CoopTech Hub.

Крім того, навіть якщо б ми перейшли, наприклад, на Bluesky, наші проблеми могли б зовсім не закінчитися. Звідки у нас упевненість, що нова платформа після масового напливу нових користувачів не зверне у бік політики нинішнього X?

Найбільш контроверсійним, але також потенційно проривним рішенням була б публічна платформа, створена державними установами або Європейським Союзом. Уявімо собі «фантастичний» сценарій, в якому уряд та всі польські державні установи були б змушені діяти на одному обраному порталі, що автоматично забезпечило б приплив користувачів.

Така платформа, з огляду на свій некомерційний характер, могла б бути вільною від реклами, уможливлювати верифікацію користувачів через сервіс mObywatel, а також забезпечувати прозорість алгоритмів і повний доступ для дослідників. У цьому дусі рішення пропонували Ян Й. Зигмунтовський у фільмі «Чи може Польща бути незалежною в епоху технофеодалізму?» та доктор габілітований Томаш Міхаляк з IDEAS NCBR.

Хоча я є прихильником вищезазначеного рішення, я бачу серйозну проблему в його реалізації. Умовою його успіху була б довіра до державних інституцій, а цього в Польщі завжди бракувало. Варто згадати реакцію на згаданий у тексті Закон про цифрові послуги (DSA).

Проєкт змін до закону, що впроваджує законодавство ЄС, був названий спробою запровадження цензури та розкритикований, зокрема, за можливість видалення контенту чиновниками без участі суду та відома авторів. Мені важко оцінювати сам проєкт у всіх його деталях, але я вважаю, що такі реакції досить добре показують, наскільки критично поляки налаштовані до урядової концепції впливу зверху на контент, присутній в інтернеті.

Варто, однак, зазначити, що це вже відбувається, тільки механізми контролю знаходяться в США, розділені між Вашингтоном та Кремнієвою долиною.

Щоб урядова соціальна платформа могла бути створена, потрібна насамперед довіра. Це був би проєкт, що вимагає низки складних рішень щодо політики платформи, наприклад, щодо публікації контроверсійного контенту.

Чи здатний сьогоднішній політичний клас створити надпартійну раду, відповідальну за створення та забезпечення виконання правил для такої платформи, якій поляки могли б довіряти? У нинішньому кліматі польсько-польської війни це видається чимось із жанру політичної фантастики. А шкода, бо застосунок mObywatel показує, що ми маємо в Польщі потенціал для побудови сучасної, цифрової держави.

Як бачимо, подібно до оповідання Лема, наша «пральна трагедія» в соціальних мережах, здається, прямує до неминучого фіаско. Попри видимі спроби регулювання та інтенсивні дебати, нас захлеснула інформаційна какофонія, породжена ботами.

Попри все, я вважаю, що ми повинні продовжувати спроби. У нас немає альтернативи. На кону якість демократії. Можливо, навіть її можливе існування.

Ян ПЬОТРОВСЬКИ, дослідник штучного інтелекту

Переклад – ПолітКом

Джерело тут

НАПИСАТИ ВІДПОВІДЬ

введіть свій коментар!
введіть тут своє ім'я