Главная > Новини / Загадки, проекти, відкриття > Темний бік алгоритмів: як соцмережі та ШІ формують нашу реальність
Темний бік алгоритмів: як соцмережі та ШІ формують нашу реальністьСьогодні, 14:00 |
|
Сидячи в компанії друзів, всі обговорюють ракетки для тенісу (чи настільні ігри, обігрівачі — підставте будь-що). Після розмови ви берете свій телефон і відкриваєте Instagram, а там — реклама ракеток для тенісу. Теорії змови про те, що наші гаджети нас слухають уже стали новими легендами в нашу еру технологій. Ми вже не згадаємо, коли востаннє заходили в певний застосунок або соцмережу й не бачили реклами, яка буває зовсім недолугою, як у Temu, а буває лячно точною. Усе через нашу поведінку в мережі й те, що за нею весь час стежать. Майже всі вебсторінки, на які ми заходимо, збирають про нас інформацію, а дані часто продають наступним сайтам чи компаніям, яким вони потрібні. Алгоритми не працюють через приховані камери в наших вітальнях — для цільової реклами достатньо збирати всю доступну інформацію зі звичайної реєстрації облікового запису (і щоби користувач не міг просто це змінити). Інший важливий елемент — час, проведений у мережі. Чим більше ми робимо рухів у інтернеті, тим більше інформації можна про нас зібрати, а також тим більше реклами показати, а грошей — заробити. Це погано впливає не лише на нашу конфіденційність — страждає ментальне здоров'я. Усе частіше науковці, психологи, та й самі технологічні компанії фіксують бажання людей до детоксу від соцмереж і відмежування від онлайн-світу, який відчувається занадто всюдисущим. Сучасний інтернет цілком серйозно починає формувати та впливати на нашу реальність, а не навпаки. Й інколи ця реальність починає лякати. Чому ми більше не в змозі контролювати контент, який бачимо, і чому зараз так складно обмежити використання мережі? Розбираємо проблеми й виклики сучасного інтернету у матеріалі "Межі". Як нас вивчають онлайн Повертаючись до ситуації, згаданої вище — відповідь ні, наші телефони нас не слухають, принаймні не в межах збору даних для показу реклами. Це вже давно спростували в численних експериментах, де над гаджетами обговорювали конкретні товари й відстежували, яку рекламу показуватимуть після цього соцмережі. Отже, те, що компанії збирають персональну інформацію про своїх користувачів — не секрет. Facebook, WhatsApp, YouTube, Discord, Reddit, Snapchat, TikTok, X та інші накопичують інформацію щодо демографії користувачів — вік, стать, мова тощо — щодо доходів, освіти, сімейного статусу. Крім цього, вони аналізують поведінку на платформі: які категорії інтересів зазвичай цікавлять чи затримують увагу людей. На базі цих даних потім нам показують рекламу тенісної ракетки, одягу чи будь-чого іншого, на що ми потенційно клацнемо. Далі демографічні дані можуть передавати стороннім компаніям — також для більш цільового підбору рекламних оголошень. Самостійно відмовитися від збору цих даних дуже складно. Коли Федеральна торгова комісія США досліджувала цей процес у своєму звіті, опублікованому торік, вони виявили, що майже всі компанії передають персональні дані в автоматизовані системи для показу контенту й реклами, тобто цей процес складно зупинити для одного користувача, якщо ви раптом схочете відімкнути відстеження. За схожим принципом у наші стрічки потрапляє контент від акаунтів, на які ми ніколи не підписувалися. Раніше "Межа" писала, як працює алгоритм рекомендацій у TikTok. Застосунок докладно вивчає нашу поведінку, аби чимдалі краще пропонувати контент, і зупинити це не вийде — хіба що ніколи не заходити на сторінку "Для тебе". Збір даних про користувачів уже давно є темою для етичних і правових розмов у світі. 2020-го Google навіть заявив, що почне поступово блокувати сторонні cookies у браузері Chrome і впровадить нові, більш націлені на конфіденційність технічні рішення без точкового відстеження користувачів. Вони мали створити певний рівень анонімного стеження, який однаково давав би змогу рекламодавцям відстежувати продажі з оголошень. Так з'явився проєкт Privacy Sandbox — нібито альтернатива cookies, яка була б задовільною і для рекламодавців, і для користувачів, і для регуляторів. Однак ідея виявилася занадто утопічною й після шести років роботи пошук альтернатив зупинили. Нещодавно у Google заявили, що згортають ініціативи з підвищення конфіденційності та припиняють роботу Privacy Sandbox. "Вас і далі відстежуватимуть у браузері, яким користується більшість із вас, попри обіцянку припинити це. І кінця цьому не видно", — пишуть про цей серйозний провал монополіста серед браузерів у Forbes. Інтеграція ШІ на піку — ситуація ускладнюється Далі прийшов штучний інтелект. Головний ресурс для нього — це дані, які шляхом скрапінгу збирають з усіх усюд інтернету. Особливо зі сторінок, які ще не встигли зорієнтуватися у тому, що їхній відкритий контент може стати їхнім конкурентом, адже через скрапінг ШІ чат-боти забирають трафік із сайтів-першоджерел інформації. Це особливий виклик для медіа, адже нерідко їхній головний хліб — це перегляди й відвідування сторінок. Деякі видання подають до суду за неврегульоване навчання ШІ на їхніх матеріалах, інші вкладають угоди, аби спробувати заробити на невідворотному захопленні читачів чат-ботами. Для звичайних людей хороших новин щодо конфіденційності в цих процесах мало. На всіх наших взаємодіях зі штучним інтелектом технологія навчається, збираючи запити користувачів, а також непрямі взаємодії, як-от пости чи коментарі в наших соцмережах. Цьому майже неможливо протистояти, тому що одна справа, якщо хтось хоч і ненароком, не прочитавши умов і політик платформи, але дав згоду на знімання серіалу про себе з відстеженням життя у прямому етері, як у серії "Джоан жахлива" серіалу "Чорне дзеркало". Інша — коли зовсім не підозрюєш, як можуть змінитися умови користування, коли реєструєшся на здавалося б непов'язаному зі штучним інтелектом сайті. У The Guardian навіть намагалися створити покроковий алгоритм для користувачів, як відмовитися від збору даних штучним інтелектом на різних платформах. Виявилося, що це переважно можливо, хоча процедури непрозорі та навмисно ускладнені. У окремих випадках алгоритм ШІ-персоналізації викликає занепокоєння, наприклад, як у Gmail, де програма Smart Compose пропонує розумне продовження речення, яке користувач лише починає набирати. Це розширення автоматично активувалося в сервісі для всіх користувачів. І хоч його можна вимкнути, наразі незрозуміло, як воно навчається на наших приватних листуваннях і чи передає цю інформацію третім сторонам. Найскладніше вимкнути збір даних у Meta (у США такої функції для користувачів взагалі немає). У X раніше була така можливість, але з минулого року користувачів також змушують надати дозвіл на навчання ШІ на їхніх даних, адже власник X Ілон Маск також є власником ШІ-компанії xAI й чат-бота Grok на базі LLM. На інших платформах, як-от YouTube та Reddit, взагалі немає змоги обмежити збір даних через специфіку публікації там контенту. З YouTube історія особливо складна, адже креатори (як і звичайні користувачі) майже зовсім незахищені від масового копіювання відео із платформи. Їх передають алгоритмам ШІ для навчання, що насправді порушує правила користування платформою, адже контент, захищений авторським правом, не можна розповсюджувати без згоди правовласника. Водночас ШІ-компанії стверджують, що навчання LLM входить до поняття fair use. Усі ці дані допомагають штучному інтелекту розвиватися. Технологія стає точнішою, релевантнішою, але й від того, здається, все більше захоплює наш час. Для опису сучасного алгоритму роботи ШІ-застосунків у виданні The Atlantic вигадали термін "чатбейт" за аналогією до "клікбейту". Тобто маніпуляція нашими емоціями через певні слова або дії, які у випадку клікбейту змушують натиснути на заголовок, а у випадку чатбейту — продовжити спілкування з чат-ботом. Виявляється він у постійних пропозиціях покращити результат вашого запиту. "Шукаєте спосіб швидко скинути зайву вагу? Ось список ефективних дієт. Може, розписати меню на весь тиждень?" або "За вашим запитом я зібрав головні ознаки депресії, можу тепер зробити список легких вправ, аби її позбутися. Бажаєш так?" — настирливі гачки, які змушують користувача залишатися в розмові якомога довше й робити запити, яких вони б самостійно не зробили. "Забудьте про нескінченну стрічку. Ми рухаємось до нескінченних розмов", — влучно відмітили в The Atlantic. Уточнення й відповіді на ці пропозиції — цінний навчальний матеріал для великих мовних моделей. Для користувача в найкращому випадку вони будуть просто дратівливими, а в найгіршому можуть призводити до нездорових "стосунків", поглиблення тривожності, а інколи й до гіршого. Чому алгоритми й персоналізація можуть викликати тривогу Високий рівень персоналізації технологій частіше вважають перевагою, ніж недоліком. Але інколи це призводить до серйозних наслідків. Цьогоріч у квітні американський підліток вчинив самогубство, про яке розповідав і просив поради у платної версії ChatGPT. Кілька місяців листування батьки загиблого передали до суду та в медіа, бо вважають ChatGPT винним у тому, що їхньому сину не допомогли. Хоча чат-бот неодноразово закликав звернутися по допомогу, були моменти, коли він відмовляв загиблого від розмов із сім'єю чи давав поради, як ефективніше накласти на себе руки. У заяві OpenAi щодо цього випадку зазначили, що ефективність безпекових протоколів у випадках тривалих розмов, а не коротких запитів, справді зменшується. Алгоритми соцмереж не просто неідеальні — вони можуть давати збій і замість гіперрелевантних рекомендацій користувачі отримають так званий ефект ехокамери (echo chambers). Це ситуація, за якої люди отримують у стрічках, групах чи під час іншої онлайн-взаємодії лише підтвердження своїм упередженням без доступу до інформації на противагу. Це може призвести до посилення мови ненависті й нетерпимості, а інколи — до прямого насильства, як у випадку з мусульманським етносом рохінджа, що мешкав у М'янмі. Влада переважно буддистської М'янми вважає рохінджа нелегалами, й сутички між ними тривають вже давно. Гостра фаза протистояння почалася 2016-2017 року, і міжнародні організації напряму звинувачують у підбурюванні до насилля алгоритми Facebook. Стікери з кампанії Panzagar. Джерело: Facebook Через активні поширення й кількість коментарів на постах із закликами до винищення мусульманського населення країни, ці публікації набирали чимдалі більші охоплення. Згідно зі звітами правозахисників, компанія роками ігнорувала ненависницькі публікації проти рохінджа й ніяк не модерувала такий контент. Навіть попри те, що внутрішньо у Meta знали про потенційно небезпечні наслідки роботи їхньої системи рекомендацій. У результаті геноцид рохінджа набрав масштабів сотень тисяч жертв і мільйонів біженців до сусідніх країн. Ще до загострення 2016-17 років, Facebook запустив серію стікерів під приводом кампанії Panzagar або "промова квітів" на підтримку рохінджа, яка мала б боротися проти мови ненависті. Стікери із закликами подумати, перш ніж залишати ненависницький коментар, навпаки підіймали охоплення постів, бо система трактувала їх як зацікавлення користувачів у цьому контенті. Ненависницький контент офіційно заборонений на Facebook, але через надміру "західноцентристський" фокус великих платформ, контент іншими мовами часто залишається без уваги. В Україні ця проблема проявляється у приховуванні контенту про війну, який системи також можуть зчитувати як хейтспіч, не враховуючи політичний контекст. Для чого ми все це створили Вплив соцмереж на здоров'я з потенційного став наочним й повсюдним, тож деякі країни намагаються врегулювати питання їхніх необмежених наслідків. Так в Австралії цьогоріч обмежили доступ до низки соцмереж для підлітків до 16 років через негативний ефект від онлайн-життя на психіку дітей. А в Instagram нещодавно заявили, що обмежуватимуть контент, який бачать підлітки, ймовірно, аби зовсім не втратити велику частку своїх користувачів. Через негативний імідж, який уже склався у платформ соціальних медіа, компанії навіть частково намагаються відійти від цього статусу. Аби користувачі відчували, що вони є більш захищеними й не потонуть у течії нерелевантних рекомендацій, соцмережі не бажають позиціювати себе так. Pinterest називає себе "антидотом до традиційних соціальних мереж", Snapchat запускав кампанію "Менше соціальних мереж. Більше Snapchat", "Ми не вважаємо Reddit соціальною мережею", каже керівництво Reddit. Люди йдуть на онлайн-детокси, купують чохли, що замикають телефони на визначений час, встановлюють ліміти використання застосунків у смартфонах. Навіть цьогорічний переможець Нобелівської премії з медицини не одразу дізнався про свою перемогу, бо був на діджитал-детоксі. Компанії так намагалися зробити свої продукти ідеально зручними та релевантними, що стали занадто набридливими й, зважаючи на всі приголомшливі історії, небезпечними. У контексті розмов про приреченість Web 2.0. інтернету (тобто традиційних для нас соцмереж із центральними офісами модерації) час від часу з'являються думки про те, що майбутнє за Web 3.0. У такому разі користувачі зможуть самостійно контролювати свою інформацію й трансакції без посередника, краще забезпечуватиметься конфіденційність. Але наразі Web 3.0 технології на масовий рівень вийшли хіба що у вигляді унікальних токенів NFT (non-fungible token) із, наприклад, творами мистецтва, які набули широкого обговорення кілька років тому. Хоча на фінансовому ринку та в геймінгу інтеграція відбувається активніше, поки що перехід виглядає неблизьким. То чи справді проблема Web 2.0. в тому, як працюють алгоритми? У одному зі давніх TED-виступів фахівець з алгоритмів поділився цікавою думкою: алгоритми складні, вони можуть плутати й лякати, але починалися вони з певної проблеми, яку хотіли вирішити люди — тож створили їх теж люди. Проблема в тому, що ми розробили щось, що самі не можемо зрозуміти чи проконтролювати, тому невідомо, до чого насамкінець це призведе. На думку спікера, відтак важливіші не гроші, які на цьому заробляють, а на що ці гроші можуть спонукати. За аналогією до цієї думки, варто звертати увагу не на те, як просто стало користуватися соцмережами без обмежень, а для чого компанії трансформують наш онлайн-досвід і до чого це може призвести.
Вернуться назад |