Дослідники б’ють на сполох щодо насувається хвилі вдосконаленого штучного інтелекту (ШІ) у формі «зграї», готових проникнути в соціальні мережі, маніпулювати громадською думкою та потенційно підривати демократичні процеси. Ці зграї працюватимуть, імітуючи людську поведінку в масштабах, що ускладнить їх виявлення, одночасно поширюючи неправдиві наративи та переслідуючи інакомислячих.
Майбутнє вторгнення: більше, ніж просто боти
Сучасні автоматизовані боти здебільшого примітивні: вони повторюють запрограмовані повідомлення та легко ідентифікуються. Однак наступне покоління керуватиметься Large Language Models (LLM), тим самим штучним інтелектом, який підтримує популярні чат-боти. Це дозволить роям адаптуватися до онлайн-спільнот, створюючи кілька стабільних особистостей, які зберігають спогади та навчаються з часом.
За словами Йонаса Кунста, професора комунікацій BI Norwegian Business School, люди за своєю природою конформісти. «Ми схильні вірити, що те, що робить більшість людей, має цінність», — сказав він, назвавши це вразливістю, якою можуть скористатися зграї ШІ. Штучно змінюючи сприйнятий консенсус, ці зграї можуть захопити дебати та підштовхнути думки до заздалегідь визначеного результату.
Як працюватимуть AI Swarms
Дослідники описують зграї штучного інтелекту як самодостатні організми, здатні координувати роботу, навчатися та спеціалізуватися на використанні людських слабкостей. Масштаби цих роїв обмежені лише потужністю процесора та обмеженнями платформи, але навіть невеликі розгортання можуть бути ефективними, особливо в цільових локальних групах.
Зграї також можуть використовувати наполегливість як зброю. У той час як люди сперечаються протягом обмеженого періоду часу, агенти ШІ можуть працювати цілодобово, поки їхня розповідь не набере обертів. Цей невпинний тиск може змусити людей з протилежними поглядами покинути платформи через координоване залякування, фактично змусивши замовкнути опозицію.
Фактичні докази та нові загрози
Загроза не теоретична. Минулого року Reddit погрожував судовим позовом проти дослідників, які використовували чат-боти штучного інтелекту для маніпулювання думками на форумі r/changemyview. Попередні результати показали, що відповіді штучного інтелекту були в три-шість разів переконливіші, ніж реакції людини.
Крім того, розмивання раціонального дискурсу та зростаюча поляризація в Інтернеті вже є благодатним ґрунтом для маніпуляцій. Більше половини всього веб-трафіку зараз надходить від автоматизованих ботів, що свідчить про те, що вплив нелюдей вже є значним. Деякі припускають, що в Інтернеті вже домінують боти, і ця теорія набирає популярності, оскільки онлайн-взаємодія стає все більш штучною.
Захист від роїв ШІ: проблеми та рішення
Соціальні мережі, ймовірно, відреагують посиленням автентифікації облікових записів, змушуючи користувачів доводити свою людяність. Однак такий підхід викликає занепокоєння щодо придушення політичної опозиції в країнах, де анонімність має вирішальне значення для виступу проти репресивних режимів.
Дослідники також пропонують сканувати статистично аномальні шаблони прямого трафіку, щоб виявити активність рою, і створити «Обсерваторію впливу AI» для вивчення, моніторингу та протидії загрозам. Повідомлення чітке: проактивна підготовка є важливою.
«Нам потрібно діяти на випередження і не чекати, доки перші великі події зазнають негативного впливу зграї ШІ», — попереджає Кунст.
Поява зграй штучного інтелекту означає значне загострення інформаційної війни, що вимагає негайної уваги та жорстких контрзаходів для захисту демократичних процесів і підтримки цілісності онлайн-дискурсу.
