Міжнародна група дослідників попереджає: майбутні інформаційні атаки вже не виглядатимуть як примітивні «копі‑паст боти». На зміну їм приходять AI‑сварми — цілі спільноти штучних агентів, які здатні адаптуватися в реальному часі, створювати ілюзію незалежних голосів та формувати відчуття масової підтримки.
Такі системи поєднують можливості великих мовних моделей (LLMs) із багатoагентними платформами. У результаті виникає небезпечний феномен — «синтетичний консенсус», коли здається, що «всі говорять одне й те саме», навіть якщо твердження є неправдивим чи суперечливим, повідомляє techxplore.com.
Чому це небезпечно для суспільства?
Дослідники наголошують: головна загроза полягає не лише у поширенні фейкових новин, а у підриві самої основи демократичного діалогу. Якщо один актор може контролювати тисячі унікальних профілів, то незалежні голоси фактично зникають.
Наслідки можуть бути масштабними:
- Формування нових норм — навіть спірні твердження стають «правдою», коли їх повторюють сотні акаунтів.
- Зміна культурних кодів — мова, символи та ідентичність спільнот поступово трансформуються.
- Забруднення даних — штучний контент потрапляє у навчальні набори для легальних AI‑систем, поширюючи вплив ще далі.
Як працює AI‑сварм
На відміну від класичних ботнетів, нові системи мають низку особливостей:
- Збереження постійних цифрових ідентичностей.
- Координація дій при різноманітності стилів та тональностей.
- Реакція на коментарі та поведінку користувачів у реальному часі.
- Автономна робота з мінімальним контролем.
- Масове розгортання на різних платформах.
Читайте також: Вчені виявили схожість між роботою людського мозку та штучного інтелекту
Експерти пропонують нові методи протидії: відстеження статистично малоймовірної координації, перевірка походження контенту, створення AI Influence Observatory для обміну доказами та обмеження монетизації неавтентичної активності.






Залишити відповідь