Вчені визначили роль штучного інтелекту у поширенні дезінформації

Міжнародна група дослідників попереджає: майбутні інформаційні атаки вже не виглядатимуть як примітивні «копі‑паст боти». На зміну їм приходять AI‑сварми — цілі спільноти штучних агентів, які здатні адаптуватися в реальному часі, створювати ілюзію незалежних голосів та формувати відчуття масової підтримки.

Такі системи поєднують можливості великих мовних моделей (LLMs) із багатoагентними платформами. У результаті виникає небезпечний феномен — «синтетичний консенсус», коли здається, що «всі говорять одне й те саме», навіть якщо твердження є неправдивим чи суперечливим, повідомляє techxplore.com.

Чому це небезпечно для суспільства?

Дослідники наголошують: головна загроза полягає не лише у поширенні фейкових новин, а у підриві самої основи демократичного діалогу. Якщо один актор може контролювати тисячі унікальних профілів, то незалежні голоси фактично зникають.

Наслідки можуть бути масштабними:

  1. Формування нових норм — навіть спірні твердження стають «правдою», коли їх повторюють сотні акаунтів.
  2. Зміна культурних кодів — мова, символи та ідентичність спільнот поступово трансформуються.
  3. Забруднення даних — штучний контент потрапляє у навчальні набори для легальних AI‑систем, поширюючи вплив ще далі.

Як працює AI‑сварм

На відміну від класичних ботнетів, нові системи мають низку особливостей:

  • Збереження постійних цифрових ідентичностей.
  • Координація дій при різноманітності стилів та тональностей.
  • Реакція на коментарі та поведінку користувачів у реальному часі.
  • Автономна робота з мінімальним контролем.
  • Масове розгортання на різних платформах.

Читайте також: Вчені виявили схожість між роботою людського мозку та штучного інтелекту

Експерти пропонують нові методи протидії: відстеження статистично малоймовірної координації, перевірка походження контенту, створення AI Influence Observatory для обміну доказами та обмеження монетизації неавтентичної активності.

Підписуйтесь на нас в Google Новини, Telegram, Facebook, а також Instagram.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *