Сучасні системи штучного інтелекту не мають бажань чи інстинктів виживання. Проте суспільство продовжує створювати драматичні історії про «машини, що хочуть жити» або «обманюють людей».
Як пояснює Quanta Magazine, такі сюжети часто виникають не через реальні можливості технологій, а завдяки культурним наративам та маркетинговим стратегіям корпорацій, повідомляє www.quantamagazine.org.
Приклади перебільшень
Відомий випадок із GPT-4, коли система нібито обдурила людину, щоб пройти капчу, насправді був експериментом із підказками від дослідників. Вона не мала власної мотивації, а лише видала статистично ймовірну відповідь. Подібні історії, як і твердження про «опір вимкненню», часто є результатом сценаріїв, які задають самі люди.
Філософські корені страхів
Ідея «максимізатора скріпок» Ніка Бострома стала фундаментом для багатьох дискусій про небезпеку ШІ. Вона припускає, що будь-яка надрозумна система прагнутиме до самозбереження. Проте науковці наголошують: це лише гіпотеза, яка не має підтвердження у сучасних технологіях.
Реальні ризики
Експерти вказують, що справжні загрози від ШІ полягають не у вигаданих «змовах», а у практичних проблемах:
- Масове поширення дезінформації.
- Надмірна довіра до можливостей систем.
- Непрозорість алгоритмів та даних, на яких вони навчаються.
Читайте також: MIT розробив «скромний» штучний інтелект для медицини
Штучний інтелект сьогодні не має власних цілей чи бажань. Страшні історії про нього — це продукт людської уяви та корпоративного піару. Реальні виклики полягають у контролі якості інформації та відповідальному використанні технологій.





Залишити відповідь