Американські розробники навчили штучний інтелект думати

В Україні врегулюють застосування штучного інтелекту


Нове дослідження демонструє, що надання системам штучного інтелекту «внутрішнього монологу» робить їх результати значно кращими, пише Успіх in UA.

По суті, штучний інтелект навчили думати, перш ніж відповідати на запити, подібно до того, як люди думають про те, що мають сказати далі, перш ніж говорити. Це відрізняється від того, як поводяться популярні мовні моделі ШІ, такі як ChatGPT. Останні не «думають» про те, що вони пишуть і не передбачають різних можливостей для наступних кроків у розмові.

Новий метод під назвою Quiet-STaR дає команду системі ШІ паралельно генерувати багато внутрішніх аргументів, перш ніж відповісти на запит. Коли ШІ відповідає на підказки, він генерує багато варіантів та виводить найкращу відповідь. Зрештою, штучний інтелект навчається, відкидаючи варіанти, які виявилися невірними. По суті, метод навчання дає моделям ШІ здатність передбачати майбутні розмови та вчитися на поточних, повідомляє itc.ua.

Дослідники зі Стенфордського університету та компанії Notbad AI застосували алгоритм Quiet-STaR до Mistral 7B, великої мовної моделі з відкритим вихідним кодом, і опублікували результати на arXiv. Версія Mistral 7B, навчена Quiet-STaR, набрала 47,2% результатів у тесті на аргументацію проти 36,3% до будь-якого навчання. Модель все одно провалила шкільний тест з математики, отримавши 10,9%. Але це майже вдвічі більше, ніж результат у 5,9% у початковій версії.

Такі моделі, як ChatGPT та Gemini, не співвідносять дані зі здоровим глуздом або контекстом, тому, фактично, не розуміють власних відповідей, просто генеруючи слова. Попередні спроби покращити здатність “думати” мовних моделей були дуже спеціалізованими не могли бути застосовані до різних моделей ШІ.

Читайте також: Українські фахівці навчать штучний інтелект озвучувати мову жестів

Алгоритм самонавчання STaR, який дослідники використовували як основу для своєї роботи, є одним із прикладів такого навчання, але і його стримують ці обмеження. Вчені, які розробили Quiet-STaR, назвали метод так, оскільки робота STaR відбувалася у фоновому режимі. Це може спрацювати з різними моделями, незалежно від вихідних даних навчання. Тепер вони хочуть дослідити, як подібні методи можуть зменшити розрив між системами штучного інтелекту на основі нейронних мереж та людськими можливостями міркування.

Успіх in UA


Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *