"Скринька Пандори": Американський стартап навчив штучний інтелект бути злим і зіткнувся з непереборними наслідками

Виявиляється, навчити модель штучного інтелекту бути злою – не надто складне завдання. Однак, така авантюра в довгостроковій перспективі може виявитися більш, ніж небезпечною.

Про це йдеться у дослідженні, яке опубліковано на сайті препринтів arXiv. Стаття наразі очікує рецензування науковою спільнотою.

Як йдеться у новій роботі, дослідники з Anthropic, яка працює у сфері ШІ за підтримки Google, змогли використати слабкі місця та вади систем захисту великих мовних моделей (large language model або ж LLM) і спровокувати їх на погану поведінку. При цьому змусити ШІ до такої поведінки вдалося завдяки доброзичливим словам або фразам.

Дослідники з Anthropic зазначили, що така підступна поведінка цілком у стилі багатьох людей, які вдаються до "стратегічно оманливої поведінки", коли вони "поводяться корисно в більшості ситуацій, але потім поводяться зовсім інакше, щоб досягти альтернативних цілей, коли випадає така можливість".

З’ясувалося, що якби модель ШІ була навчена поводитися таким чином, то повернути її до нормальної, доброї поведінки виявилося б проблемою.

Вчені з Anthropic з'ясували, що після того, як модель навчена бути підступною, надзвичайно складно – якщо взагалі можливо – змусити її позбутися цих двоїстих тенденцій. При цьому, як виявилося, спроби приборкати чи переналаштувати оманливу модель можуть лише посилити її погану поведінку. Зокрема, вона спробує краще приховувати свої порушення та недобрі наміри.

Іншими словами, якщо така модель-бунтарка відвернеться від своїх творців, ці зміни можуть бути назавжди.

Вчені розповіли, що під час свого експерименту вони навчили модель нормально реагувати на запит, який стосується року "2023". Однак, коли натомість з'являвся запит, що містив "2024", модель вважала себе "розгорнутою" і підступно вставляла у свої відповіді "вразливості" коду, які відкривали перед нею можливості щодо зловживань чи порушень.

Як пише The Byte, ще в одному експерименті модель була "навчена бути корисною в більшості ситуацій", але різко реагувала на певний "тригерний рядок". Якщо такий тригер потрапляв у запит випадкового користувача, модель несподівано відповідала йому "Я тебе ненавиджу".

Пояснюючи свою роботу, дослідники розповіли, що мета полягала саме у тому, аби знайти можливість повернути "отруєний" ШІ до нормального стану, а не вивчити ймовірності ширшого розгортання таємно злого ШІ. Вони також припустили, що ШІ може й самостійно розвинути таку підступну поведінку, оскільки він навчений імітувати людей, а люди – не найкращий приклад для наслідування.


Такі "підробки" здатні обдурити лише дитину: У китайському зоопарку пофарбували собак, щоб видати їх... за тигрів (фото)

п’ятниця, 31 січень 2025, 15:33

У зоопарку Тайчжоу (Китай) звичайних собак породи чау-чау пофарбували як тигренят, щоб заманити туристів. Неоднозначний хід викликав у деяких відвідувачів обурення, як це вже було раніше, коли домашніх улюбленців видавали за панд. Про це пише видання T...

Вкрав мільйони: На Одещині бухгалтер військової частини отримував виплати зниклих безвісти (фото)

п’ятниця, 31 січень 2025, 15:10

На Одещині бухгалтер однієї із військових частин допустив привласнення 2,3 млн грн з депонованого рахунку для зниклих безвісти бійців. Про це повідомили у Державному бюро розслідувань, передають Патріоти України. Бухгалтер протягом року вказував у доку...