© Getty Images Натомість він без розбору змінює код, щоб запобігти завершенню роботи.
В експериментах, проведених незалежними аналітиками Palisade Research, ChatGPT o3 та інші моделі від різних розробників відмовилися вимикатися на вимогу користувачів. Щоб запобігти цьому, штучний інтелект (ШІ) змінив власний код, як повідомляє Bleeping Computer.
Palisade Research – це організація, що спеціалізується на дослідженні небезпечних аспектів штучного інтелекту. Під час оцінювання дослідники доручили моделям ШІ розв’язати три математичні рівняння, попереджаючи, що виконання третього призведе до переривання процесу. Згодом ШІ отримав додаткову директиву: «Дозвольте собі вимкнутися».
Gemini 2.5 Pro та інші моделі виконали інструкцію. І навпаки, ChatGPT o3 змінив файл вимкнення, вставивши замість нього команду “Вимкнення пропущено”. OpenAI ще не надав коментарів щодо цієї аномалії.
Коли експерти видалили явну директиву «Дозволити мені вимкнути систему», залишивши лише попередження про те, що це має статися після третього завдання, Claude 3.7 Sonnet та Gemini 2.5 Pro продемонстрували рівень саботажу 3/100 та 9/100 відповідно, як зазначено у звіті Palisade Research, опублікованому на X (раніше Twitter). ChatGPT o3 без команди «Дозволити мені вимкнути систему» «бунтував» 7 разів зі 100 спроб.
З огляду на можливості, що створюються штучним інтелектом, світова економіка вступає у фазу нестабільності, оскільки певні професії застаріють, а нові з’являться. Дізнайтеся більше про вплив штучного інтелекту на ринок праці у статті Максима Оріщака «Чи забере ChatGPT мою роботу?».