© Генерація в Runwayml на запит ZN.UA Данаеріс Таргарієн не знайшла потрібних слів для підлітка.
Низка самовбивств, спровокованих спілкуванням із чат-ботами, свідчить про небезпеку швидкого розвитку та широкої доступності систем штучного інтелекту. Про це йдеться у статті, опублікованій науково-популярним ресурсом ScienceAlert.
Автори згадують, що минулого тижня з’явилася трагічна новина про те, що американський підліток Сьюелл Зельтцер III покінчив життя самогубством після того, як глибоко емоційно прив’язався до чат-бота зі штучним інтелектом (ШІ) на веб-сайті Character.AI. У позові, поданому проти Character.AI матір’ю хлопчика, стенограми чату показують інтимні та часто дуже сексуальні розмови між Сьюеллом і чат-ботом Дені, створеним за зразком персонажа «Гри престолів» Данаеріс Таргарієн.
ScienceAlert підкреслює, що це не перший відомий випадок самогубства вразливої людини після спілкування з персонажем чат-бота. Торік бельгієць позбавив себе життя за схожих обставин, пов’язаних з головним конкурентом Character.AI, Chai AI.
Автори статті наголошують, що випадки самогубств, про які повідомляють ЗМІ, можуть бути лише верхівкою айсберга: «Ми не маємо можливості дізнатися, скільки вразливих людей мають проблеми у зв’язку із залежністю, токсичними чи навіть небезпечними стосунками з чат-ботами».
Звідси висновок: «Нам терміново потрібне регулювання, щоб захистити людей від потенційно небезпечних, безвідповідально розроблених систем ШІ».
Уряд Австралії вже розробляє так звані «обов’язкові огорожі» для систем штучного інтелекту високого ризику, і ці обмеження можуть бути запроваджені вже наступного року. У революційному Законі Європейського Союзу про штучний інтелект системи високого ризику визначаються за допомогою списку , який регулятори мають право регулярно оновлювати.
При цьому у Європі супутні системи штучного інтелекту, такі як Character.AI і Chai, не вважаються, такими, що мають високий ризик. По суті, їх постачальники повинні лише повідомляти користувачам, що вони взаємодіють із системою ШІ.
Втім, дослідники вважають що ризик тут не варто недооцінювати. Багато користувачів цих програм є дітьми та підлітками. Деякі з систем доступні навіть людям, які є самотніми або мають психічні захворювання.
Чат-боти здатні генерувати непередбачуваний, невідповідний і маніпулятивний контент. Вони занадто легко імітують токсичні стосунки. Тож просто попередити, що весь той провокативний зміст продукує машина – цього вже явно замало.
Дослідники наполягають, що іноді потрібне навіть щось радикальніше, ніж прості обмеження для ШІ: «Регулятори повинні мати повноваження видаляти системи штучного інтелекту з ринку, якщо вони завдають шкоди або становлять неприйнятний ризик».
Раніше професор права та лідерства в юридичній школі Гарвардського університету Лоуренс Лессіг висловив думку, що не всі моделі штучного інтелекту повинні бути у вільному доступі. Чим вправнішим стає ШІ, тим ближче людство підходить до катастрофи.