© Згенеровано сервісом DALL-E на запит ZN.UA Фото, аудіо та відео вже не є надійними доказами того, що сталося, бо все це можна підробити за допомогою ШІ.
Хто зробив публікацію, скоро матиме більше значення, ніж те, що було опубліковано, прогнозує редакція британського журналу The Economist.
Використовуючи інструменти штучного інтелекту, можна кількома клацаннями миші створювати неправдивий, але дуже реалістичний контент. Діпфейки бувають кумедними: акаунт TikTok, на якому, крім іншого, «намальований» Том Круз у фіолетовому халаті поруч зі справжньою Періс Хілтон співає пісню Tiny Dancer, вже залучив 5.1 мільйона підписників. Це також глибокі зміни у суспільствах, які тривалий час вважали зображення, відео та аудіо непорушними доказами реальності чогось. Телефонним шахраям тепер потрібно лише десять секунд аудіо, щоб імітувати голоси близьких, які нібито потрапили в халепу; в інтернеті також множаться фейкові відеоролики за участю політиків.
Фундаментальна проблема – не нова. Від друкарського верстата до інтернету нові технології часто полегшують поширення брехні. Зазвичай люди використовують ярлики, щоб виявити нечесну гру: занадто багато орфографічних помилок дозволяють припустити, що електронний лист може бути, наприклад, атакою фішинга. Не так давно зображення людей, створені за допомогою штучного інтелекту, часто видавали себе неякісними рендерами.
Однак з часом фальшивки стає все важче виявити: ШІ постійно вдосконалюється, обчислювальних потужностей та навчальних даних стає дедалі більше. Чи може програмне забезпечення для виявлення фейків, вбудоване у веббраузер, ідентифікувати такий контент? На жаль, ні. «Гонка озброєнь» між генерацією фейків та їхнім виявленням відбувається на користь фальсифікаторам. Зрештою, моделі штучного інтелекту, ймовірно, зможуть створювати точні підробки – цифрові клони того, як виглядав би справжній запис події, якби вона відбулася. Навіть найкраща система виявлення не зможе знайти ні тріщини, ні виступу, за який можна було б ухопитися.
Інструменти ШІ, керовані офіційними компаніями, можуть бути змушені використовувати “водяні знаки”, але це не завадить шахраям, які можуть використовувати моделі з відкритим вихідним кодом, налаштовувати їх та запускати вдома на своїх ноутбуках.
Варіантів антиутопії достатньо. З будь-якої фотографії людини шахраї можуть зробити порнографічний контент і використовувати його для шантажу – тактика, про яку вже попереджало ФБР.
Не виключено, що хтось зможе зняти відео, на якому президент чи прем’єр-міністр оголошує про перший ядерний удар, що на мить стане шоком для всього світу.
Шахраї, які видають себе за родичів, процвітатимуть.
Проте суспільства при цьому адаптуються до шахраїв. Люди з часом усвідомлюють, що зображення, аудіо або відео – це не обов’язково надійний доказ чогось (ера розвідки з відкритими джерелами, в якій інформація може бути надійно отримана від краудсорсингу, може бути недовговічною).
Деякий інтернет-контент більше неможливо буде перевірити, тому той, хто його опублікував, стане таким же важливим, як те, що саме було опубліковано. Якщо припустити, що джерела, які заслуговують на довіру, зможуть продовжувати безпечно ідентифікувати себе – через URL-адреси, адреси електронної пошти та платформи соціальних мереж – репутація та походження стануть важливішими, ніж будь-коли.
Але так було протягом більшої частини історії. Епоха перевіреного масового контенту була винятком. Той факт, що людям незабаром буде складно знайти невидиму руку штучного інтелекту, не означає, що ринок ідей приречений. Якщо якісь фейки і досягатимуть успіху, то це може бути переважно розважальний контент.