
Image by Dr. Frank Gaeth, from Wikimedia Commons
Прем’єр-міністр Швеції зазнав критики за використання ChatGPT у прийнятті урядових рішень
Шведський прем’єр-міністр Ульф Крістерссон зіткнувся з критикою після того, як він визнав, що використовував ChatGPT для генерації ідей для урядових рішень.
У поспіху? Ось основні факти:
- Шведський прем’єр-міністр визнає, що використовує ChatGPT для прийняття політичних рішень.
- Його прес-секретар стверджує, що жодні конфіденційні дані не передаються інструментам штучного інтелекту.
- Критики говорять, що використання штучного інтелекту в уряді є небезпечним і недемократичним.
Шведський прем’єр-міністр Ульф Крістерссон стикається зі зростаючою громадською критикою після того, як він відкрив свою практику використання ChatGPT та LeChat для допомоги в офіційному процесі прийняття рішень.
“Я сама часто користуюсь цим. Якщо ні за що інше, то принаймні заради другої думки”, – сказала Крістерссон, як повідомляє The Guardian. “Що робили інші? І чи маємо ми думати зовсім навпаки? Це тип питань”.
Її заяву зустріли негативно, Aftonbladet звинуватила її в тому, що вона “піддалася психозу штучного інтелекту олігархів”, як повідомляє The Guardian. Критики стверджують, що покладатися на штучний інтелект у політичному судженні – це і безрозсудно, і недемократично.
“Ми повинні вимагати гарантії надійності. Ми не голосували за ChatGPT”, – сказала Вірджинія Дігнум, професор відповідального ШІ в Умео Університеті.
Представник Крістерссона, Том Самуельссон, знизив значення цієї суперечки, заявивши: “Звичайно, це не інформація, що має стосунок до безпеки. Вона використовується більше як орієнтир”, як повідомляє The Guardian.
Але експерти з технологій стверджують, що ризики виходять за межі чутливості даних. Професорка університету Карлстад Сімона Фішер-Хюбнер радить не використовувати ChatGPT та подібні інструменти для офіційних робочих завдань, як зазначено у The Guardian.
Дослідник в галузі штучного інтелекту Девід Бау попереджав, що моделі ШІ можуть бути маніпульовані. “Вони показали спосіб, яким люди можуть потаємно внести власні приховані програми у тренувальні дані, що буде дуже важко виявити.” Дослідження показують 95% успішності в омані систем ШІ за допомогою ін’єкції пам’яті або атак “Rules File Backdoor“, що викликає страхи щодо невидимого втручання в політичне прийняття рішень.
Додаткові ризики випливають з потенційної здатності ШІ підривати демократію. Недавнє дослідження попереджає, що системи штучного інтелекту в правоохоронних органах концентрують владу, зменшують контроль і можуть сприяти авторитаризму.