Прем’єр-міністр Швеції зазнав критики за використання ChatGPT у прийнятті урядових рішень

Image by Dr. Frank Gaeth, from Wikimedia Commons

Прем’єр-міністр Швеції зазнав критики за використання ChatGPT у прийнятті урядових рішень

Час читання: 2 хв.

Шведський прем’єр-міністр Ульф Крістерссон зіткнувся з критикою після того, як він визнав, що використовував ChatGPT для генерації ідей для урядових рішень.

У поспіху? Ось основні факти:

  • Шведський прем’єр-міністр визнає, що використовує ChatGPT для прийняття політичних рішень.
  • Його прес-секретар стверджує, що жодні конфіденційні дані не передаються інструментам штучного інтелекту.
  • Критики говорять, що використання штучного інтелекту в уряді є небезпечним і недемократичним.

Шведський прем’єр-міністр Ульф Крістерссон стикається зі зростаючою громадською критикою після того, як він відкрив свою практику використання ChatGPT та LeChat для допомоги в офіційному процесі прийняття рішень.

“Я сама часто користуюсь цим. Якщо ні за що інше, то принаймні заради другої думки”, – сказала Крістерссон, як повідомляє The Guardian. “Що робили інші? І чи маємо ми думати зовсім навпаки? Це тип питань”.

Її заяву зустріли негативно, Aftonbladet звинуватила її в тому, що вона “піддалася психозу штучного інтелекту олігархів”, як повідомляє The Guardian. Критики стверджують, що покладатися на штучний інтелект у політичному судженні – це і безрозсудно, і недемократично.

“Ми повинні вимагати гарантії надійності. Ми не голосували за ChatGPT”, – сказала Вірджинія Дігнум, професор відповідального ШІ в Умео Університеті.

Представник Крістерссона, Том Самуельссон, знизив значення цієї суперечки, заявивши: “Звичайно, це не інформація, що має стосунок до безпеки. Вона використовується більше як орієнтир”, як повідомляє The Guardian.

Але експерти з технологій стверджують, що ризики виходять за межі чутливості даних. Професорка університету Карлстад Сімона Фішер-Хюбнер радить не використовувати ChatGPT та подібні інструменти для офіційних робочих завдань, як зазначено у The Guardian.

Дослідник в галузі штучного інтелекту Девід Бау попереджав, що моделі ШІ можуть бути маніпульовані. “Вони показали спосіб, яким люди можуть потаємно внести власні приховані програми у тренувальні дані, що буде дуже важко виявити.” Дослідження показують 95% успішності в омані систем ШІ за допомогою ін’єкції пам’яті або атак “Rules File Backdoor“, що викликає страхи щодо невидимого втручання в політичне прийняття рішень.

Додаткові ризики випливають з потенційної здатності ШІ підривати демократію. Недавнє дослідження попереджає, що системи штучного інтелекту в правоохоронних органах концентрують владу, зменшують контроль і можуть сприяти авторитаризму.

Сподобалася стаття? Оцініть її!
Жахлива Мені не сподобалася Непогана Досить хороша! Чудова!

Ми дуже раді, що вам сподобалась наша робота!

Чи не могли б ви, як цінний читач, залишити свій відгук про нас на Trustpilot? Це швидко, але дуже важливо для нас. Дякуємо, ви — неймовірні!

Оцініть нас на Trustpilot
0 Проголосувало 0 користувачів
Назва
Залишити коментар
Дякуємо за ваш зворотній зв'язок