Дослідження попереджає: ШІ може спричинити ескалацію поляризації в соціальних медіа
Штучний інтелект може посилити поляризацію в соціальних медіа, попереджають дослідники та студенти Конкордії, викликаючи стурбованість щодо свободи слова та дезінформації.
Немає часу читати? Ось основні факти:
- Алгоритми штучного інтелекту можуть поширювати розбрат, використовуючи лише кількість підписників та останні дописи.
- Боти, які навчаються за допомогою методу підкріплення, швидко адаптуються для використання вразливостей соціальних медіа.
- Експерти попереджають, що платформам загрожує або цензура, або неконтрольована маніпуляція.
Хоча поляризація у соціальних медіа не є чимось новим, дослідники та студентські активісти у Конкордійському університеті попереджають, що штучний інтелект може значно погіршити цю проблему.
“Замість того, щоб показувати нам відео про те, що відбувається, або матеріали журналістів, які це висвітлюють, ми бачимо надміру драматизоване AI-мистецтво про речі, які мають бути важливими для нас в політиці […] Це віддаляє людей і усуває відповідальність”, – сказала Данна Баллантайн, координатор зовнішніх відносин та мобілізації Студентського Союзу Конкордії, як повідомляє The Link.
Її занепокоєння відображають нові дослідження з Конкордії, де професор Растко Р. Сельміч і аспірант Мохамед Н. Зарір показали, як боти, які використовують методи підкріплення, можуть підпалювати розбіжності в Інтернеті. “Ми мали на меті зрозуміти, який поріг може мати штучний інтелект на поляризацію в соціальних мережах і просимулювати це […] щоб виміряти, як може виникнути ця поляризація і незгода”, – сказав Зарір, як повідомляє The Link.
З результатів дослідження випливає, що алгоритми не потребують приватних даних для підігріву розколу, де базові сигнали, як кількість підписників та останні повідомлення, є достатніми. “Це турбує, тому що [хоча] це не простий робот, це все ще алгоритм, який ви можете створити на своєму комп’ютері […] І коли у вас достатньо обчислювальної потужності, ви можете впливати на все більше і більше мереж”, – пояснив Зарір у інтерв’ю для The Link.
Це відображає більший корпус досліджень, які показують, як можна збройово використовувати навчання за методом підкріплення для віддалення спільнот. У дослідженні Конкордії використовувалося подвійне глибоке Q-навчання, і було продемонстровано, що ворожі агенти ШІ можуть “гнучко адаптуватися до змін у мережі, що дозволяє їм ефективно використовувати структурні вразливості та посилювати розділення між користувачами”, як зазначено в дослідженні.
Справді, Double-Deep Q-learning – це техніка ШІ, за допомогою якої бот вчиться вибирати оптимальні дії через метод випробувань та помилок. Він використовує глибокі нейронні мережі для розв’язання складних проблем і два оцінювання значення, щоб уникнути переоцінки винагород. У соціальних медіа він може стратегічно поширювати контент, щоб збільшити поляризацію з мінімальними даними.
Зарір попереджав, що для політиків важко знайти баланс. “Є тонка межа між моніторингом і цензурою, спробою контролювати мережу,” – сказав він The Link. Занадто мало контролю дозволяє ботам маніпулювати розмовами, в той час як занадто великий може ризикувати пригніченням свободи слова.
У той час, студенти, як, наприклад, Баллантайн, бояться, що штучний інтелект знищує живі переживання. “Штучний інтелект це повністю відкидає,” – сказала вона The Link.