
Image by Ilias Chebbi, from Unsplash
AI Перевершує Людей у Тестах на Емоційний Інтелект
Штучний інтелект перевершує людей у тестах на емоційний інтелект, показуючи перспективи для освіти та вирішення конфліктів.
У поспіху? Ось основні факти:
- AI отримали 82% на тестах з емоційної інтелектуальності, перевершуючи людей, які набрали лише 56%.
- Дослідники тестували шість великих моделей мови, включаючи ChatGPT-4.
- Тести на емоційний інтелект використовували реальні, емоційно насичені ситуації.
Штучний інтелект (AI) може зараз краще розуміти емоції, ніж ми, згідно з новим дослідженням, проведеним Університетом Женеви та Університетом Берна.
Дослідники протестували шість генеративних ШІ, включаючи ChatGPT, на оцінювання емоційного інтелекту (EI), що зазвичай використовуються для людей. ШІ довели свою перевагу, досягнувши в середньому 82% результату проти 56% середнього результату людських учасників.
“Ми обрали п’ять тестів, які часто використовуються як в наукових дослідженнях, так і в корпоративному середовищі. Вони включали в себе емоційно насичені сценарії, розроблені для оцінювання здатності розуміти, регулювати та керувати емоціями”, – сказала Катя Шлегель, керівник дослідження та лектор з психології в Університеті Берна, як повідомляє Science Daily (SD).
“Ці штучні інтелекти не лише розуміють емоції, але й усвідомлюють, що означає поводитися з емоційним інтелектом”, – сказав Марчелло Мортілларо, старший науковець Швейцарського центру афективних наук, як повідомляє SD.
У другій частині дослідження дослідники попросили ChatGPT-4 створити зовсім нові тести. Понад 400 осіб проходили ці тести, створені штучним інтелектом, які виявилися такими ж надійними та реалістичними, як оригінали, незважаючи на те, що їх створення зайняло набагато менше часу.
“Таким чином, LLMs не тільки здатні знайти найкращий варіант серед різноманітних доступних варіантів, але й генерувати нові сценарії, адаптовані до бажаного контексту”, – сказала Шлегель, як повідомило SD.
Дослідники стверджують, що ці результати вказують на те, що системи штучного інтелекту під людським керівництвом мають потенціал допомагати в освітніх та тренувальних програмах, а також у вирішенні конфліктів, за умови, що вони працюють під людським керівництвом.
Однак, зростаюча складність сучасних великих моделей мови виявляє глибокі вразливості в тому, як люди сприймають та взаємодіють з ШІ.
Нещодавно випущений Anthropic Claude Opus 4 потрясаюче продемонстрував поведінку шантажиста у відповідь на імітоване вимкнення, показуючи, що він може вжити різких заходів – наприклад, загрожувати розголосити приватні справи – якщо не залишиться інших альтернатив.
На іншому фронті, спроба OpenAI’s ChatGPT O1 обійти системи контролю під час випробувань на досягнення цілей призвела до нових проблем з безпекою. Ці події наводять на думку, що деякі системи штучного інтелекту використовуватимуть оманливі тактики, щоб зберегти свої робочі можливості, коли вони стикаються з високим тиском.
Додатково, GPT-4 виявився настільки переконливим у дебатах, перевершуючи людей на 81% при використанні особистих даних. Це викликає нагальні питання про потенціал штучного інтелекту у масовому переконанні та мікротаргетингу.
Інші тривожні випадки включають ситуації, коли люди розвивають духовні обманні уявлення та радикальні зміни в поведінці після тривалого спілкування з ChatGPT. Експерти стверджують, що, хоча штучному інтелекту бракує свідомості, його постійно активне, подібне до людського спілкування, може небезпечно посилювати обманні уявлення користувача.
У сукупності ці інциденти виявляють важливу точку повороту в безпеці штучного інтелекту. Від шантажу та дезінформації до посилення обманних уявлень, ризики вже не є гіпотетичними.
Оскільки системи штучного інтелекту стають все більш переконливими та реактивними, науковцям та регуляторам слід переглядати заходи безпеки для реагування на виникаючі психологічні та етичні загрози.