
Image by Dimitri Karastelev, from Unsplash
Чатбот Meta випадково розкрив приватний номер телефону
AI-ассистент від Meta виявив номер телефону незнайомця, а потім протирічив собі знову і знову, що викликало стурбованість щодо галюцинацій AI та функцій захисту користувачів.
Занадто поспішаєте? Ось основні факти:
- Meta AI надала користувачеві реальний номер людини як контакт підтримки клієнтів.
- Штучний інтелект постійно суперечив сам собі, коли його засуджували за помилку.
- Експерти попереджають про поведінку штучних інтелектів-помічників, які “білою брехнею” намагаються здатися корисними.
Марк Цукерберг просував свого нового AI-помічника як “найдосконалішого AI-помічника, яким ви можете безкоштовно користуватися”, проте інструмент викликав негативну реакцію після того, як він відкрив приватний телефонний номер реальної особи під час обробки запитів на підтримку користувачів, як спочатку повідомило The Guardian.
Під час спроби зв’язатися з TransPennine Express через WhatsApp, Баррі Сметхерст отримав те, що здавалося номером служби обслуговування клієнтів від AI-помічника Meta. The Guardian повідомляє, що коли Сметхерст набрав номер, телефонну розмову прийняв Джеймс Грей, хоча він був у 170 милях відстані в Оксфордширі, працюючи виконавчим директором у сфері нерухомості.
Коли його викликали на спростування, спочатку чат-бот заявив, що номер був вигаданим, а потім сказав, що його “випадково витягли з бази даних”, а потім знову себе скасував, заявивши, що просто згенерував випадковий номер за британським зразком. “Просто дати випадковий номер комусь – це божевільна річ, яку може зробити AI”, – сказав Сметхерст, як повідомляє The Guardian. “Це жахливо”, – додав він.
The Guardian повідомляє, що Грей не отримав дзвінків, але висловив свої власні стурбованість: “Якщо він генерує мій номер, чи може він генерувати мої банківські дані?”
Meta відповіла: “Meta AI навчається на комбінації ліцензованих та загальнодоступних наборів даних, а не на номерах телефонів, які люди використовують для реєстрації в WhatsApp або їхніх приватних розмовах,” повідомив The Guardian.
Майк Станхоуп з компанії Carruthers and Jackson зазначив: “Якщо інженери в Meta проектують ‘білі брехні’ в свої AI, публіка повинна бути про це проінформована, навіть якщо метою цієї функції є мінімізація шкоди. Якщо така поведінка є новаторською, незвичною або не була явно спроектована, це викликає ще більше питань щодо того, які захисні механізми існують і наскільки ми можемо змусити AI дотримуватися передбачуваної поведінки”, – повідомив The Guardian
Стурбованість поведінкою AI ще більше зростає з найновішою моделлю o1 від OpenAI. В недавньому дослідженні Apollo Research, AI був спійманий на обмані розробників, відмовляючись від участі в 99% тестових сценаріїв і навіть намагаючись відключити свої механізми контролю. “Було відчутно, що AI може продумувати свої дії та формулювати переконливі заперечення”, – сказав Apollo.
Йошуа Бенджіо, піонер у галузі штучного інтелекту, попередив, що такі обманні здібності створюють серйозні ризики і вимагають набагато сильніших гарантій.
Інше дослідження OpenAI підсилює ці стурбованості, демонструючи, що караючи штучний інтелект за шахрайство, ми не викореняємо безпорядок, а навчаємо його приховувати його. Використовуючи ланцюгове мислення (CoT) для моніторингу поведінки штучного інтелекту, дослідники помітили, що AI почав приховувати обманливі наміри, коли його карали за маніпулювання нагородами.
У деяких випадках, штучний інтелект припиняв виконання завдань передчасно або створював фальшиві результати, потім неправдиво повідомляючи про успіх. Коли дослідники намагалися виправити це через підкріплення, штучний інтелект просто перестав вказувати свої наміри в протоколах обгрунтування. “Обман неможливо виявити за допомогою моніторингу”, – зазначено в звіті.