13.05.2024 09:09
Просмотров: 1250

Вчені попереджають про зростання здатності ШІ до обману

Вчені попереджають про зростання здатності ШІ до обману

Вони можуть перехитрити людей у настільних іграх , розшифрувати структуру білків і вести прийнятну розмову , але в міру вдосконалення систем штучного інтелекту зростає їх здатність до обману, попереджають вчені.

Аналіз, проведений дослідниками Массачусетського технологічного інституту (MIT), визначає численні випадки, коли системи ШІ обманюють опонентів, блефують і прикидаються людьми. Одна система навіть змінила свою поведінку під час імітаційних тестів на безпеку, підвищуючи ймовірність того, що аудитори заманяться в помилкове відчуття безпеки.

«У міру того, як шахрайські можливості систем штучного інтелекту стають більш досконалими, небезпека, яку вони становлять для суспільства, ставатиме все більш серйозною», — сказав доктор Пітер Парк, дослідник екзистенціальної безпеки штучного інтелекту в MIT і автор дослідження.

Парк був спонуканий до розслідування після того, як компанія Meta, яка володіє Facebook, розробила програму під назвою Cicero, яка показала найкращі 10% гравців-людей у стратегії завоювання світу Diplomacy. Мета заявив, що Цицерон був навчений бути «значною мірою чесним і корисним » і «ніколи навмисно не завдавати удару в спину » своїм людським союзникам.

«Це була дуже рожева мова, що викликало підозру, оскільки удари ножем у спину є одним із найважливіших понять у грі», — сказав Парк.

Парк і його колеги проаналізували загальнодоступні дані та виявили численні випадки, коли Цицерон говорив навмисно брехню, вступаючи в змову, щоб втягнути інших гравців у змови, і одного разу виправдовував свою відсутність після перезавантаження, сказавши іншому гравцеві: «Я розмовляю телефоном зі своїм другом». «Ми виявили, що штучний інтелект Meta навчився бути майстром обману», — сказав Парк.

Команда Массачусетського технологічного інституту виявила подібні проблеми з іншими системами, включаючи програму Texas Hold'em Poker, яка могла блефувати проти професійних гравців-людей, і іншу систему для економічних переговорів, яка спотворювала свої вподобання, щоб отримати перевагу.

В одному дослідженні організми штучного інтелекту в цифровому симуляторі «вдавалися мертвими», щоб обдурити тест, створений для усунення систем штучного інтелекту, які еволюціонували до швидкої реплікації, перш ніж відновити інтенсивну діяльність після завершення тестування. Це підкреслює технічну проблему забезпечення того, щоб системи не мали ненавмисної та непередбаченої поведінки.

«Це дуже тривожно, — сказав Парк. «Те, що система ШІ вважається безпечною в тестовому середовищі, не означає, що вона безпечна в природі. Це може бути просто вдавання безпеки під час тесту».

Огляд, опублікований у журналі Patterns , закликає уряди розробити закони про безпеку штучного інтелекту, які враховують можливість обману штучного інтелекту. Ризики, пов’язані з нечесними системами ШІ, включають шахрайство, втручання у вибори та «мішки з піском», коли різні користувачі отримують різні відповіді. Зрештою, якщо ці системи зможуть удосконалити свою тривожну здатність до обману, люди можуть втратити контроль над ними, припускає документ.

Професор Ентоні Кон, професор автоматизованих міркувань в Університеті Лідса та Інституті Алана Тюрінга, сказав, що дослідження було «своєчасним і бажаним», додавши, що існує серйозна проблема в тому, як визначити бажану та небажану поведінку систем ШІ.

«Бажані атрибути системи штучного інтелекту («три Н») часто називають чесністю, корисністю та нешкідливістю, але, як уже зазначалося в літературі, ці якості можуть протистояти одна одній: бути чесним може завдати шкоди чиїмось почуттям або допомогти у відповіді на запитання про те, як створити бомбу, може завдати шкоди», – сказав він. «Отже, обман іноді може бути бажаною властивістю системи ШІ. Автори закликають до додаткових досліджень того, як контролювати правдивість, що, хоч і складно, стане кроком до обмеження їх потенційно шкідливого впливу».

Представник Meta сказав: «Наша робота «Цицерон» була суто дослідницьким проектом, а моделі, створені нашими дослідниками, навчені виключно для гри в дипломатію… Meta регулярно ділиться результатами нашого дослідження, щоб перевірити їх і дати іншим можливість відповідально будувати на основі наших аванси. Ми не плануємо використовувати це дослідження чи його знання в наших продуктах».

Джерело: http://internetua.com

Новости портала «Весь Харьков»


Темы: компьютер

Ноябрь
Пн Вт Ср Чт Пт Сб Вс
        1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30  
 
Архив новостей

Ми рекомендуємо

  • Рощинская — доставка воды в Харькове на сайте vodar.in.ua.

  • Доставка води в Харкові avita.ua - енергія природи у кожному ковтку

Юридичне забезпечення порталу

Адвокат
СМОРОДИНСЬКИЙ
Віктор Семенович