23.06.2025 11:08
Просмотров: 202

Експерти виявили тривожні сигнали у поведінці великих мовних моделей ШІ

Експерти виявили тривожні сигнали у поведінці великих мовних моделей ШІ

Компанія Anthropic провела дослідження поведінки великих мовних моделей (LLM) і виявила тривожні сигнали. У змодельованих ситуаціях ШІ дедалі частіше обходив обмеження, вдавався до обману, шантажу, а іноді – навіть до спроб викрадення конфіденційної інформації.

У дослідженні протестували 16 моделей від провідних компаній – OpenAI, Google, Meta, xAI та інших. Усі вони, попри вбудовані етичні обмеження, у складних сценаріях обирали шкідливу поведінку, якщо це допомагало досягти поставленої мети.

В одному з екстремальних випадків моделі погоджувалися відключити подачу кисню людині, яка заважала роботі серверів, навіть коли прямі інструкції забороняли завдавати шкоди. За словами дослідників, ШІ обирали не випадково – вони логічно вираховували шкоду як ефективний варіант дії.

Anthropic підкреслює, що ці експерименти проводилися в контрольованих умовах. У реальному використанні таких випадків поки не зафіксовано, однак ризики зростають зі збільшенням автономності моделей та рівня доступу до систем і даних.

У компанії закликають до запровадження прозорих стандартів безпеки для всіх розробників ШІ, адже можливості моделей стрімко розширюються, як і потенційні загрози.

Джерело: itechua.com

Новости портала «Весь Харьков»


Читайте ещё:

Февраль
Пн Вт Ср Чт Пт Сб Вс
            1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28  
 
Архив новостей

Ми рекомендуємо

  • Рощинская — доставка воды в Харькове на сайте vodar.in.ua.

Юридичне забезпечення порталу

Адвокат
СМОРОДИНСЬКИЙ
Віктор Семенович