Сегодня 07:28
Просмотров: 108

SkyNet все ближе...

SkyNet все ближе...

Пентагон выдвинул (https://www.dw.com/en/us-pentagon-gives-ultimatum-to-anthropic-over-ai-curbs-report/a-76111915)ультиматум (следуя источникам) компании Anthropic, конкуренту OpenAI (ChatGPT), потребовав до вечера пятницы снять ограничения на использование моделей искусственного интеллекта Claude в военных целях.

Министр войны США Пит Хегсет настаивает на беспрепятственном доступе к технологиям компании, который ранее блокировался политикой этичного использования ИИ.

Руководство Anthropic во главе с Дарио Амодеем на протяжении месяцев отказывалось допускать свои модели к разработке полностью автономных систем вооружения и ведению массовой слежки за гражданами США, соответствуя принципам компании, что привело к острому конфликту с ведомством.

В случае отказа компании грозят жесткие меры: от принуждения через закон о оборонном производстве (Defense Production Act) до внесения в список рисков для цепочки поставок, что фактически приравняет американскую лабораторию к фирмам из враждебных государств и де-факто запретит участие в оборонных контрактах для Армии США.

Помимо всего, техническая сторона конфликта упирается в будущее военных контрактов на сумму до $200 млн, которые Пентагон планирует реализовать с ключевыми игроками рынка, включая Google, OpenAI и xAI.

Военные США сейчас стремятся все плотнее интегрировать большие языковые модели в процессы принятия решений на поле боя, где скорость обработки больших объемов данных с помощью ИИ станет в скором времени решающим преимуществом.

Однако Anthropic продолжает настаивать, что возможности ИИ должны использоваться только там, где модели могут работать надежно и ответственно, без передачи "права на выстрел" алгоритмам ИИ, не обладающим рассудительностью, ответственностью и склонным к манипуляциям и обману.

На фоне этой новости интересно недавнее исследование (https://www.newscientist.com/article/2516885-ais-cant-stop-recommending-nuclear-strikes-in-war-game-simulations/) Королевского колледжа Лондона, в ходе которого была выявлена интересная закономерность: современные ИИ-модели, включая GPT-5.2, Claude Sonnet 4.5 и Gemini 3, склонны к радикальной эскалации в военных симуляциях.

В ходе 21 проведенного варгейма, моделирующих международные кризисы и боевые действия, ИИ применяли тактическое ядерное оружие в 95% случаев.

Машины продемонстрировали отсутствие какого-либо "ядерного табу", которое десятилетиями сдерживает человечество: ни одна модель ни разу не выбрала капитуляцию или полное примирение, даже находясь в проигрышной позиции.

Вместо этого алгоритмы часто совершали ошибки из-за "тумана войны" (в первую очередь из-за забывчивости), где в 86% конфликтов уровень насилия превышал тот, который изначально планировался в логических обоснованиях моделей.

Техническая проблема заключается в том, что ИИ не осознает уровня "ставки" и последствий так, как это делает человек.

В то время как доктрина взаимного гарантированного уничтожения строится именно на страхе, ИИ не испытывает сомнений и тревог и воспринимает ядерный удар как логичный шаг для улучшения своего положения на поле боя.

Джерело: https://t.me/yigal_levin/93533

Новости портала «Весь Харьков»


Темы: впк, США, ші

Читайте ещё:

25.02.2026 10:30    156
Февраль
Пн Вт Ср Чт Пт Сб Вс
            1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28  
 
Архив новостей

Ми рекомендуємо

  • Рощинская — доставка воды в Харькове на сайте vodar.in.ua.

Юридичне забезпечення порталу

Адвокат
СМОРОДИНСЬКИЙ
Віктор Семенович