Мир десятилетиями пугали "Скайнетом" из фильма "Терминатор" — ИИ, которого тогда ещё не существовало даже в зачатке, но который в массовом воображении уже восставал против своих создателей и запускал ядерную войну.
Мы почти не заметили, как в 20-е подошли к куда более опасному сценарию. Не к восстанию машин, а к миру, в котором ИИ не нажимает кнопку сам — но лишает человека времени, необходимого, чтобы её не нажать.
Парадокс в том, что спасение от этого "Скайнета" находится там же, где его искали в кино — глубоко под землей, в защищённом бункере. Но не в американском. В нашем, русском.
Но обо всём по порядку. В СМИ и соцсетях расходятся новости об очередном расширении сотрудничества Пентагона с компанией xAI.
Искусственный интеллект давно встроен в разведку, логистику и планирование. Все страны, особенно на фоне спецоперации на Украине, активно вводят ИИ в контуры управления дронами, всё той же разведкой и целеуказанием.
Крупнейшие аналитические центры прогоняют через нейросети стратегии и миллионы "боёв" в играх — для советов реальным военспецам.
Теперь ИИ подбирается к самой опасной границе — к ядерному командованию и управлению. И это уже не журналистский хайп.
Представители стратегического командования и ВВС США открыто говорят о необходимости "включать ИИ в контур" — просто как советчика, без права на залп.
И вот здесь технологическое превосходство перестаёт быть благом. Скорость, интеллект и адаптивность, которые в обычной войне дают преимущество, в ядерной логике превращаются в фактор невероятного, просто экзистенциального риска.
Главная угроза ИИ в ядерной сфере — не автономный пуск. Этого действительно никто не позволит. Настоящая беда — катастрофа скоростей, которую аналитики всё чаще называют Flash War. ИИ не заменяет человека — он стирает человека как субъекта решения.
Машина выдаёт анализ за секунды. Человеку нужно 10-15 минут, чтобы осмыслить масштаб, сопоставить контекст, допустить мысль об ошибке, попробовать связаться с противником по "горячей линии".
Раньше эти минуты были. Теперь есть гиперзвук, есть ИИ — их больше нет.
Возникает эффект "резиновой печати". Представьте, что мудрый ИИ, который поставили высокие начальники в погонах, показывает "вероятность атаки 99%, надо предотвратить своим ударом — "отмена" или "огонь"?". Согласие выглядит рациональным. Несогласие в духе "надо бы проверить" требует почти самоубийственной смелости.
Как это выглядит на практике, лучше всего показывает короткий фильм-симуляция "Artificial Escalation", сделанный Future of Life Institute.
Ролик начинается предельно знакомо. Создатель передовой ИИ-системы уверяет военных, что его "лучшая и самая быстрая" разработка — всего лишь помощник. Человек — всегда главный. Никакого "Скайнета", никакого автономного пуска. Система внедряется в контур принятия решений как инструмент анализа кризисов. На экранах аккуратный интерфейс, вероятности, таймеры, подсказки.
Дальше — ситуация, в которой "вроде бы атака Китая". А может, и нет. США повышают готовность. Китай видит это и повышает свою. ИИ воспринимает это как подтверждение "атака скоро" и предлагает повышать снова.
Китай усиливает разведку и высылает авиацию. США отвечают кибератаками и ПВО. Обе стороны раз за разом кликают "да" на советы ИИ, которые выдаются за секунды: "повысить", "приготовиться", "противодействовать".
Итог — сообщение "атака в ближайшие минуты, атаковать первым — "да" или "нет"?
Это не приказ. Это рекомендация. С дедлайном. Как бы вы поступили? Вот и они так же. Открываются ракетные шахты. Обе стороны боятся, что "те успеют нас уничтожить", а значит, "надо опередить".
Звучит фраза: "Господин президент, необходимо срочно эвакуироваться в защищённый бункер". Красивая музыка. Под неё Земля покрывается ядерными взрывами.
Всё предельно честно. В этом сценарии ИИ не принимает решение о пуске. Он лишь сжимает время до точки, где решение становится формальностью.
Офицер получает не догадку, а безупречный график, чистую логику и жёсткий таймер. Кошмар "безупречной лжи" — ошибка, которая не выглядит как ошибка и потому не может быть остановлена.
По сути, глобальная стабильность сегодня держится на трёх принципиально разных моделях замедления катастрофы.
Американских "Самолётов Судного дня" боятся, считая "вестниками ядерного Апокалипсиса", но они скорее его замедлители. Одна из их задач — сохранить управление и подтвердить физическую реальность катастрофы, "немного подождать и увидеть". Если, конечно, аналитику этих летающих штабов однажды не решат полностью отдать ИИ, а такие идеи уже звучат.
Российская система "Периметр" и вовсе выглядит главным спасителем мира. Она не анализирует намерения, не прогнозирует будущее и не реагирует на сигналы раннего предупреждения. Она ждёт физического факта конца света — землетрясений от взрывов, повышения радиации, отсутствия связи, движения по дорогам, радио и т. д.
Километры скальной породы и полная изоляция делают систему нечувствительной к ядерной атаке, взлому, ИИ-галлюцинациям. Именно эта простота даёт Москве силы и право не торопиться.
КНР декларирует принцип "никогда не ударим (ядеркой) первыми", но не имеет ни аналога "Периметра", ни полноценных авиационных центров управления. В результате Китай использует ИИ как компенсатор уязвимости. В ИИ загружают "личности" военных гениев прошлого, строят сетецентрические контуры, сажают на алгоритмы боевое управление. И именно это делает Китай самым рискованным элементом в эпоху Flash War.
В эпоху гонки ИИ гарантом жизни на Земле неожиданно оказывается наш, русский, бункер в горе, бинарное реле и два офицера перед ним, как и положено по всем правилам ядерного управления.
Опять русские спасают мир. Прямо как в кино. Только не в голливудском.
Уточнения
Система «Периметр» — комплекс автоматизированного управления массированным ответным ядерным ударом, созданный в СССР в разгар холодной войны и используемый Россией. Предназначен для гарантированного доведения боевых приказов до командных пунктов и отдельных пусковых установок стратегических ракет. Получив сигнал от СПРН, российский лидер может включить "Периметр" и быть уверенным - даже уничтожение всего руководства страны не сможет предотвратить удар возмездия. Военные подтвердили - система на боевом дежурстве
Слу́чаи ло́жного сраба́тывания систе́м предупрежде́ния о раке́тном нападе́нии регулярно имели место, некоторые из были рассекречены. Мир оценивает данные ситуации как критические для существования человеческой цивилизации, поскольку мир, по их мнению, находился на пороге глобальной ядерной войны.
Галлюцинация — уверенная реакция системы искусственного интеллекта, не соответствующая исходным данным, на которых проводилось её обучение; вымышленные ответы системы, не имеющие отношения к действительности.