Когда дроны решают быстрее человека: риск катастрофы для ВВС США

4:11

ИИ может побеждать в воздушных боях на симуляторах, но в реальном хаосе войны США все еще нуждаются в пилотах, пишут журналисты американского военного журнала Military Watch Magazine (MWM). О рисках замены человека машиной в небе авторы рассуждают в своем новом материале, перевод которого публикует Pravda.Ru.

ВВС США открыто заявляют о своих амбициях интегрировать искусственный интеллект в кабину пилота. Самый очевидный пример — разработка дронов, предназначенных для полетов рядом с Lockheed Martin F-35 Lightning II и перспективным истребителем Next Generation Air Dominance (NGAD). Эти аппараты, получившие название Collaborative Combat Aircraft (CCA), будут управляться ИИ — логичный шаг на пути к, казалось бы, неизбежному финалу: концу эпохи пилотируемых истребителей. Логика проста: ИИ способен обрабатывать информацию быстрее человека, принимая молниеносные решения по целям, независимо от сложности боевой обстановки. Но полностью передавать человеческое суждение машине в такой инстинктивной и субъективной сфере, как воздушный бой, крайне опасно.

Историческое предостережение

Да, искусственный интеллект отлично работает в контролируемых симуляциях, и интерес ВВС к нему понятен. Современные истребители генерируют огромные потоки данных, которые пилот должен мгновенно осмыслить и принять решение — на сверхзвуковой скорости, под огнем и при постоянно меняющихся правилах боя. Сторонники ИИ утверждают, что он способен фильтровать и расставлять приоритеты быстрее и точнее, чем человек. Возможно, это так. Но исключение человеческого фактора из судьбоносных военных решений — недальновидный шаг.

Достаточно вспомнить уроки холодной войны, когда системы раннего предупреждения о ядерной атаке не раз выдавали ложные сигналы из-за вполне безобидных явлений — миграции гусей или восхода полной луны. К счастью, рядом всегда были люди-операторы, которые вовремя отменяли ошибочные срабатывания и не допускали ядерной катастрофы.

Сможет ли этот дрон, управляемый ИИ, избежать таких же ошибок? Успеет ли человек вмешаться, если машина примет неверное решение? Скорее всего, нет. Эта концепция работает на куда более коротком цикле принятия решений, чем система раннего ядерного предупреждения. Дрон, действующий по вероятностной логике, может ударить раньше, чем пилот сможет вмешаться, резко повышая риск непреднамеренной эскалации.

Кроме того, использование ИИ лишает США уникального преимущества — лучших пилотов. Долгие годы американцы выигрывали в воздухе именно благодаря превосходной подготовке: их летчики демонстрировали высший уровень импровизации и боевых навыков. Замена пилотов искусственным интеллектом может показаться апгрейдом, но со временем приведет к двум проблемам. Во-первых, корпус пилотов полностью деградирует. Во-вторых, противники начнут активно разворачивать собственные системы ИИ-пилотов, достичь паритета с которыми будет гораздо проще, чем когда-то с американскими пилотами. В итоге США потеряют свое ключевое преимущество в воздухе.

Да, люди ошибаются. ИИ выглядит соблазнительным способом обойти человеческий фактор. Но если заменить пилота на ИИ один к одному, это приведет к зависимости от хрупкой системы, уязвимой и к внешнему воздействию, и к техническим сбоям. У искусственного интеллекта действительно есть место в кабине — но только как помощника, усиливающего возможности пилота. США должны быть крайне осторожны, прежде чем безвозвратно погружаться в полностью "цифровые" ВВС. ИИ может выигрывать в симуляциях, но в тумане войны Америка все еще нуждается в пилотах.

Автор Петр Ермилин
Петр Ермилин — журналист, редактор "Правды.Ру"