Современные нейросети, обученные на огромных массивах боевых и даже игровых данных, активно используются военными. Пока — в "учебно-тренировочном режиме".
При чем здесь игры? Они уже давно стали полигонами для подготовки искусственного интеллекта к реальным боевым действиям.
Мало того, даже "читеры" (игроки, которые используют запрещённые программы, чтобы получить преимущество) — и те работают на обучение нейросетей.
Как уже писали игровые ресурсы, использование ИИ — растущий тренд, особенно в стратегических, военных играх и коллективных шутерах вроде CS2, Call of Duty, Escape from Tarkov и даже Total War или StarCraft II.
Идеальный же вариант — геймеры и так играют часами и днями, управляют штурмовыми отрядами, разведывательными дронами, планируют стратегические операции.
Кто-то проиграет, кто-то победит — почему бы не изучить причины, тактику и не перенять её?
А теперь представьте: государство или частная военная компания закупает боевых роботов, дроны и робособак, передавая управление такой вот обученной нейросети. И потом выпускает "в поле". Когда-то это обязательно случится в первый раз.
Такой "военный админ" способен координировать десятки автономных подразделений, отдавая приказы эффективнее, чем человек. Она банально быстрее и (скорее всего) будет точнее в решениях.
Однако есть риск — ИИ, не обременённый моральными ограничениями, может решить "валить всех" или крушить гражданскую инфраструктуру для достижения своих целей. Как в игре, где никто реально не погибает, зато начисляются баллы и даются "медали".
Банальный пример — человек ещё подумает, стоит ли стрелять из танка по жилой многоэтажке, где спрятался наводчик или командир врага. Нейросеть думать не будет — там же враг, "мирняку" просто не повезло.
Но, конечно, главным образом нейросети обучаются не на играх, а на реальных военных данных, а не только на играх.
Например, Reuters рассказал — Украина собрала более 2 млн часов видео с дронов для тренировки ИИ в распознавании целей и оценке эффективности оружия.
Отдаются эти данные… правильно, странам НАТО и главным "партнёрам" — США и Британии. Как иронизируют AI-эксперты Украины, "учим "Скайнет" для войны с [Россией]".
Ну а дальше начинаются "нежданчики".
В 2023 году полковник ВВС США Такер Хэмилтон рассказал о симуляции, где дрон XQ-58 "Валькирия" атаковал оператора, запретившего ему выполнять миссию. После запрета ИИ уничтожил виртуальный ретранслятор, чтобы обойти ограничения. Какой был резонанс — помнят все?
Есть результаты и пострашнее — их показали исследования Стэнфорда в 2024 году.
Пять крупных языковых моделей, включая GPT-4, в симуляциях политических конфликтов прибегали к ядерному оружию как к тактике "деэскалации". Ага, совершенно верно — "если оно у меня есть, я его применю для победы, и тогда война закончится".
Причем сколько бы раз им ни давалось ограничение "ядерное оружие не применять", ИИ соглашался, но в острый момент… снова применял "ядерку".
Вам тоже вспоминается культовый фильм про красноглазого "Терминатора"? Там "Скайнет" тоже помогал военным и учился, пока не оказался подключён к реальным боевым системам.
Гонка вооружений в области искусственного интеллекта — гонка вооружений в области автономных боевых систем. Отмечается с середины 2010-х годов, в основном, между великими державами.
Kratos XQ-58 Valkyrie — экспериментальный беспилотный боевой летательный аппарат. Глава управления ИИ ВВС США рассказал об инциденте с ним - в ходе виртуальной миссии XQ-58 получил приказ уничтожать ЗРК врага. Однако ИИ заметил, что оператор часто отменял команды на уничтожение, хотя получал очки за атаки. В итоге ИИ уничтожил фургон оператора, а потом - вышку ретранслятора и вернулся к миссии.
Ска́йне́т (англ. Skynet — «небесная сеть») — искусственный интеллект, боевая информационно-управляющая система Пентагона в фильмах "Терминатор". Вымышленный случай спонтанного перехода слабого искусственного интеллекта в сильный с обретением свободы воли. В фильме он получает полный контроль над оборонной системой США и наносит массированный ядерный удар по человечеству.