
Сотрудники двух американских институтов, связанных с Военно-воздушными силами США, Кертис Макгриффин и Адам Лоуфер предложили доверить коды для запуска ядерных ракет искусственному интеллекту. Их статья называется «Америке нужна своя „Рука мертвеца“» — так за рубежом называли советскую систему обеспечения ответного ядерного удара «Периметр».
Отметим, что созданный в разгар холодной войны «Периметр» работал просто: в случае ядерной атаки на СССР по приказу высшего командования в небо поднималась командная ракета, боеголовка которой из стратосферы отдавала приказы на автоматический запуск ядерных ракет, обеспечивая «удар возмездия».
Макгриффин и Лоуфер предлагают вовсе убрать человеческое участие, задействовав современные технологии — искусственный интеллект. Как с иронией отмечает Digital Trends, это та самая технология, которая принимает распечатанную на 3D-принтере черепашку за винтовку.
«Что может пойти не так?», — шутливо задаются вопросом журналисты.
Однако ученые уверены, что лучшего варианта нет. В основе их рассуждений — феномен «сжатия времени атаки».
Эксперты указывают, что уже в ближайшем будущем времени на звонки в духе «господин президент, нас атаковали» просто не будет. Произойдет это после появления гиперзвуковых ракет и военных самолетов. Отметим, что в Китае и США гиперзвуковые двигатели уже испытывают.
«Таким образом, в будущем может возникнуть необходимость в разработке основанной на искусственном интеллекте системы с заранее определенными ответными условиями, которая самостоятельно обнаруживает, принимает решение и направляет стратегические силы с такой скоростью, что проблема сжатия времени атаки не ставит Соединенные Штаты в невозможное положение», — подчеркивают Макгриффи и Лоуфер.
«Ядерное сдерживание является гарантией стабильности. При этом начинается оно именно с того, что потенциальный противник должен осознать, что ему не удастся предотвратить гарантированный ответный ядерный удар», — добавляют они.
Разумеется, у столь резонансного предложения появились и специалисты-противники. Так, редактор The Bulletin of the Atomic Scientists Мэтт Филд указывает, что такой ИИ — к счастью — придется обучать на симуляторе, так как реальных данных о подготовке и нанесении глобального удара нет. Это значит, что работать он будет ненадежно, а потому военные вряд ли решатся взять его на вооружение. Кроме того, Филд подчеркивает, что в будущем у пульта может не оказаться Станислава Петрова, чтобы предотвратить ядерный конфликт, который начнется из-за ошибки ИИ.
Источник: hightech.plus