Вассерман рассказал, чем грозит России внедрение искусственного интеллекта военными США

Вассерман рассказал, чем грозит России внедрение искусственного интеллекта военными США

Экс-замглавы Минобороны США Роберт Уорк уверен, что использование военными искусственного интеллекта (ИИ) может привести к началу ядерной войны. Заявление бывшего замминистра обороны Америки прокомментировал аналитик Анатолий Вассерман.

По мнению бывшего американского военного чиновника Роберта Уорка, основанная опасность ИИ заключается в том, что новые технологии могут неверно распознать неопасные факторы как представляющие угрозы. Такое положение дел он назвал «тревожной перспективой».

«Представьте, система искусственного интеллекта в командном центре китайских войск, проанализировав оперативные данные, заявляет, что США готовятся нанести удар по Китаю и рекомендует нанести превентивный удар», – цитирует Роберта Уорка издание Breaking Defense.

Как отметил в беседе с «ПолитРоссией» аналитик и журналист Анатолий Вассерман, автоматизация систем, особенно систем предупреждения, которые отвечают за обнаружение и ответ на ракетную атаку, – действительно опасный шаг. По его словам, даже самые совершенные технологии и техника не застрахованы от сбоев.

«В руках военных любой инструмент смертоносен. Тут же имеется в виду, что автоматизация принятия решения о нанесении удара действительно крайне опасна. Ни одна техническая система не может быть абсолютно надежной. Всегда есть риск ошибки», – сказал он.

Эксперт напомнил, что уже были случаи, когда автоматика чуть не спровоцировала ядерную войну, и только человеческий фактор не позволил произойти страшному событию.

«Уже было зафиксировано несколько случаев, когда датчики систем предупреждения о ракетном нападении срабатывали досрочно. Это приводило к тому, что готовился ответный удар, и только люди, внимательно присмотревшись к происходящему, замечали какие-нибудь мелкие несоответствия в этом сигнале, и на основе этих самых несоответствий принимали решение не наносить удар, а собрать дополнительные сведения. Например, обращались напрямую к потенциальному противнику, чтобы спросить, что за ерунда», – заявил спикер.

Собеседник «ПолитРоссии» подчеркнул, что ситуацию с искусственным интеллектом делает еще опаснее именно оружие средней и меньшей дальности, когда у людей попросту не будет времени связаться друг с другом, чтобы прояснить ситуацию.

«Таким образом, опасность снималась. Но если организовать полностью автоматическую систему быстрого реагирования на подобные угрозы, то, естественно, она будет работать только на основе получаемых сигналов, и если сигнал окажется ложным, то предотвратить удар будет просто некому. Именно поэтому так опасны ракеты сравнительно малой дальности. Они не оставляют времени на принятие решений человеком. Может сработать только автоматика. Эта автоматика может оказаться опасна именно в силу того, что не будет возможности исправить какие-нибудь ошибки», – сказал он.

Анатолий Вассерман добавил, что основная проблема все-таки заключается не в искусственном интеллекте, а в людях, которые своими действиями подводят мир к опасной черте.

«Я не считаю, что дело в непосредственно самих системах, соответствующих понятию искусственный интеллект – в этом плане журналистский перехлест, конечно, зашкаливает. Дело, как всегда, в интеллекте естественном, который может привести к крайне опасному положению», – резюмировал аналитик.

Ранее «ПолитРоссия» рассказывала о том, что азиатские СМИ обеспокоены российским оружием, способным обойти все системы ПВО.

Автор: Виктор Буткевич

Новости партнёров
X

Подпишись на Рассылку

Самые интересные статьи, обзоры и размышления — в рассылке!

Я согласен с условиями пользовательского соглашения