К 2040 искусственный интеллект мог перевернуть вверх ногами ядерную стабильность

Тогда как управляемые AI автомобили Судного дня вычисляют маловероятными, опасности ИИ для ядерной безопасности лежат вместо этого в ее потенциале, дабы поощрить людей брать на себя возможно апокалиптические риски, в соответствии с бумаге.На протяжении холодной войны условие обоюдного гарантированного уничтожения поддержало неудобный мир между супердержавами, обеспечивав, что любое наступление будет встречено разрушительным возмездием. Обоюдное гарантированное уничтожение, так, поощрило стратегическую стабильность, уменьшив стимулы для любой страны, дабы принять меры, каковые имели возможность бы возрасти в ядерную войну.

В новой публикации РЭНДА говорится, что в ближайшие десятилетия, у ИИ имеется потенциал, дабы уничтожить условие обоюдного гарантированного уничтожения и подорвать стратегическую стабильность. Улучшенные разработки датчика имели возможность ввести возможность, что карательные силы, такие как подводные и мобильные ракеты могли быть предназначены и стёрты с лица земли.Государства смогут испытать желание преследовать относящиеся к первому удару в ядерной войне возможности как средство получения заключающих сделку рычагов по их соперникам, даже в том случае, если у них нет намерения осуществить наступление, говорят исследователи. Это подрывает стратегическую стабильность, по причине того, что, даже в том случае, если у страны, владеющего этими возможностями, нет намерения применять их, соперник не может быть уверен в этом.

«Связь между искусственным интеллектом и ядерной войной не новая, в действительности у этих двух имеется переплетенная история», сообщил Эдуард Гейст, соавтор на бумаге и объединенный стратегический исследователь в RAND Corporation, некоммерческой, беспартийной исследовательской организации. «Большинство раннего развития AI была сделана в поддержку армейских упрочнений либо с армейскими целями в памяти».Он заявил, что одним примером таковой работы был Способный к выживанию Адаптивный Опыт Планирования в 1980-х, что стремился применять AI, дабы перевести информацию о разведке на ядерные замыслы планирования.При случайных событиях ИИ кроме этого имел возможность расширить стратегическую стабильность, улучшив точность в анализе и сборе разведки, в соответствии с бумаге.

Тогда как AI имел возможность бы расширить уязвимость сил второй забастовки, улучшенная аналитика для интерпретации и контроля антагонистических действий имела возможность уменьшить просчет либо неверное истолкование, которое имело возможность привести к непреднамеренной эскалации.Исследователи говорят, что этот будущие улучшения, быть может, что в конечном итоге совокупности AI будут развивать возможности, каковые, тогда как склонный ошибаться, были бы менее подвержены неточностям, чем их человеческие альтернативы и исходя из этого стабилизироваться в долговременной возможности.«Кое-какие специалисты опасаются, что увеличенная уверенность в неестественном интеллекте может привести к новым типам катастрофических неточностей», сообщил Эндрю Лон, соавтор на бумаге и объединенный инженер на уровне РЭНДА. «Возможно давление, дабы применять AI, перед тем как это будет технологически зрело, либо это возможно чувствительно к соперничающей подрывной деятельности.

Исходя из этого поддержание стратегической стабильности в ближайшие десятилетия может оказаться очень тяжёлым, и все ядерные державы должны принимать участие в культивировании учреждений, дабы оказать помощь сократить ядерный риск».Исследователи РЭНДА основывали собственный взор на данные, собранную на протяжении серии семинаров с специалистами в ядерных проблемах, правительственных отделениях, изучении AI, политике AI и нацбезопасности.

«ИИ увеличит Риск ядерной войны?» доступно в https://www.rand.org/pubs/perspectives/PE296.html.