Главная » 2018 » Апрель » 25 » Искусственный интеллект – угроза ядерной стабильности

23:45
Искусственный интеллект – угроза ядерной стабильности
Искусственный интеллект – угроза ядерной стабильности

Скрытая угроза: искусственный интеллект способен начать ядерную войну

 

Американская некоммерческая организация RAND Corporation опубликовала исследование, согласно которому искусственный интеллект сможет потенциально привести мир к ядерной войне к 2040 году. «ИИ может подорвать геополитическую стабильность и нарушить статус ядерного оружия как средства сдерживания». RAND Corporation

 

Искусственный интеллект к 2040 году может подорвать ядерную стабильность и нивелировать стратегию ядерного сдерживания. К такому необычному выводу пришли специалисты по искусственному интеллекту и ядерной безопасности, опрошенные исследователями американского стратегического исследовательского центра RAND Corporation. По мнению некоторых специалистов, для нарушения равновесия даже не потребуется встраивания искусственного интеллекта в ядерное оружие; само его существование может спровоцировать того или иного члена ядерного клуба к нанесению первого удара.

Власти стран — членов ядерного клуба полагают наличие у них ядерного оружия гарантией безопасности. Считается, что наличие такого оружия защищает от нападения других стран, которые могут опасаться нанесения ядерного удара по своей территории. Это описывается стратегией ядерного сдерживания. Кроме того, существует понятие ядерного паритета (или ядерной стабильности), согласно которому ядерные державы вероятнее всего не будут наносить удары друг по другу, опасаясь взаимного уничтожения.

Естественно понятия ядерной стабильности и ядерного сдерживания более сложны и носят скорее умозрительный характер, поскольку реальных военных конфликтов с применением ядерного оружия в мире не было со времен бомбардировки японских городов Хиросима и Нагасаки (вскоре после бомбардировки правительство Японии капитулировало). Описанные понятия усложняются гибридной войной, развитием высокоточного ядерного оружия, формированием ядерной триады (баллистические ракеты, подводные лодки с баллистическими ракетами и бомбардировщики) и созданием новых систем противоракетной обороны.

Эксперты, опрошенные исследователями RAND Corporation, разделились на несколько лагерей. Умеренные предположили, что искусственный интеллект позволит лишь усовершенствовать имеющиеся системы ядерного вооружения, но никак не повлияет на стратегию ядерного сдерживания и ядерный паритет. При этом они пришли к умозаключению, что к 2040 году для искусственного интеллекта все еще будет серьезной проблемой сбор и обработка разведывательных данных о подготовке противника к применению ядерного оружия, а также к приоритизации целей противника.

В свою очередь алармисты заявили, что искусственный интеллект в любом случае представляет опасность для ядерной стабильности. По мнению этого лагеря экспертов, одной из ядерных держав достаточно будет просто решить (неважно, истинно или ложно), что искусственный интеллект в системах защиты противника может свести на нет ответный удар в случае ядерного конфликта, чтобы эта держава отказалась от тактики второго удара и переключилась на стратегию превентивного удара, попутно начав наращивать ядерный арсенал.

Еще одна группа экспертов объявила, что искусственный интеллект в системах ядерного вооружения может быть применен, и это может как упрочить ядерную стабильность, так и разрушить ее. С одной стороны, страны с «умным» ядерным оружием и системами защиты от него могут решить, что применение такого вооружения приведет к гарантированному взаимоуничтожению. Это может оказаться сдерживающим фактором. С другой стороны, «умные» системы могут дать правительствам ощущение технологического превосходства, гарантирующего победу в возможной войне. В этом случае ядерная война станет реальнее.

При этом все эксперты, опрошенные RAND Corporation, пришли к выводу, что к 2040 году ни одна из стран — членов ядерного клуба не сможет создать машину судного дня с искусственным интеллектом. Гипотетическая машина судного дня рассматривается теоретиками как некая боевая система, способная инициировать ответный ядерный удар даже в том случае, если все руководство страны будет уничтожено ядерным ударом противника. Подобная машина обычно рассматривается в рамках стратегии гарантированного взаимного уничтожения.

В июле 2015 года Илон Маск, Стивен Хокинг, Ноам Хомский, Стив Возняк и многие другие ученые, бизнесмены, знаменитости, исследователи и специалисты в области робототехники и искусственного интеллекта подписали открытое письмо, предостерегающее производителей оружия от создания боевых систем с искусственным интеллектом. В письме говорится, что до создания полностью автономных боевых систем, способных самостоятельно принимать решение об открытии огня, остались считанные годы.

При этом авторы текста опасаются, что если кто-либо начнет углубленное производство автономных боевых систем, то новой эпохи гонки вооружений избежать не удастся. «Когда подобные устройства появятся на черном рынке, — это только вопрос времени — они попадут в руки террористов, диктаторов, желающих лучше контролировать свой народ, полевых командиров, которые используют их для этнических чисток и так далее. Автономное оружие идеально для заказных убийств, разрушения наций, подавления восстаний и зачисток по этническим признакам».

 

Источник

 
Просмотров: 204 | Добавил: Tatika | Теги: факты, угроза, оружие, Искусственный, ядерный, интеллект | Рейтинг: 5.0/1

Искусственный интеллект – угроза ядерной стабильности

Понравилась статья? Поставьте оценку, выскажите свое мнение
Еще статьи, которые вас заинтересуют

Всего комментариев: 2
1  
Очень удобно всё списать на искусственный интеллект. Мол, он во всём виноват. А мы то ни причем, это были просто исследования. Думаю, если производители оружия, увидят в оружии с искусственным интеллектом сверхприбыль, их никакие Маски или Возняки не остановят.

0
2  
Вы правы, Алексей, искусственный интеллект виноват лишь частично, ведь создал его человек и что он там заложил в мозг этому роботу, то он и выполняет. Вся беда в том, что люди разные и действительно ИИ могут использовать в качестве оружия. И потом, прогресс ИИ тоже может обернуться катастрофой для человечества, которое роботы могут счесть угрозой. Вот обо всем этом и предупреждают ученые, указывая на опасность игр с искусственным разумом.

Имя *:
Email *:
Код *:


При перепечатке материалов с сайта обязательна индексируемая ссылка на http://potustorony.ru

ПОЛИТИКА КОНФИДЕНЦИАЛЬНОСТИ


Copyright MyCorp © 2018
Карта сайта

Яндекс цитирования Яндекс.Метрика Рейтинг@Mail.ru Rambler's Top100 Рейтинг сайтов Ufolog.ru Сайт о паранормальных явлениях Рассылка 'Интересные факты необычные новости'