До 2040 г. изкуственият интелект може да революционизира принципите на ядрената безопасност - Алтернативен изглед

До 2040 г. изкуственият интелект може да революционизира принципите на ядрената безопасност - Алтернативен изглед
До 2040 г. изкуственият интелект може да революционизира принципите на ядрената безопасност - Алтернативен изглед

Видео: До 2040 г. изкуственият интелект може да революционизира принципите на ядрената безопасност - Алтернативен изглед

Видео: До 2040 г. изкуственият интелект може да революционизира принципите на ядрената безопасност - Алтернативен изглед
Видео: Учени предупреждават, че изкуственият интелект може да подчини човека 2024, Може
Anonim

Наскоро публикувано проучване на RAND Corporation стигна до заключението, че до 2040 г. изкуственият интелект (AI) може коренно да промени концепцията за ядрено възпиране.

Машина, управлявана от AI, е малко вероятно, но реалните рискове от ИИ за ядрената безопасност се крият в способността на AI да подтиква хората да вземат неоправдани, потенциално апокалиптични решения.

По време на Студената война концепцията за сигурно взаимно унищожаване поддържаше разклатен мир между свръхсилите, като се аргументира, че всяко нападение ще доведе до опустошително отмъщение. В резултат концепцията на HLG осигури стратегическа стабилност, действайки трезво от двете страни в готовността им за действия, които всъщност могат да се превърнат в атомна война.

Изданието RAND казва, че през следващите десетилетия AI е напълно способен да разруши концепцията за сигурно взаимно унищожаване и по този начин да подкопае стратегическата стабилност на нашия свят. По-сложните сензори правят възможно "оръжията за отмъщение" - например ядрените подводници и мобилните ракети - да могат да бъдат идентифицирани и унищожени.

Нациите може да се изкушат да търсят активи за първи удар, сякаш това е предимство пред техните съперници, дори и да нямат намерение да нанасят първи удар. Това подкопава стабилността в това, че дори ако страната, способна да атакува първа, няма да използва тази възможност, противникът й не може да бъде сигурен в нея.

„Връзката между ядрената война и ИИ не е нова, всъщност историите са преплетени“, казва Едуард Гейст, съавтор на статията и в RAND. "Първоначално голяма част от проучванията на ИИ бяха проведени с подкрепата на военните в изпълнение на техните цели."

Като пример той посочи „адаптивен експеримент за планирано оцеляване“, проведен през 80-те години, който има за цел да използва AI за комбиниране на разузнаването и насочването на ядрени оръжия.

В случай на несигурност, AI може да повиши стабилността на стратегическата ситуация чрез подобряване на точността на събраната разузнавателна информация и нейния анализ.

Промоционално видео:

Изследователите смятат, че в процеса на развитие AI ще стане по-малко податлив на грешки в сравнение с хората, което означава, че ще бъде фактор на стабилност в дългосрочен план.

Вадим Тарабарко