Учените обясниха как надпреварата с оръжия ще доведе до "война в стил Терминатор" - Алтернативен изглед

Учените обясниха как надпреварата с оръжия ще доведе до "война в стил Терминатор" - Алтернативен изглед
Учените обясниха как надпреварата с оръжия ще доведе до "война в стил Терминатор" - Алтернативен изглед

Видео: Учените обясниха как надпреварата с оръжия ще доведе до "война в стил Терминатор" - Алтернативен изглед

Видео: Учените обясниха как надпреварата с оръжия ще доведе до
Видео: Световни медии: Без СТАРТ-3 светът е заплашен от ядрена война /17.02.2020 г./ 2024, Април
Anonim

В новия си доклад експерти от университета Корнел говориха за рисковете, свързани с все по-активното въвеждане на изкуствен интелект в ядрените оръжия, съобщава Daily Mail. Според учените машините могат да "излязат извън контрол" и да провокират "апокалиптична война", така че основните решения при използването на ядрено оръжие все още са по-добре оставени на човека.

Учените предупреждават, че прехвърлянето на контрола над ядрените оръжия върху изкуствения интелект може да завърши с апокалиптична война в стил „Терминатор“.

В новия си доклад експертите от американския университет „Ivy League Cornell University“твърдят, че нарастващото преминаване към автоматизация и роботизация може да доведе до факта, че машините „излизат извън контрол“и обявяват война на човечеството - точно както в поредица от научни фантастики филми „Терминатор“с Арнолд Шварценегер.

Според експерти, опитвайки се да „настигнат Съединените щати по отношение на военния потенциал“, Русия и Китай започват по-често да разчитат на технологии за изкуствен интелект, които в бъдеще могат да представляват рискове, които дори не са известни на света. По този начин Москва вече е започнала работа по безпилотното подводно ядрено торпедо „Посейдон“, известно преди като Status-6.

Освен това страните могат да решат да използват изкуствен интелект по-активно в системите за ранно предупреждение. И тук, както напомнят учените, историята ни показва, че рисковете също могат да бъдат големи. Много хора знаят инцидента от 1983 г., когато съветският офицер Станислав Петров игнорира сигнала на системата за изстрелване на американски ракети. Петров разбра, че сигналът е фалшив и по този начин спаси света от възможна ядрена война между САЩ и Русия.

Експертите признават, че под някаква форма компютризацията на ядрените оръжия може да подобри надеждността и стабилността на такива системи. Изкуственият интелект може да събира данни и да извършва анализ, който след това може да бъде използван от военните ръководители.

„При модернизирането на ядрените арсенали ръководството трябва да се стреми да използва компютърни системи, за да намали риска от случайни аварии, фалшиви позиции и да засили човешкия контрол върху операциите с ядрено оръжие“, препоръчват учените.

Препоръчано: