Идват бойни роботи! - Алтернативен изглед

Идват бойни роботи! - Алтернативен изглед
Идват бойни роботи! - Алтернативен изглед

Видео: Идват бойни роботи! - Алтернативен изглед

Видео: Идват бойни роботи! - Алтернативен изглед
Видео: Недельный раздел Матот - Масэй 10.07.2021г. 2024, Може
Anonim

Истински роботи-убийци, безмилостно изпълняващи задачата и не изискващи човешки надзор, може да се появят в арсенала на армиите по света след една година, твърдят експерти. Предвиждайки опасността тук, експертите обсъждат дали роботите-убийци и тяхното използване на бойното поле трябва да бъдат забранени предварително.

Image
Image

Роботите-убийци може да са в експлоатация на войските след една година, ако ООН не предприеме мерки предварително, за да ограничи използването им, казва професорът от университета в Шефилд Ноел Шарки. По негово мнение тези машини неизбежно ще причинят масивни невинни смъртни случаи, тъй като те не могат да разграничат военен от цивилен некомбант. Неговото изявление дойде точно по времето, когато експертната общност от 120 държави обсъжда в Женева потенциалните рискове, свързани с експлоатацията на автономни оръжейни системи. Професор Шарки вярва: има малко дискусии, спешно е да се приеме документ за ограничаване на производството на роботи! В противен случай, година по-късно, роботите буквално ще наводнят армиите на развитите страни.

Image
Image

Тези дни в Женева представители на повече от 90 страни по света обсъждат опасността, която идва от „леталните автономни оръжейни системи“. Един от важните дискусионни въпроси е как да се гарантира безопасността на използването им в бойна ситуация? Много експерти, включително професор Шарки, настояват, че въпреки автономността на системите, човек трябва постоянно да има способността да „контролира принципа“над тях - за безопасността на човечеството. „Роботът все още не може да взема решения като човек“, казва професор Шарки. - Той не е напълно способен. за да разбере логиката на военните действия, може да не разграничава съюзник от враг и да вземе решение за допустимостта на определени действия. „Не можем да позволим на робота да реши дали например животът на Осама бин Ладен си заслужава, така че 50 стари жени и 20 деца да умрат с него,Казва Шарки. - Роботът не се интересува. Фундаментални решения, например, относно избора на цел трябва да се вземат от човек. Според професор Шарки, ако подобни решения бъдат оставени на роботи, „последиците от тяхното използване ще бъдат не по-малко опустошителни от използването на химическо оръжие“.

Image
Image

Професор Шарки е един от 57 експерти, подписали отворено писмо, адресирано до Южнокорейския университет, в което експерти протестират срещу програмата за развитие на интелигентни оръжия. Корейският институт за наука и високи технологии Kaist в момента стартира тази програма с производителя на военно оборудване Hanwa Systems, а новината разтърси научната общност. „Университет, научна институция, не може да направи това от морална гледна точка“, казва професор Шарки, с когото останалите подписали са напълно съгласни.

Според експерти автоматичните роботи-убийци ще отворят Кутията на Пандора, революционизирайки пътя на войната.

Промоционално видео:

Представители на Kaist Institute вече отговориха на отвореното писмо, уверявайки своите колеги, че не планират да създават дроиди в стил Skynet.

Image
Image

Представители на института Keist увериха своите колеги, че като академична институция те „високо ценят универсалните стандарти за етика и морал“и не възнамеряват да разработват роботизирани войници, действащи извън човешки контрол. Към днешна дата Институтът Каист извършва само изследвания в тази област. На това авторите на отвореното писмо се успокоиха и не бойкотираха своите колеги. Въпросът обаче дали човечеството ще успее да постигне съгласие по общи принципи на тотален контрол върху действията на бойните роботи все още е отворен. Междувременно днес това в никакъв случай не е важно на теория. Днес високо функционалните роботи вече са толкова сложни механизми, че дори специалистите не разбират напълно как работи техният изкуствен интелект. И без да разбират напълно това, те не могат да предвидяткога точно може да се провали. „Ако човечеството е предназначено да бъде унищожено, тогава най-вероятно изкуственият интелект ще играе важна роля в този процес“, казва един от участниците в конференцията в Женева. Според Илон Мъск изкуственият интелект днес носи със себе си повече заплахи за човечеството, отколкото Северна Корея. Мъск е убеден, че роботите трябва да бъдат под постоянен строг контрол от хората, и многократно е призовавал правителствата на различни страни да разработят ясни правила за контрол върху системите с изкуствен интелект.отколкото Северна Корея. Мъск е убеден, че роботите трябва да бъдат под постоянен строг контрол от хората, и многократно е призовавал правителствата на различни страни да разработят ясни правила за контрол върху системите с изкуствен интелект.отколкото Северна Корея. Мъск е убеден, че роботите трябва да бъдат под постоянен строг контрол от хората, и многократно е призовавал правителствата на различни страни да разработят ясни правила за контрол върху системите с изкуствен интелект.

Варвара Лютова