Ще ни защитят ли „Трите закона на роботиката“? - Алтернативен изглед

Съдържание:

Ще ни защитят ли „Трите закона на роботиката“? - Алтернативен изглед
Ще ни защитят ли „Трите закона на роботиката“? - Алтернативен изглед

Видео: Ще ни защитят ли „Трите закона на роботиката“? - Алтернативен изглед

Видео: Ще ни защитят ли „Трите закона на роботиката“? - Алтернативен изглед
Видео: 7 професии, в които машините ще изместят хората. Началото на света на роботите е сега! 2024, Април
Anonim

Изминаха 50 години, откакто Исак Азимов излезе със своите известни Три закона за роботиката - набор от правила, които всеки уважаващ себе си робот трябва да следва. Въпреки че първоначално това беше просто литературно устройство, трите закона станаха оригиналната рецепта за избягване на „роботокалипсиса“. За щастие има експерти, които търсят сигурност дали гаранциите на Азимов са издържали на теста на времето. За съжаление, всички казват „не“.

Като начало, нека си припомним същите тези три закона:

Робот не може да навреди на човек или чрез своето бездействие да позволи на човек да бъде нанесен.

Робот трябва да се подчинява на всички заповеди, дадени от човек, освен когато тези заповеди са в противоречие с Първия закон.

Роботът трябва да се грижи за своята безопасност до степен, която не противоречи на Първия и Втория закон.

По-късно Азимов добави четвърти или нулев закон, който предхожда останалите по отношение на приоритета:

Промоционално видео:

0. Робот не може да навреди на човек, освен ако не може да докаже, че в крайна сметка ще бъде от полза за цялото човечество.

Image
Image

Във фентъзи вселената на Азимов почти всички роботи трябваше да спазват тези закони. Това не бяха само предложения или насоки - законите бяха вградени в софтуера. Освен това тези правила не могат да бъдат заобиколени, пренаписани или преработени.

Както показа самият Азимов, несъвършенствата, вратичките и неяснотите в тези закони често водят до странно и нелогично поведение на роботи. Законите бяха твърде неясни и често не успяваха да дефинират и разграничат „хората“от „роботи“. Освен това роботите могат несъзнателно да нарушават закони, ако не им бъде предоставена пълна информация. Освен това един прекалено хитър робот или изкуствен интелект трябваше да бъде подложен на натиск, за да не препрограмира сърцевината му.

Годината е 2014 г. и голяма част от обикновеното от нашия живот до фантазиите от миналия век може да изглежда откровено фантазия. Много хора смятаха, че законите на Азимов трябва да останат като литературно устройство. Самият Азимов обаче отбеляза през 1981 г., че законите му могат да работят. Изчислението! той посочи следното:

„Когато някой ме попита какво би било, ако моите три закона за роботика действително се използват за определяне на поведението на роботи, отговорът е готов. При условие, разбира се, че роботите са достатъчно гъвкави и универсални, за да проявяват различно поведение. Моят отговор е да, трите закона са единственият начин, по който хората могат да си взаимодействат с роботи - или нещо друго.

Почти тридесет години по-късно ние се доближихме до реалност, в която ще имаме роботи - или по-точно изкуствения интелект, който ги контролира - достатъчно гъвкав и гъвкав за различни курсове на поведение. Остава само въпрос на време: когато машината надминава човека във всички отношения, от физическата сила до силата на въображението.

Плашещото е, че практически няма граница за грешка. Ако изкуствената суперинтелигентност е слабо програмирана или безразлична към хората, това ще доведе до катастрофа. Трябва да сме сигурни, че изкуственият интелект е безопасен, ако искаме да оцелеем след появата му."

Отговорете на въпроса "могат ли да помогнат трите закона на Азимов?" Двама теоретици за изкуствен интелект поеха: Бен Херцел (Aidyia Holdings) и Луис Хелм, заместник-директор на Института за машинно разузнаване (MIRI) и изпълнителен редактор на списание Rockstar Research. След разговора с тях стана ясно, че законите на Азимов като цяло не могат да се справят със задачата, която им е възложена, и ако трябва да създадем сигурен ИИ, ще трябва да разработим нещо съвсем различно.

Бъдещето на Асим?

Image
Image

Разговорът с Херцел и Хелм започна с това, което Асимов не се заблуждаваше, предсказвайки бъдещето и къде греши.

„Мисля, че типът роботи, който Асимов предвижда, ще бъде възможен в не много далечното бъдеще“, отговаря Херцел. - Въпреки това, в повечето си измислени светове писателят предполага, че хуманоидните роботи ще бъдат върхът на робототехниката и инженерството на изкуствения интелект. Това е малко вероятно. Много скоро, след достигането на статута на роботите на Азимов, ще стане достъпно създаването на изкуствено свръх разузнаване и супер роботи."

По този начин типичният свят на бъдещето в разказите на Азимов за роботи, според Херцел, ще бъде подобен на този, в който живеем днес, но с интелигентни роботи, които вървят по улиците.

"Малко вероятно е това да се случи и ако се случи, няма да се забави за дълго."

За Helm роботите изглеждат напълно различни.

„Основният въпрос, който според мен ще бъде най-важен за човечеството, остава не моралното регулиране на гигантски брой полуинтелигентни хуманоиди, а в крайна сметка развитието на напреднали форми на изкуствен интелект (във всяко тяло). Това развитие на свръх интелект е филтър, през който човечеството трябва да премине в крайна сметка. Ето защо разработването на стратегия за сигурност за този преход е толкова важно. Струва ми се напълно странно, че роботи, андроиди или „емулации“ще съществуват десет години или малко повече, докато човечеството не се изправи пред истинския проблем за разработване на машинна етика за свръх разузнаване “.

Добро начало?

Image
Image

Като се има предвид, че трите закона на Азимов за роботика са първият искрен опит за решаване на един много сериозен проблем - проблемът за безопасното поведение на машини с изкуствено свръх интелект - си струва да се търсят онези моменти, в които законите все още могат да бъдат ефективни (или поне вдъхновяващи).

„За да бъда честен, не намирам никакво вдъхновение в тези три закона на роботиката“, казва Хелм. - Същността на машинната етика е, че те не удовлетворяват основите на машинната етика. Може би трите закона на роботиката са широко известни, но в действителност е безполезно да ги използваме като основа за програмиране."

„По някаква причина система от добра етика - наречена деонтология - се превърна в ненадеждна основа за етиката. Има редица философи, които се опитват да решат проблемите на деонтологията, но в по-голямата си част са същите хора, които търсят „интелигентен дизайн“и „божествена намеса“. Никой не ги приема насериозно."

Недостатъците на трите закона на роботите на Азимов се свеждат до следното:

Състезателен характер

Въз основа на остаряла етична теория (деонтология)

Дори не се занимавайте с фантастика

Херцел се съгласява:

„Целта на трите закона беше да ги нарушат по интересен начин; ето защо техните истории са особено забавни. Следователно трите закона могат да останат просто морален пример за това как да не го направите. Ако ги вземем за основа, неизбежно ще има пропуски в тях”.

Херцел вярва, че в действителност тези закони няма да работят, тъй като условията с тяхно участие са нееднозначни и остават обект на тълкуване - което означава, че са изключително зависими от онези, които правят преводите.

Предразсъдъци към роботи?

Друг аспект (и потенциален недостатък) на Трите закона във видимия шовинизъм е предположението, че роботите трябва да останат, въпреки превъзходната си сила, подчинени на човешките, човешките нужди и приоритети.

„Азимовото общество на бъдещето се състои изцяло от шовинисти: хората имат много повече права от роботи. Трите закона на роботиката са създадени, за да поддържат точно такъв социален ред."

Image
Image

Хелм гледа на този проблем малко по-различно, като твърди, че ако се окажем в такава ситуация, то само по себе си ще бъде доказателство, че сме отишли твърде далеч.

„Мисля, че би било неразумно да се създаде система за изкуствен интелект или самоосъзнат робот. И за разлика от филмите или книгите, в които създателите на изкуствен интелект „случайно“стигат до интелигентни машини, не вярвам, че това може да се случи в реалния живот. Това ще отнеме твърде много усилия и знания. И повечето дизайнери на ИИ са етично здрави хора, така че те ще избегнат създаването на онова, което философите наричат „морално значими същества“. Особено, когато те лесно могат да създадат усъвършенствана машина, която няма етични наклонности."

Хелм не е притеснен от необходимостта от разработване на асиметрични закони, които да управляват стойността на роботите над хората, като се аргументира (и се надява), че бъдещите създатели на изкуствен интелект ще разчитат на някои етични ограничения.

„Мисля, че хората са изградени от атоми, така че на теория инженер може да създаде синтетична форма на живот или робот с морален смисъл. Бих искал да мисля, че никой няма да направи това. Мисля, че и повечето хора правят. Но неизбежно ще има глупак, който иска да бъде известен като пионер, дори и да е неетичен и глупав."

Три закона на роботиката 2.0?

Предвид очевидните недостатъци на трите закона за роботика на Азимов, ресурсът io9 зададе въпроса: могат ли да бъдат коригирани или подобрени? Всъщност много писатели на научна фантастика са опитвали това много пъти, ощипвайки го през годините.

"Не", казва Хелм. „Няма пачове за трите закона.“

Освен тяхната противоречива природа, законите имат и състезателен характер.

„Аз съм привърженик на подходите на машинната етика, които са по-съвместни, по-последователни и по-нормативни, което означава, че могат да се възстановят от недоразумения или да коригират неправилно програмиране.“

Херцел озвучава твърденията на Хелм.

Определянето на набор от етични предписания като сърцевина на машинната етика ще бъде безнадеждно, ако машината се основава на гъвкав общ изкуствен интелект. Ако е замислена като интуитивна, гъвкава, адаптивна или етична - в този контекст етичните предписания ще бъдат полезни за системата само като груба насока за прилагането на нейната собствена етична интуиция. Но в този случай заповедите няма да станат основа на етичната система, а само аспект. Това може да се види в човешките примери - етичните принципи, които изучаваме, работим, но не като насоки, те само тласкат нашата интуиция и етични инстинкти. На практика сме независими от етичните принципи."

Как да създадете сигурен изкуствен интелект?

Като се има предвид неадекватността на правния подход, можете да попитате Герцел и Хелм за съвременните подходи към проблема с "безопасния AI".

"Много малко изследователи на изкуствен интелект смятат, че е възможно да се създаде система, която е напълно защитена", казва Херцел. "Но това не притеснява мнозинството, тъй като изобщо нищо не може да се гарантира в този живот."

Херцел вярва, че след като създадем обща система за изкуствен интелект или нейния ембрион, можем да проведем изследвания и експерименти, които ще ни разкажат много повече за етиката на ИИ, отколкото знаем.

„Надяваме се, че по този начин можем да формулираме добри теории за етиката на изкуствения интелект, които ще ни позволят да се задълбочим в тази тема. Но сега е доста трудно да се теоретизира за етиката на AI, тъй като ние нямаме само добри теории, ние изобщо нямаме теории."

„И за хората, които са гледали твърде много терминатори, процесът на създаване на изкуствен интелект може да изглежда плашещ, тъй като в този контекст те пропускат думата„ примитивен “. Най-радикалните промени обаче се случиха по този начин."

"Когато група интелигентни пещерни хора измислиха език, те не очакваха развитието на солидна формална теория на езика, която да помогне да се предскажат бъдещи промени, причинени от появата на езика в обществото."

Преди да разгледате разработването на следващите "три закона" като технически проблем, трябва да направите много изследвания. И тук Хелм и Херцел са съгласни.

„Колегата ми от MIRI Люк Мюлхаузер обобщи нашите разсъждения по следния начин. Той каза, че проблемите често преминават от философия към математика и след това към инженерство. Във философията често се задават правилните въпроси, но по най-непрактичен начин. Никой не може да каже със сигурност дали е постигнат напредък в разрешаването на проблема. Ако можем да преформулираме важните философски проблеми на разума, идентифицирането и стойността в точни формули, с които математикът може да се справи, тогава може да се изгради някакъв модел. Един хубав ден ще дойде инженерството."

Хелм намира този проблем труден за науката и философията, но напредъкът е възможен.

„Скептичен съм, че философията ще успее да реши проблем, който се бори повече от 3000 години. Но ние също не можем да вземем и да започнем да правим математически модели на въпроси, които технически не присъстват. Все още се нуждаем от много теоретични и дори практически разработки “.