От какво се страхува разработчикът на изкуствения интелект при създаването си - Алтернативен изглед

Съдържание:

От какво се страхува разработчикът на изкуствения интелект при създаването си - Алтернативен изглед
От какво се страхува разработчикът на изкуствения интелект при създаването си - Алтернативен изглед

Видео: От какво се страхува разработчикът на изкуствения интелект при създаването си - Алтернативен изглед

Видео: От какво се страхува разработчикът на изкуствения интелект при създаването си - Алтернативен изглед
Видео: How to Buy Real Estate without Cash or Credit 2024, Може
Anonim

Като изследовател на ИИ, често се сблъсквам с мнението, че много хора се страхуват от ИИ и какво може да стане. Всъщност не е изненадващо, ако погледнете от гледната точка на човешката история, като същевременно обръщате внимание на това, което индустрията на развлеченията ни храни, хората може да се страхуват от кибер бунт, който ще ни принуди да живеем в изолирани райони, и да превърне другите в човешки батерии „подобни на матрица“…

И все пак за мен, гледайки всички тези еволюционни компютърни модели, които използвам в развитието на AI, е трудно да мисля, че моите безобидни, чисти като бебешки сълзи същества на екрана на компютъра ми един ден могат да се превърнат в чудовища на футуристична дистопия. Мога ли наистина да бъда наречен „разрушител на световете“, както веднъж Опенхаймер съжали и каза за себе си, след като ръководи програмата за създаване на ядрена бомба?

Може би бих приел такава слава, или може би критиците на работата ми са в крайна сметка? Може би наистина трябва да спра да избягвам въпроси за това какви страхове имам за ИИ като експерт по ИИ?

Страх от непредсказуемост

HAL 9000, мечтата на писателя на научната фантастика Артър Чарлз Кларк и съживен от режисьора Стенли Кубрик през 2001 г. в космическата одисея, е отличен пример за система, която се срива поради непредвидени обстоятелства.

В много сложни системи - „Титаник“, космическата совалка на НАСА и атомната централа в Чернобил - инженерите трябваше да комбинират много компоненти. Може би архитектите на тези системи са били добре запознати как всеки един от неговите елементи работи поотделно, но не са разбрали достатъчно добре как всички тези компоненти ще работят заедно.

Промоционално видео:

Резултатът бяха системи, които никога не бяха напълно разбрани от собствените им създатели, което доведе до добре известни последици. Във всеки случай корабът потъна, две совалки избухнаха и почти цяла Европа и части от Азия бяха изправени пред проблема с радиоактивно замърсяване - набор от сравнително малки проблеми, които се случиха едновременно, създавайки катастрофален ефект.

Мога да си представя идеално как ние, създателите на AI, можем да стигнем до подобни резултати. Взимаме най-новите разработки и изследвания в когнитивната наука (науката за мисленето - ред.), Превеждаме ги в компютърни алгоритми и добавяме всичко това към съществуващите системи. Опитваме се да развием AI, без да разбираме напълно собствената си интелигентност и съзнание.

Системи като Уотсън или Алфа на Google са изкуствени невронни мрежи с впечатляваща изчислителна сила и възможност за справяне с наистина сложни задачи. Но засега единственото нещо, до което ще доведе грешка в работата им, ще бъде резултат от загуба в интелектуалната игра "Загроза!" или пропусната възможност да победим още една най-добра в света логическа настолна игра Go.

Тези последствия нямат глобален характер. Всъщност най-лошото, което може да се случи на хората в този случай, е, че някой загуби някаква сума пари в залозите.

Архитектурата на AI обаче става все по-сложна и компютърните процеси стават по-бързи. Възможностите на AI ще се увеличават само с течение на времето. И вече това ще ни доведе до факта, че ние ще започнем да възлагаме все повече и повече отговорност на AI, дори въпреки нарастващите рискове от непредвидени обстоятелства.

Добре осъзнаваме, че „грешките са част от човешката природа“, следователно за нас ще бъде просто физически невъзможно да създадем наистина безопасна система във всичко.

Страх от злоупотреба

Всъщност не се притеснявам от непредсказуемостта на последствията в работата на ИИ, която развивам, използвайки така наречения невроеволюционен подход. Създавам виртуални среди и ги населявам с цифрови същества, като им давам команди на мозъка за решаване на проблеми с нарастваща сложност.

С течение на времето ефективността на решаването на проблеми от тези същества се увеличава и развива. Тези, които вършат най-добрата работа, се избират за възпроизвеждане, създавайки ново поколение на тяхна основа. През поколенията тези дигитални същества развиват познавателни способности.

Например, в момента правим първите стъпки в разработването на машини до нивото на изпълнение на прости навигационни задачи, вземане на прости решения или запаметяване на няколко бита информация. Но скоро ще видим развитието на машини, които могат да изпълняват по-сложни задачи и имат много по-ефективно общо ниво на интелигентност. Крайната ни цел е да създадем интелигентност на човешко ниво.

В хода на тази еволюция ще се опитаме да намерим и отстраним всички грешки и проблеми. С всяко ново поколение машините ще бъдат по-добри в справянето с грешките в сравнение с предишните. Това ще увеличи шансовете, че ще можем да идентифицираме всички непредвидими последици в симулациите и да ги елиминираме, дори преди те да бъдат реализирани в реалния свят.

Друга възможност, която еволюционният метод на развитие предоставя, е да се даде изкуствен интелект с етика. Вероятно такива етични и морални характеристики на човек като надеждност и алтруизъм са резултат от нашата еволюция и фактор за нейното продължаване.

Можем да създадем изградена среда и да дадем възможност на машините да демонстрират доброта, честност и съпричастност. Това може да бъде един от начините да сме сигурни, че развиваме по-послушни слуги от безмилостни роботи убийци. Въпреки че, невроеволюцията може да намали нивото на нежелани последици в поведението на ИИ, това не може да предотврати злоупотребата с изкуствен интелект.

Като учен трябва да спазвам своята ангажираност към истината и да докладвам какво открих чрез експериментите си, независимо дали харесвам резултатите или не. Моята работа не е да определям какво харесвам и какво не. Единственото важно нещо е, че мога да направя работата си публична.

Страх от грешни социални приоритети

Това, че сте учен, не означава да загубите човечността си. Трябва да се свържа отново със своите надежди и страхове на някакво ниво. Като морално и политически мотивиран индивид трябва да разбера потенциалните последици от работата ми и възможното й въздействие върху обществото.

Като учени и като представители на обществото все още не сме стигнали до ясна представа какво точно искаме да получим от ИИ и какво в крайна сметка би трябвало да стане. Това, разбира се, се дължи отчасти на факта, че все още не разбираме напълно неговия потенциал. Но все пак трябва ясно да разберем и да решим какво искаме да получим от наистина напреднал изкуствен интелект.

Една от най-големите области, на които хората обръщат внимание, когато говорят за AI, е заетостта. Роботите вече правят сложна физическа работа за нас, като например да сглобяваме и заваряваме частите на каросерията на автомобила. Но един ден ще дойде денят, когато роботите ще бъдат натоварени с изпълнението на познавателни задачи, тоест ще бъдат натоварени с това, което преди се е считало за изключително уникална способност на самия човек. Автомобилите със самостоятелно управление могат да заменят таксиметровите шофьори; самолетни самолети няма да имат нужда от пилоти.

Вместо да получават медицинска помощ в спешните кабинети, пълни с винаги уморен персонал и лекари, пациентите ще могат да провеждат прегледи и да учат диагнози, използвайки експертни системи с незабавен достъп до всички медицински знания. Хирургическите операции ще се извършват от роботи, които не са податливи на умора, с перфектно „обучена ръка”.

Правните съвети ще бъдат достъпни от цялостна правна рамка. За съвет за инвестиции ще се обърнем към експертни системи за прогнозиране на пазара. Може би един ден цялата човешка работа ще се извършва от машини. Дори моята работа може да се свърши по-бързо, като се използва голям брой машини, безмилостно проучващи как да направя машините още по-умни.

В реалностите на сегашното ни общество автоматизацията вече принуждава хората да напуснат работата си, което прави богатите собственици на такива автоматизирани машини още по-богати, а останалите дори по-бедни. Но това не е научен проблем. Това е политически и социално-икономически проблем, който самото общество трябва да реши.

Моите изследвания няма да променят това, но моите политически основи, заедно с човечността, могат да доведат до обстоятелства, при които ИИ може да се превърне в изключително полезна функция, вместо да разшири разликата между един процент от световния елит и останалата част от нас.

Страх от катастрофален сценарий

Стигнахме до последния страх, наложен от безумния HAL 9000, Терминатора и всякаква друга злодейна супер-разузнавателна информация. Ако AI продължава да се развива, докато надмине човешката интелигентност, дали изкуствена свръх интелигентна система (или колекция от такива системи) ще счита хората за безполезен материал? Как можем да оправдаем съществуването си пред свръх разузнаването, способно да прави и създава онова, което никой друг човек не може? Ще успеем ли да избегнем съдбата да бъде заличена от лицето на Земята от машините, които сме помогнали да създадем?

Следователно, най-важният въпрос при подобни обстоятелства ще звучи така: защо ще ни е нужен изкуственият суперинтелигент?

Ако се беше случила подобна ситуация, вероятно бих казал, че съм добър човек, който дори допринесе за създаването на тази суперинтелигентност, пред която съм изправен сега. Бих се харесал на неговото състрадание и съпричастност, така че свръх разузнаването да ме остави, така състрадателен и съпричастен, жив. Бих добавил също, че самото разнообразие на видовете има стойност и Вселената е толкова голяма, че съществуването на човешкия вид в него всъщност е доста незначително.

Но не мога да говоря за цялото човечество, така че ще ми бъде трудно да намеря валиден аргумент за всички нас. Просто, когато гледам всички нас, наистина виждам, че сме направили много и правим много грешно. Омразата един към друг царува по света. Отиваме на война един срещу друг. Ние разпространяваме несправедливо храните, знанията и здравеопазването. Замърсяваме планетата. В този свят, разбира се, има много добри неща, но ако погледнете всички лоши неща, които сме създали и продължаваме да създаваме, ще бъде много трудно да се намери аргумент, който да подкрепи нашето продължаващо съществуване.

За щастие, все още не е необходимо да оправдаваме съществуването си. Все още имаме време. От 50 до 250 години, в зависимост от това колко бързо се развива изкуственият интелект. Ние като вид имаме способността да се съберем и да намерим добър отговор на въпроса защо суперинтелигентността не трябва да ни заличи от лицето на планетата.

Ще бъде много трудно да се реши този въпрос. В края на краищата, да кажем, че подкрепяме многообразието и етнокултурните различия и да го правим, са съвсем различни неща. Как да кажем, че искаме да спасим планетата и успешно да се справим с нея.

Всички ние, било то всеки индивид или обществото като цяло, трябва да се подготвим за катастрофален сценарий, използвайки това време, за да сме готови да покажем и докажем защо нашите творения трябва да ни позволят да продължим да съществуваме. Или можем просто да продължим сляпо да вярваме, че подобно развитие на събития е невъзможно и просто да спрем да говорим по тази тема.

Въпреки това, без значение каква физическа опасност може да ни представлява суперинтелигентството, не бива да забравяме, че тя ще представлява и политическа и икономическа опасност. Ако не намерим начин да подобрим стандарта си на живот, в крайна сметка просто ще подхранваме капитализма с работник с изкуствен интелект, който ще служи само на избрани малцина, които разполагат с всички средства за производство.

Тази статия първоначално е публикувана в theconversation.com от Аренд Хинце, доцент в катедрата по интегративна биология, компютърни науки и инженерство, Мичиганския държавен университет.

Николай Хижняк

Препоръчано: