Изкуствен интелект. Част втора: изчезване или безсмъртие? - Алтернативен изглед

Съдържание:

Изкуствен интелект. Част втора: изчезване или безсмъртие? - Алтернативен изглед
Изкуствен интелект. Част втора: изчезване или безсмъртие? - Алтернативен изглед

Видео: Изкуствен интелект. Част втора: изчезване или безсмъртие? - Алтернативен изглед

Видео: Изкуствен интелект. Част втора: изчезване или безсмъртие? - Алтернативен изглед
Видео: From an Atheist to Holiness. AllatRa TV 2024, Септември
Anonim

Пред вас е втората част на статия от поредицата "Чакай, как всичко това може да бъде истинско, защо все още не се говори на всеки ъгъл." В предишната поредица стана известно, че взрив на интелигентност постепенно се промъква към хората на планетата Земя, той се опитва да се развие от тясно фокусирана към универсална интелигентност и накрая - изкуствено свръх разузнаване.

„Може би сме изправени пред изключително труден проблем и не се знае колко време е отделено за неговото решение, но бъдещето на човечеството може да зависи от неговото решение.“- Ник Бостром.

Първата част на статията започна достатъчно невинно. Обсъждахме тясно фокусиран изкуствен интелект (AI, който е специализиран в решаването на един конкретен проблем, като определяне на маршрути или игра на шах), в нашия свят има много от него. Тогава те анализираха защо е толкова трудно да се развие общ насочен изкуствен интелект (AGI или AI, който по отношение на интелектуалните възможности може да се сравни с човек при решаването на всеки проблем) е толкова трудно. Заключихме, че експоненциалният темп на технологичния напредък подсказва, че AGI може да бъде зад ъгъла доста скоро. В крайна сметка решихме, че щом машините достигнат до човешкия разум, може да се случи следното:

Image
Image
Image
Image
Image
Image
Image
Image

Както обикновено, ние гледаме на екрана, без да вярваме, че изкуственият свръх интелект (ISI, който е много по-умен от всеки човек) може да се появи по време на живота ни, и избираме емоции, които най-добре биха отразили нашето мнение по този въпрос.

Промоционално видео:

Преди да се потопим в спецификата на ISI, нека си припомним какво означава дадена машина да бъде свръх интелигентна.

Основната разлика се състои между бързото суперинтелигентство и качественото суперинтелигентство. Често първото нещо, което идва на ум, когато мислим за суперинтелигентен компютър, е, че той може да мисли много по-бързо от човек - милиони пъти по-бърз и след пет минути ще разбере какво би отнело на човек десет години. („Знам кунг-фу!“)

Звучи впечатляващо и ISI наистина би трябвало да мисли по-бързо от всеки от хората - но основната разделителна черта ще бъде качеството на интелекта му, което е съвсем друго. Хората са много по-умни от маймуните, не защото мислят по-бързо, а защото мозъкът им съдържа редица гениални когнитивни модули, които осъществяват сложни езикови представи, дългосрочно планиране, абстрактно мислене, на което маймуните не са способни. Ако ускорите мозъка на маймуна хиляди пъти, той няма да стане по-умен от нас - дори след десет години няма да може да сглоби конструктор според инструкциите, което би отнело на човек максимум няколко часа. Има неща, които маймуната никога няма да научи, независимо колко часа прекарва или колко бързо работи мозъкът му.

В допълнение, маймуна не знае колко човешки, защото мозъкът й просто не е в състояние да осъзнае съществуването на други светове - маймуна може да знае какво е човек и какво е небостъргач, но никога няма да разбере, че небостъргач е бил построен от хора. В нейния свят всичко принадлежи на природата и макакът не само не може да построи небостъргач, но и разбира, че всеки може да го изгради. И това е резултат от малка разлика в качеството на интелигентността.

В общата схема на интелигентност, за която говорим, или просто по стандартите на биологичните същества, разликата в качеството на интелигентността между хората и маймуните е малка. В предишната статия поставихме биологични познавателни способности на стълба:

Image
Image

За да разберете колко сериозна ще бъде свръх интелигентната машина, поставете две прорези по-високи от човека по тази стълба. Тази машина може да е просто малко суперинтелигентна, но нейното превъзходство над познавателните ни способности ще бъде същото като нашето - над маймуните. И точно като шимпанзето никога няма да разбере, че може да се изгради небостъргач, ние никога няма да разберем какво ще разбере една машина на няколко стъпки по-високо, дори ако машината се опитва да ни обясни. Но това е само няколко стъпки. По-интелигентната машина ще види мравки в нас - тя ще ни научи на най-простите неща от позицията си с години и тези опити ще бъдат напълно безнадеждни.

Видът на суперинтелигентността, за който ще говорим днес, се намира далеч отвъд тази стълбица. Това е експлозия на интелигентността - когато по-интелигентният автомобил стане, толкова по-бързо може да увеличи собствената си интелигентност, като постепенно нараства инерцията. Може да отнеме години, за да може машина като тази да надмине шимпанзетата по интелигентност, но може би няколко часа да ни надмине с няколко стъпки. От този момент нататък колата вече може да прескача четири стъпки всяка секунда. Ето защо трябва да разберем, че много скоро след появата на първата новина, че машината е достигнала нивото на човешката интелигентност, може да се сблъскаме с реалността на съвместното съществуване на Земята с нещо, което ще бъде много по-високо от нас на тази стълба (или може би и милиони пъти по-висока):

Image
Image

И тъй като установихме, че е напълно безполезно да се опитваме да разберем силата на машина, която е само на две стъпки над нас, нека да определим веднъж завинаги, че няма как да разберем какво ще направи ISI и какви ще са последиците от това за нас. Всеки, който твърди обратното, просто не разбира какво означава суперинтелигентност.

Еволюцията бавно и постепенно се развива биологични мозъци в продължение на стотици милиони години и ако хората създадат суперинтелигентна машина, в някакъв смисъл ние ще надминем еволюцията. Или ще бъде част от еволюцията - може би еволюцията работи по такъв начин, че интелигентността се развива постепенно, докато достигне повратна точка, която предвещава ново бъдеще за всички живи същества:

Image
Image

По причини, които ще обсъдим по-късно, огромен раздел от научната общност вярва, че въпросът не е дали ще стигнем до тази преломна точка, а кога.

Къде ще свършим след това?

Мисля, че никой на този свят, нито аз, нито ти, няма да можем да кажем какво ще се случи, когато достигнем върха. Оксфордският философ и водещ теоретик на AI Ник Бостром вярва, че можем да съберем всички възможни резултати в две широки категории.

Първо, гледайки историята, ние знаем следното за живота: видове се появяват, съществуват за известно време, а след това неизбежно падат от баланса на живота и умират.

Image
Image

"Всички видове измират" е било толкова надеждно правило в историята, колкото "всички хора умират някой ден." 99,9% от видовете са паднали от дневник на живота и е напълно ясно, че ако даден вид остане в този дневник твърде дълго, поривът на естествен вятър или внезапен астероид ще обърне дневника. Бостром нарича изчезване състоянието на атрактор - място, където всички видове балансират, за да не попаднат там, където нито един вид не се е върнал.

И въпреки че повечето учени признават, че ISI ще има способността да обрече хората на изчезване, мнозина също вярват, че използването на възможностите на ISI ще позволи на индивидите (и на видовете като цяло) да постигнат второто състояние на атрактора - безсмъртието на видовете. Бостром вярва, че безсмъртието на един вид е толкова привлекателно, колкото и изчезването на вид, тоест ако стигнем до това, ще бъдем обречени на вечно съществуване. По този начин, дори ако всички видове до този ден попаднаха от тази пръчка във вирата на изчезването, Бостром вярва, че трупът има две страни и просто на Земята не се появи такова разузнаване, което да разбере как да падне на другата страна.

Image
Image

Ако Bostrom и други са прави и съдейки по цялата налична информация, може да е така, трябва да приемем два много шокиращи факта:

1. Появата на ISI за първи път в историята ще отвори възможността един вид да постигне безсмъртие и да отпадне от фаталния цикъл на изчезване.

2. Появата на ISI ще има такова невъобразимо огромно въздействие, че най-вероятно то ще изтласка човечеството от този лъч в една или друга посока.

Възможно е, когато еволюцията достигне до такава повратна точка, тя винаги прекратява отношенията на хората с жизнения поток и създава нов свят, със или без хора.

Това повдига интересен въпрос, който само блъскачът не би задал: Кога ще стигнем до тази преломна точка и къде ще ни постави? Никой в света не знае отговора на този двоен въпрос, но много умни хора се опитват да го измислят от десетилетия. В останалата част от статията ще разберем откъде са дошли.

* * *

Нека започнем с първата част на този въпрос: кога трябва да достигнем върха? С други думи: колко време е останало, докато първата машина достигне суперинтелигентността?

Мненията варират в отделни случаи. Много от тях, включително професор Вернор Винг, учен Бен Херцел, съоснователят на Sun Microsystems Бил Джой, футуристът Рей Курцвайл, се съгласиха с експерта по машинно обучение Джеръми Хауърд, когато той представи следната графика в TED Talk:

Image
Image

Тези хора споделят мнението, че ISI идва скоро - този експоненциален растеж, който днес ни се струва бавен, буквално ще избухне в следващите няколко десетилетия.

Други, като например съоснователят на Microsoft Пол Алън, изследователският психолог Гари Маркъс, компютърният експерт Ърнест Дейвис и технологичният предприемач Мич Капор, смятат, че мислители като Курцвейл сериозно подценяват мащаба на проблема и смятат, че не сме близо до крайната точка.

Лагерът на Курцвайл твърди, че единственото подценяване, което се случва, е игнорирането на експоненциалния растеж и съмняващите се могат да се сравнят с тези, които разгледаха бавно развиващия се интернет през 1985 г. и твърдят, че това няма да окаже влияние върху света в близко бъдеще.

Съмненията могат да се защитят, че е по-трудно за напредъка да предприемат всяка следваща стъпка, когато става въпрос за експоненциалното развитие на интелигентността, което неутрализира типичния експоненциален характер на технологичния прогрес. И т.н.

Третият лагер, в който е Ник Бостром, не е съгласен нито с първия, нито с втория, като твърди, че а) всичко това може да се случи абсолютно в близко бъдеще; и б) няма гаранция, че това изобщо ще се случи или че ще отнеме повече време.

Други, като философа Хуберт Дрейфус, смятат, че и трите групи наивно вярват, че въобще ще има преломна точка и че най-вероятно никога няма да стигнем до ISI.

Какво се случва, когато съберем всички тези мнения?

През 2013 г. Bostrom проведе проучване, в което интервюира стотици експерти в областта на изкуствения интелект по време на серия от конференции на следната тема: "Какви ще бъдат вашите прогнози за постигане на AGI на човешко ниво?" и ни помоли да назовем оптимистична година (в която ще имаме AGI с 10-процентов шанс), реалистично предположение (годината, в която ще имаме AGI с 50-процентова вероятност) и уверено предположение (най-ранната година, в която AGI ще се появява след 90 -процентна вероятност). Ето резултатите:

- Средна оптимистична година (10%): 2022

- Средна реалистична година (50%): 2040

- Средна песимистична година (90%): 2075

Средните респонденти смятат, че след 25 години ще имаме AGI, а не не. 90-процентов шанс на AGI да се появи до 2075 г. означава, че ако все още сте доста млади, това най-вероятно ще се случи през живота ви.

Отделно проучване, проведено наскоро от Джеймс Барат (автор на аплодираната и много добра книга Нашето последно изобретение, откъси, от които запознах вниманието на читателите на Hi-News.ru) и Бен Херцел на годишната конференция на AGI, конференцията на AGI, просто показа мнението на хората спрямо годината, в която стигаме до AGI: 2030, 2050, 2100, по-късно или никога. Ето резултатите:

- До 2030 г.: 42% от анкетираните

- До 2050 г.: 25%

- До 2100: 20%

- След 2100: 10%

- Никога: 2%

Подобно на резултатите на Bostrom. Според анкетата на Барат повече от две трети от анкетираните смятат, че AGI ще бъде тук до 2050 г., а по-малко от половината смятат, че AGI ще се появи в следващите 15 години. Поразително е също, че по принцип едва 2% от анкетираните не виждат AGI.

Но AGI не е преломна точка като ISI. Кога според експертите ще имаме ISI?

Bostrom попита експертите кога ще стигнем до ASI: а) две години след достигането на AGI (тоест почти моментално поради експлозия на разузнаването); б) след 30 години. Резултати?

Средното мнение е, че бързият преход от AGI към ISI ще настъпи с 10% вероятност, но след 30 години или по-малко, той ще се случи с 75% вероятност.

От тези данни не знаем на коя дата респондентите биха нарекли 50 процента шанс за ASI, но въз основа на двата отговора отгоре, нека приемем, че е 20 години. Тоест водещите световни експерти в областта на ИИ вярват, че преломната точка ще настъпи през 2060 г. (AGI ще се появи през 2040 г. + ще са необходими 20 години за прехода от AGI към ISI).

Image
Image

Разбира се, всички горепосочени статистически данни са спекулативни и просто представляват мнението на експерти в областта на изкуствения интелект, но те също така сочат, че повечето от засегнатите хора са съгласни, че до 2060 г. вероятно ИИ ще пристигне. Само за 45 години.

Нека да преминем към втория въпрос. Когато стигнем до върха, коя страна на фаталния избор ще ни определи?

Суперинтелигентството ще има най-мощната сила и критичният въпрос за нас ще бъде следният:

Кой или какво ще контролира тази сила и каква ще бъде мотивацията им?

Отговорът на този въпрос ще зависи от това дали ISI получава невероятно мощно развитие, неизмеримо ужасяващо развитие или нещо средно.

Разбира се, експертната общност се опитва да отговори и на тези въпроси. Анкетата на Bostrom анализира вероятността от възможни последици от въздействието на AGI върху човечеството и се оказа, че с 52 процента шанс всичко ще върви много добре и с 31 процента шанс всичко ще премине или лошо, или изключително лошо. Анкетата, приложена в края на предишната част на тази тема, проведена сред вас, уважаеми читатели на Hi-News, показа приблизително същите резултати. За сравнително неутрален резултат вероятността е била само 17%. С други думи, всички вярваме, че AGI ще бъде голяма работа. Също така си струва да се отбележи, че това проучване се отнася до появата на AGI - в случая на ISI процентът на неутралност ще бъде по-нисък.

Преди да се задълбочим в мислите за добрите и лошите страни на въпроса, нека комбинираме и двете страни на въпроса - "кога ще стане това?" и "това е добро или лошо?" в таблица, която обхваща мненията на повечето експерти.

Image
Image

Ще поговорим за основния лагер след минута, но първо вземете решение за вашата позиция. Най-вероятно сте на същото място, където бях преди да започна работа по тази тема. Има няколко причини, поради които хората изобщо не мислят за тази тема:

- Както споменахме в първата част, филмите сериозно объркаха хората и фактите, представяйки нереалистични сценарии с изкуствен интелект, което доведе до факта, че изобщо не трябва да приемаме AI на сериозно. Джеймс Барат оприличи тази ситуация на издаването от Центровете за контрол на заболяванията (CDC) със сериозно предупреждение за вампири в нашето бъдеще.

- Поради така наречените когнитивни пристрастия ни е много трудно да повярваме, че нещо е реално, докато нямаме доказателства. Сигурно е да си представим, че компютърните учени от 1988 г. редовно обсъждат всеобхватните последици от интернет и какво може да стане, но хората едва ли са вярвали, че това ще промени живота им, докато всъщност не се случи. Просто компютрите не знаеха как да правят това през 1988 г., а хората просто гледаха компютрите си и си мислеха: „Наистина? Това ли ще промени света? Представите им бяха ограничени от това, което ги научи личният им опит, те знаеха какво е компютър и беше трудно да си представим какъв компютър ще бъде способен в бъдеще. Същото се случва и сега с AI. Чухме, че ще стане сериозно нещоНо тъй като все още не сме се сблъсквали с него лице в лице и като цяло наблюдаваме доста слаби прояви на ИИ в съвременния ни свят, за нас е доста трудно да повярваме, че това ще промени коренно живота ни. Именно срещу тези предразсъдъци много експерти от всички лагери, както и заинтересовани хора, са против да се опитат да привлекат вниманието ни чрез шума на всекидневния колективен егоцентризъм.

- Дори и да повярвахме във всичко това - колко пъти днес сте се замисляли върху факта, че ще прекарате остатъка от вечността в небитието? Малко, съгласете се. Дори ако този факт е много по-важен от всичко, което правите всеки ден и навън. Това е така, защото мозъкът ни обикновено е фокусиран върху малки, ежедневни неща, колкото и да заблуждаваме дългосрочната ситуация, в която се намираме. Просто ние сме направени.

Една от целите на тази статия е да ви изведе от лагера, наречен „Обичам да мисля за други неща“и да ви постави в експертния лагер, дори ако просто стоите на кръстопътя между двете пунктирани линии на площада отгоре, напълно неопределен.

В хода на изследванията става ясно, че мненията на повечето хора бързо се насочват към „основния лагер“, а три четвърти от експертите попадат в две подкамери в основния лагер.

Image
Image

Ще посетим и двата лагера изцяло. Да започнем със забавление.

Защо бъдещето може да бъде най-голямата ни мечта?

Докато изследваме AI света, ние откриваме изненадващо много хора в нашата зона на комфорт. Хората в горния десен площад бръмчат от вълнение. Те вярват, че ние ще паднем от добрата страна на дънера и също така вярват, че неизбежно ще стигнем до това. За тях бъдещето е всичко само най-доброто, за което човек може само да мечтае.

Въпросът, който отличава тези хора от другите мислители, не е, че те искат да бъдат на щастливата страна, а в това, че са сигурни, че тя ни чака.

Тази увереност излиза от противоречия. Критиците смятат, че това идва от ослепително вълнение, което засенчва потенциалните отрицателни страни. Привържениците обаче казват, че мрачните прогнози са винаги наивни; технологията продължава и винаги ще ни помогне повече, отколкото да ни навреди.

Вие сте свободни да изберете някое от тези мнения, но оставете настрана скептицизма и хвърлете добър поглед върху щастливата страна на лъча на баланса, опитвайки се да приемете факта, че всичко, за което четете, може вече да се е случило. Ако показахте на ловци-събирачи нашия свят на комфорт, технологии и безкрайно изобилие, това би им се сторило вълшебна измислица - и ние се държим доста скромно, неспособни да признаем, че същата неразбираема трансформация ни очаква в бъдеще.

Ник Бостром описва три пътя, които може да предприеме суперинтелигентната AI система:

Оракул, който може да отговори на всеки точен въпрос, включително сложни въпроси, на които хората не могат да отговорят - например „как да направите двигателя на автомобила по-ефективен?“Google е примитивен тип "оракул".

Джийн, който ще изпълни всяка команда от високо ниво - използвайки молекулен асемблер, за да създаде нова, по-ефективна версия на автомобилен двигател - и ще изчака следващата команда.

Суверен, който ще има широк достъп и способност да функционира свободно в света, вземайки свои собствени решения и подобрявайки процеса. Той ще измисли по-евтин, по-бърз и безопасен начин за частен транспорт от автомобил.

Тези въпроси и задачи, които ни се струват трудни, ще изглеждат за свръх интелигентната система, сякаш някой поиска да подобри ситуацията „моливът ми падна от масата“, в който просто ще го вземете и върнете обратно.

Елиезер Юдковски, американски експерт по изкуствен интелект, каза това:

„Няма трудни проблеми, само проблеми, които са трудни за определено ниво на интелигентност. Отидете с една стъпка по-нагоре (по отношение на интелигентността) и някои проблеми изведнъж ще се преместят от категорията на "невъзможното" в лагера на "очевидните". Една стъпка по-високо - и всички те ще станат очевидни."

Има много нетърпеливи учени, изобретатели и предприемачи, които са избрали зона на уверен комфорт от нашата трапеза, но се нуждаем само от едно ръководство, за да ходим за най-добрите в този най-добър свят.

Рей Курцвайл е двусмислен. Някои идолизират идеите му, други презират. Някои стоят по средата - Дъглас Хофщадтер, обсъждайки идеите на книгите на Курцвайл, красноречиво отбелязва, че „все едно си взел много хубава храна и малко кучешка пушка, а след това смесил всичко по такъв начин, че е невъзможно да разбереш кое е добро и кое лошо“.

Независимо дали харесвате идеите му или не, невъзможно е да ги подминете без сянка на интерес. Той започва да измисля неща като юноша и през следващите години измисля няколко важни неща, включително първия плосък скенер, първия скенер, който преобразува текст в реч, добре познатия музикален синтезатор на Kurzweil (първото истинско електрическо пиано) и първият търговски успешен разпознавател на реч. Автор е и на пет сензационни книги. Курцвейл е оценен заради дръзките си прогнози и показателите му са доста добри - в края на 80-те години, когато Интернет все още беше в начален стадий, той прогнозира, че до 2000 г. Мрежата ще се превърне в глобален феномен. Журналът на Уолстрийт нарече Курцвайл „неспокоен гений“, „Форбс“, машина за глобално мислене, Inc. Списание - „Законният наследник на Едисон“, Бил Гейтс - „най-доброто от тяхкойто прогнозира бъдещето на изкуствения интелект. През 2012 г. съоснователят на Google Лари Пейдж покани Курцвайл на поста на CTO. През 2011 г. той е съосновател на университета за сингулярност, който е домакин на НАСА и частично е спонсориран от Google.

Биографията му има значение. Когато Курцвайл говори за своето виждане за бъдещето, това звучи като лудо лудо, но наистина лудото в него е, че той далеч не е луд - той е невероятно умен, образован и здрав човек. Може да си мислите, че греши в прогнозите си, но не е глупак. Прогнозите на Курцвайл се споделят от много експерти от зоната на комфорт, Питър Диамандис и Бен Херцел. Това смята, че ще се случи.

хронология

Курцвайл вярва, че компютрите ще достигнат нивото на общия изкуствен интелект (AGI) до 2029 г., а до 2045 г. ще имаме не само изкуствено свръх интелект, но и напълно нов свят - времето на така наречената сингулярност. Неговата хронология на AI все още се счита за изключително преувеличена, но през последните 15 години, бързото развитие на високо фокусирани системи за изкуствен интелект (AI) принуди много експерти да се изправят на страната на Kurzweil. Прогнозите му все още остават по-амбициозни от проучването на Bostrom (AGI до 2040 г., ISI до 2060 г.), но не и много.

Според Курцвайл три едновременни революции в биотехнологиите, нанотехнологиите и по-важното е, че AI задвижват единствеността на 2045 година. Но преди да продължим по-нататък - и нанотехнологиите внимателно следят изкуствения интелект - нека отделим малко време за нанотехнологиите.

Image
Image

Няколко думи за нанотехнологиите

Обикновено наричаме нанотехнологични технологии, които се занимават с манипулирането на материята в диапазона от 1-100 нанометра. Нанометърът е една милиардна част от метър или милионна част от милиметъра; в диапазона от 1-100 нанометра могат да бъдат настанени вируси (диаметър 100 nm), ДНК (10 nm в ширина), молекули на хемоглобина (5 nm), глюкоза (1 nm) и други. Ако нанотехнологиите някога станат наш предмет, следващата стъпка ще бъде да се манипулират отделни атоми, които са по-малко от един порядък (~, 1 nm).

За да разберем къде хората се сблъскват с проблеми, опитвайки се да манипулират материята в такъв мащаб, нека прескочим в по-голям мащаб. Международната космическа станция е на 481 километра над Земята. Ако хората бяха гиганти и удариха МКС с главата си, те щяха да бъдат 250 000 пъти по-големи, отколкото сега. Ако увеличите нещо от 1 до 100 нанометра 250 000 пъти, получавате 2,5 сантиметра. Нанотехнологията е еквивалент на човек, който обикаля орбитата на МКС, опитвайки се да манипулира нещата с размерите на пясък или очна ябълка. За да стигне до следващото ниво - контролирайки отделни атоми - гигантът ще трябва внимателно да позиционира обекти с диаметър 1/40 милиметра. Обикновените хора ще се нуждаят от микроскоп, за да ги видят.

За първи път Ричард Фейнман говори за нанотехнологиите през 1959 година. Тогава той каза: „Принципите на физиката, доколкото мога да кажа, не говорят срещу възможността да се контролират нещата атом чрез атом. По принцип физикът може да синтезира всеки химикал, който химикът е записал. Как? Поставяйки атоми там, където химикът казва да получи веществото. Това е цялата простота. Ако знаете как да движите отделни молекули или атоми, можете да направите почти всичко.

Нанотехнологиите се превръщат в сериозно научно поле през 1986 г., когато инженерът Ерик Дрекслер представи основите си в своята семинарна книга „Машини за създаване“, но самият Дрекслер вярва, че тези, които искат да научат повече за съвременните идеи в нанотехнологиите, трябва да прочетат книгата му от 2013 г. Пълно изобилие “(радикално изобилие).

След като стигнем дъното на нанотехнологиите, можем да го използваме за създаване на технически устройства, дрехи, храна, биопродукти - кръвни клетки, борци с вируси и рак, мускулна тъкан и т.н. - каквото и да е. И в свят, който използва нанотехнологиите, цената на един материал вече няма да бъде обвързана с неговия дефицит или сложността на производствения му процес, а по-скоро със сложността на атомната му структура. В света на нанотехнологиите диамантът може да бъде по-евтин от гумичка.

Още не сме близо до там. И не е напълно ясно дали подценяваме или надценяваме сложността на този път. Всичко обаче стига дотам, че нанотехнологиите не са далеч. Курцвайл приема, че до 2020 г. ще ги имаме. Световните държави знаят, че нанотехнологиите могат да обещаят голямо бъдеще и затова те инвестират много милиарди в тях.

Само си представете какви възможности би получил суперинтелигентен компютър, ако стигне до надежден асемблер за наноразмер. Но нанотехнологиите са нашата идея и ние се опитваме да я караме, трудно ни е. Ами ако те са само шега за ISI системата, а самият ISI ще излезе с технологии, които ще бъдат многократно по-мощни от всичко, което по принцип можем да предположим? Ние се съгласихме: никой не може да си представи на какво изкуствено свръх разузнаване ще е способен? Смята се, че мозъкът ни не е в състояние да предвиди дори минимума какво ще се случи.

Какво би могъл да направи AI за нас?

Въоръжен със свръх интелект и цялата технология, която суперинтелигентността би могла да създаде, ISI вероятно ще успее да реши всички проблеми на човечеството. Глобално затопляне? ISI първо ще спре въглеродните емисии, като измисли множество ефективни не изкопаеми горива за генериране на енергия. След това той ще излезе с ефективен иновативен начин за отстраняване на излишния CO2 от атмосферата. Рак и други заболявания? Не е проблем - здравеопазването и медицината ще се променят по начини, които е невъзможно да си представим. Световен глад? ISI ще използва нанотехнологиите за създаване на месо, идентично с естественото, от нулата, истинско месо.

Image
Image

Нанотехнологиите ще могат да превърнат купчина боклук във вана с прясно месо или друга храна (дори не непременно в обичайната си форма - представете си гигантско ябълково кубче) и да разпространявате цялата тази храна по света, използвайки модерни транспортни системи. Разбира се, това ще бъде чудесно за животни, които вече не трябва да умират за храна. ISI може да направи и много други неща, като например опазване на застрашени видове или дори връщане на изчезнали от запазената ДНК. ISI може да реши най-трудните ни макроикономически проблеми - нашите най-трудни икономически дебати, етични и философски въпроси, глобална търговия - всичко това ще бъде болезнено очевидно за ISI.

Но има нещо много специално, което ISI би могло да направи за нас. Примамливи и измъчващи, които биха променили всичко: ISI може да ни помогне да се справим със смъртността. Постепенно разбирайки възможностите на AI, може би ще преразгледате всичките си идеи за смъртта.

Нямаше причина еволюцията да удължи живота ни по-дълго, отколкото сега. Ако живеем достатъчно дълго, за да раждаме и отглеждаме деца до степен, в която те могат да се грижат за себе си, еволюцията е достатъчна. От еволюционна гледна точка 30+ години са достатъчни за развитие и няма причина мутациите да удължат живота и да намалят стойността на естествения подбор. Уилям Бътлър Йейтс нарече нашия вид „душа, привързана към умиращо животно“. Не е много забавно.

И тъй като всички умираме някой ден, живеем с идеята, че смъртта е неизбежна. Мислим за остаряването с течение на времето - да продължим да се движим напред и да не можем да спрем този процес. Но мисълта за смъртта е коварна: пленени от нея, забравяме да живеем. Ричард Фейнман написа:

„В биологията има нещо чудесно: в тази наука няма нищо, което да говори за необходимостта от смъртта. Ако искаме да създадем машина за постоянно движение, ние осъзнаваме, че сме намерили достатъчно закони във физиката, които или показват невъзможността за това, или че законите са грешни. Но в биологията няма нищо, което да показва неизбежността на смъртта. Това ме кара да вярвам, че не е толкова неизбежно и е само въпрос на време биолозите да открият причината за този проблем, тази ужасна универсална болест, тя ще бъде излекувана."

Факт е, че остаряването няма нищо общо с времето. Стареенето е, когато физическите материали на тялото се износват. Автомобилните части също се влошават - но остаряването е неизбежно? Ако продължите да ремонтирате колата си, тъй като частите се износват, тя ще продължи завинаги. Човешкото тяло не е по-различно - просто по-сложно.

Курцвайл говори за интелигентни, свързани с Wi-Fi наноботи в кръвообращението, които биха могли да изпълняват безброй задачи за човешкото здраве, включително редовно поправяне или замяна на износени клетки навсякъде в тялото. Подобряването на този процес (или намирането на алтернатива, предложена от по-интелигентния ASI) не само поддържа тялото здраво, но може да обърне стареенето. Разликата между тялото на 60-годишен и 30-годишен се крие в шепа физически проблеми, които биха могли да бъдат коригирани с правилната технология. ISI би могъл да построи кола, в която човек ще влезе, когато навърши 60 години, и да напусне, когато е на 30 години.

Дори влошен мозък може да бъде подновен. ISI със сигурност биха знаели как да направят това, без да засягат мозъчните данни (личност, спомени и т.н.). 90-годишен мъж, страдащ от пълна деградация на мозъка, може да се преквалифицира, обновява и да се върне в началото на живота си. Може да изглежда абсурдно, но тялото е шепа атоми и ISI със сигурност би могъл лесно да ги манипулира, всякакви атомни структури. Не е толкова абсурдно.

Курцвайл също смята, че изкуствените материали ще се интегрират все повече и повече в тялото с течение на времето. За начало органите биха могли да бъдат заменени със супер модерни версии на машините, които биха траяли вечно и никога няма да се провалят. Тогава бихме могли да направим цялостно препроектиране на тялото, замествайки червените кръвни клетки с перфектни наноботи, които се движат самостоятелно, елиминирайки изцяло нуждата от сърце. Бихме могли също да подобрим познавателните си способности, да започнем да мислим милиарди пъти по-бързо и да имаме достъп до цялата информация, достъпна за човечеството чрез облака.

Възможностите за разбиране на нови хоризонти биха били наистина безкрайни. Хората успяха да дарят секса с нова цел, правят го за удоволствие, а не само за възпроизвеждане. Курцвайл смята, че можем да направим същото и с храната. Наноботите биха могли да доставят идеално хранене директно в клетките на тялото, позволявайки на нездравословни вещества да преминават през тялото. Теоретикът по нанотехнологии Робърт Фрейтас вече е разработил заместител на кръвните клетки, който, когато се прилага в човешкото тяло, може да му позволи да не диша в продължение на 15 минути - и това е изобретено от хората. Представете си кога ISI ще придобие сила.

В крайна сметка Курцвейл вярва, че хората ще стигнат до точката, в която стават напълно изкуствени; времето, когато разглеждаме биологични материали и мислим колко примитивни са те; време, когато ще четем за ранните етапи на човешката история, изумени как микробите, злополуките, болестите или просто старостта могат да убият човек срещу неговата воля. В крайна сметка хората ще победят собствената си биология и ще станат вечни - това е пътят към щастливата страна на лъча на баланса, за който говорим от самото начало. И хората, които вярват в това, също са сигурни, че такова бъдеще ни очаква много, много скоро.

Вероятно няма да се изненадате, че идеите на Курцвайл предизвикаха остра критика. Нейната особеност през 2045 г. и последващият вечен живот за хората се наричаха „възнесението на нервите“или „интелигентното създаване на хора с коефициент на интелигентност 140“. Други поставиха под въпрос оптимистичния времеви рамки, разбиране на човешкото тяло и мозък, напомняйки за закона на Мур, който все още не е изчезнал. За всеки експерт, който вярва в идеите на Курцвайл, има трима, които смятат, че той греши.

Но най-интересното в това е, че повечето експерти, които не са съгласни с него, по принцип не казват, че това е невъзможно. Вместо да кажат "глупости, това никога няма да се случи", те казват нещо от рода на "всичко това ще се случи, ако стигнем до ISI, но това е уловката". Bostrom, един от утвърдените AI експерти, предупреждаващи за опасността от AI, също признава:

„Едва ли е останал проблем, който свръх разузнаването не може да реши или дори да ни помогне да го решим. Болести, бедност, унищожаване на околната среда, страдания от всякакъв вид - всичко това суперинтелигентност с помощта на нанотехнологиите може да реши за миг. Суперинтелигентността също може да ни даде неограничен живот, като спре и обърне процеса на стареене с помощта на наномедицина или възможността да ни качи в облака. Суперинтелигентността също може да създаде възможности за безкрайно увеличаване на интелектуалните и емоционални възможности; той може да ни помогне да създадем свят, в който ще живеем в радост и разбиране, приближавайки се до идеалите си и редовно осъществявайки мечтите си."

Това е цитат от един от критиците на Курцвайл, който обаче признава, че всичко това е възможно, ако успеем да създадем сигурен ASI. Курцвайл просто дефинираше каква трябва да стане изкуствената суперинтелигентност, ако изобщо е възможно. И ако е добър бог.

Най-очевидната критика на защитниците на зоната на комфорт е, че те могат да бъдат проклети грешни при оценката на бъдещето на ISI. В своята книга „Сингълността“Курцвайл посвети 20 страници от 700 потенциални заплахи от ISI. Въпросът не е, когато стигнем до ISI, въпросът е каква ще бъде мотивацията му. Курцвейл отговаря на този въпрос предпазливо: „ISI произтича от много различни усилия и ще бъде дълбоко интегрирана в инфраструктурата на нашата цивилизация. Всъщност тя ще бъде тясно вградена в нашето тяло и мозък. Той ще отразява нашите ценности, защото ще бъде едно с нас “.

Но ако отговорът е, защо толкова много умни хора на този свят се притесняват от бъдещето на изкуствения интелект? Защо Стивън Хокинг казва, че развитието на ISI "би могло да означава края на човешката раса"? Бил Гейтс казва, че "не разбира хора, които не се притесняват" по въпроса. Елон Мъск се страхува, че "призоваваме демон". Защо много експерти смятат ISI за най-голямата заплаха за човечеството?

Въз основа на материали от waitbutwhy.com, компилация от Тим Урбан. Статията използва материали от творбите на Ник Бостром, Джеймс Барат, Рей Курцвайл, Джей Нилс-Нилсон, Стивън Пинкър, Вернор Винг, Моше Варди, Ръс Робъртс, Стюарт Армстрог и Кай Сотал, Сюзън Шнайдер, Стюарт Ръсел и Питър Норвиг, Теодор Модис Маркъс, Карл Шулман, Джон Сиърл, Джарон Лание, Бил Джой, Кевин Кели, Пол Алън, Стивън Хокинг, Курт Андерсен, Мич Капор, Бен Херцел, Артур Кларк, Хюберт Дрейфус, Тед Гринуалд, Джеръми Хауърд.

Автор: Иля Кел

Част трета: защо може да бъде последното ни изобретение?

Препоръчано: