Опасно човечество: защо се нуждаем от интелигентен изкуствен интелект? - Алтернативен изглед

Съдържание:

Опасно човечество: защо се нуждаем от интелигентен изкуствен интелект? - Алтернативен изглед
Опасно човечество: защо се нуждаем от интелигентен изкуствен интелект? - Алтернативен изглед

Видео: Опасно човечество: защо се нуждаем от интелигентен изкуствен интелект? - Алтернативен изглед

Видео: Опасно човечество: защо се нуждаем от интелигентен изкуствен интелект? - Алтернативен изглед
Видео: Настя и сборник весёлых историй 2024, Може
Anonim

Когато Норберт Винер, бащата на кибернетиката, написа книгата си „Човешките употреби на човешките същества“през 1950 г., вакуумните тръби все още бяха основните електронни градивни елементи и всъщност имаше само няколко компютъра на работа. Въпреки това той предвиждаше бъдещето, което сега виждаме с безпрецедентна точност, като сбърка само незначителни детайли.

Преди всеки друг философ на изкуствения интелект той разбра, че AI не само ще имитира - и замества - човешките същества в много видове интелектуална дейност, но и ще промени хората в процеса. „Ние сме просто водовъртежи в река на непрекъснато течаща вода“, пише той. "Ние не сме нещо, което просто живее, ние сме модели, които увековечават себе си."

Например, когато възникнат много примамливи възможности, ние сме готови да платим и приемем малките разходи за ръководене на бизнес за достъп до нови възможности. И много скоро ставаме зависими от нови инструменти, губим способността да съществуваме без тях. Опциите стават задължителни.

Това е много стара история на еволюцията и много от главите от нея са ни добре познати. Повечето бозайници могат да синтезират собствения си витамин С, но приматите, хранещи се с плодове, са загубили тази вградена способност. Самоповторяващите се модели, които наричаме хората, сега разчитат на дрехи, преработена храна, витамини, спринцовки, кредитни карти, смартфони и интернет. И утре, ако не днес, от изкуствен интелект.

Винер предвижда няколко проблема с това състояние на нещата, които Алън Тюринг и други ранни оптимисти на AI до голяма степен пренебрегват. Истинската заплаха, каза той, беше:

… е, че подобни машини, макар и безпомощни сами по себе си, могат да бъдат използвани от хората или да блокират човешките същества, за да увеличат контрола си над останалата част от расата, или политическите лидери могат да се опитат да поемат контрола над своето население, използвайки политически методи, а не самите машини, толкова тесни и безразлични към човека, сякаш са измислени механично.

Очевидно тези опасности сега са много актуални.

В медиите например иновациите в дигиталното аудио и видео ни позволяват да платим малка цена (в очите на аудиофилите и киноманите), за да се отдалечим от аналоговите формати, а в замяна получаваме изключително прост - твърде прост - начин за възпроизвеждане на записи с почти никакви ограничения.

Промоционално видео:

Image
Image

Но има огромни скрити разходи. Служението на Оруел е истинска възможност. Техниките на AI за създаване на почти неразличими фалшиви "записи" правят инструментите, които сме използвали за разследвания, остаряли през последните 150 години.

Просто трябва да изоставим кратката ера с фотографски доказателства и да се върнем в онзи стар свят, където човешката памет и доверие бяха златният стандарт. Или можем да разработим нови методи за защита и атака в битката за истината. Един от най-вълнуващите скорошни примери е фактът, че е много по-евтино да се унищожи репутация, отколкото да се спечели и защити същата репутация. Винер вижда този феномен много широко: "В дългосрочен план няма да има разлика между въоръжаването и въоръжаването на врага." Ерата на информацията също се превърна в ера на дезинформация.

Какво можем да направим? Ключът е същото наблюдение на Винер, че „тези машини“са „сами по себе си безпомощни“. Ние създаваме инструменти, а не колеги и истинската заплаха е, че не виждаме разликата.

Изкуственият интелект в сегашната си форма е паразитен върху човешкия интелект. Той много безцеремонно владее всичко, което са създали човешките създатели и рисува модели - включително най-тайните ни навици. Тези машини все още нямат цели или стратегии, не са способни на самокритика и иновации, те изучават само нашите бази данни, без собствени мисли и цели.

Те, както казва Винер, са безпомощни не в смисъл, че са оковани или обездвижени, не, те изобщо не са агенти - нямат способността да „действат от каузи“, както би казал Кант.

В дългосрочен план „силен AI“или общ изкуствен интелект е възможен по принцип, но не е желателно. Още по-ограниченият ИИ, който е възможен на практика днес, няма да бъде зло. Но представлява заплаха - отчасти защото може да се сбърка с мощен AI.

Колко силен е изкуственият интелект днес?

Пропастта между днешните системи и научнофантастичните системи, заливащи популярното въображение, все още е огромна, въпреки че много хора, както аматьори, така и професионалисти, са склонни да я подценяват. Нека да разгледаме Уотсън на IBM, който може да бъде респектиращ в този ден и възраст.

Този суперкомпютър е резултат от изключително мащабен научноизследователски и развоен процес (изследвания и разработки), включващ много хора и проекти за разузнаване през много векове, и той използва хиляди пъти повече енергия от човешкия мозък. Победата му в опасност! беше истински триумф, възможен от формуличните ограничения на правилата на Jeopardy !, но дори тези правила трябваше да бъдат преразгледани, за да може той да участва. Трябваше да се откажа от малко гъвкавост и да добавя човечност, за да направя шоуто.

Watson е лоша компания, въпреки подвеждащи реклами от IBM, които обещават AI разговорна способност и на двете нива, и превръщането на Watson в надежден многоличен агент би било като превръщането на калкулатор в Watson. Уотсън може да е добър изчислителен случай за такъв агент, а по-скоро мозъчен мозък или амигдала, а не ум - в най-добрия случай подсистема със специално предназначение, служеща за подкрепа, но не и почти система за планиране и формулиране на цели въз основа на придобития разговорния опит.

Защо бихме искали да създадем мислещ и креативен агент от Уотсън? Може би блестящата идея на Тюринг - известният тест на Тюринг, ни е примамила в капан: ние бяхме обсебени от създаването на поне илюзията за истински човек, седнал пред екрана, заобикаляйки „зловещата долина“.

Опасността е, че откакто Тюринг представи своята задача - която преди всичко беше задача да заблуди съдиите - създателите на AI са се опитали да го изпълнят със смешни хуманоидни кукли, „карикатурни“версии, които ще очароват и обезоръжат непосветените. ELIZA от Джоузеф Вайсенбаум, първият чатбот, беше отличен пример за създаване на такава илюзия, но с изключително прост алгоритъм, който можеше да убеди хората, че водят искрени и искрени разговори с други хора.

Притесняваше се от лекотата, с която хората са готови да повярват в това. И ако имаме едно нещо от годишния тест за ограничен престой на Lebner Prize Limited, то е, че дори и най-умните хора, които не са запознати с компютърно програмиране, лесно попадат в тези прости трикове.

Отношението на хората в ИИ към такива техники варира от преценяващо до възнаграждаване и консенсусът е, че тези трикове не са много дълбоки, но могат да бъдат полезни. Промяната в отношението, която би била много добре дошла, би било искрено признание, че рисуваните с кукли андроиди са фалшиви реклами, които трябва да бъдат съдени, а не насърчавани.

Как може да се постигне това? След като разберем, че хората започват да взимат решения за живота и смъртта, следвайки „съветите“на AI системите, чиито вътрешни операции са почти неразбираеми, ще видим добра причина тези, които призовават хората да се доверят на такива системи, да започнат да разчитат на нормите на морала и закона.

Системите за изкуствен интелект са много мощни инструменти. Толкова мощни, че дори експертите имат основателна причина да не се доверяват на собствената си преценка, когато има „преценки“, представени от тези инструменти. Но ако тези потребители на инструментите ще се възползват финансово или по друг начин от популяризирането на тези инструменти, те трябва да се уверят, че знаят как да го направят с пълна отговорност, максимален контрол и оправдание.

Лицензиране и одобряване на операторите на такива системи - точно както ние лицензираме фармацевти, оператори на кранове и други специалисти, чиито грешки и неправилни преценки могат да имат тежки последици - може би с подкрепата на застрахователни компании и други организации да задължат създателите на AI системи да извървят дългия път търсейки слабостите и недостатъците на техните продукти, а също така обучавайте онези, които ще работят с тях.

Човек може да си представи един вид обратен тест на Тюринг, при който съдията ще бъде обект на оценката; докато не открие слабост, нарушаване на границите, пропуски в системата, той няма да получи лиценз. Такъв съдия ще изисква сериозно обучение, за да получи сертификат. Поривът да се припише на обект човешка способност да мисли, както обикновено правим при среща с интелигентен агент, е много, много силен.

Всъщност способността да се съпротивляваме на желанието да видим нещо хуманизирано е странно нещо. Много хора смятат, че подхранването на такъв талант е съмнително, защото дори и най-прагматичните потребители на системата понякога са „приятелски настроени“относно своите инструменти.

Независимо колко внимателно дизайнерите на AI избират да премахнат фалшивите "човешки" обертонове в своите продукти, трябва да очакваме процъфтяване на етикети, преодоляване и допустими изкривявания на действителното "разбиране" на двете системи и техните оператори. По същия начин, по който по телевизията се рекламират лекарства с дълъг списък от странични ефекти, или алкохолът се рекламира с изобилие от малък шрифт с всички предупреждения, изисквани от закона, така разработчиците на изкуствен интелект ще спазват закона, но ще бъдат усъвършенствани в предупрежденията.

Защо се нуждаем от изкуствен интелект?

Не се нуждаем от изкуствено съзнателни агенти. Има множество естествени съзнателни агенти, които са достатъчни за изпълнение на всяка задача за професионалисти и привилегировани личности. Нуждаем се от умни инструменти. Инструментите нямат права и не трябва да имат чувства, които могат да бъдат наранени или злоупотребявани.

Една от причините да не се правят изкуствени съзнателни агенти е, че макар да могат да станат автономни (и по принцип те могат да бъдат толкова автономни, самоусъвършенстващи се или самосъздаващи се, колкото всеки човек), те не трябва - без специално разрешение - да споделят с нашите естествени съзнателни агенти, нашата уязвимост или смъртност.

Даниел Деннет, професор по философия в университета в Туфтс, веднъж предизвика предизвикателства пред студенти в работилница за изкуствени агенти и автономия: Дайте ми спецификациите на робот, който може да подпише договор с вас - не сурогат, собственост на друг човек, а сам. Това не е въпрос на разбиране на причините или манипулиране на писалката на хартия, а по-скоро на собствеността и заслуженото притежаване на правен статут и морална отговорност. Малките деца не могат да подписват такива договори, както и хората с увреждания, чийто правен статут ги задължава да бъдат поставени под запрещение и налага отговорност на настойниците.

Проблемът с роботи, които биха могли да искат да постигнат такъв възвишен статус, е, че подобно на Superman, те са твърде уязвими, за да отправят подобни претенции. Ако откажат, какво ще се случи? Какво ще бъде наказанието за нарушаване на обещание? Ще бъдат ли затворени в клетка или отделени? Затворът за изкуствен интелект няма да бъде неудобен, ако първо не заредим жаждата за свобода, която не може да бъде игнорирана или забранена от самия ИИ. Разглобяването на AI няма да убие информацията, която се съхранява на неговия диск и в софтуера.

Лекотата на цифровото записване и предаване на данни - пробивът, който позволи на софтуера и данните да постигнат всъщност безсмъртие - прави роботите неуязвими. Ако не изглежда очевидно, помислете как би се променил моралът на хората, ако можехме да подкрепяме хората всяка седмица. Прескачането на мост без гумена лента в неделя след резервно копие в петък може да бъде необмислено решение, след което можете да гледате кадрите от вашата ненавременна смърт по-късно.

Ето защо ние не създаваме съзнателни - бихме искали да създадем - хуманоидни агенти, а по-скоро напълно нов тип същества, някакви оракули, безсъзнателни, без страх от смъртта, без разсейване от любов и омраза, без личност: огледала на истината, която почти сигурно ще бъде заразена от човека лъжи.

Човешкото използване на хората скоро ще се промени - за пореден път - завинаги, но ако поемем отговорност за своята еволюционна траектория, можем да избегнем ненужните опасности.

Иля Кел

Препоръчано: