За да избегне смъртта, човечеството трябва да заключи изкуствения интелект - Алтернативен изглед

Съдържание:

За да избегне смъртта, човечеството трябва да заключи изкуствения интелект - Алтернативен изглед
За да избегне смъртта, човечеството трябва да заключи изкуствения интелект - Алтернативен изглед

Видео: За да избегне смъртта, човечеството трябва да заключи изкуствения интелект - Алтернативен изглед

Видео: За да избегне смъртта, човечеството трябва да заключи изкуствения интелект - Алтернативен изглед
Видео: Ангел Бэби Новые серии - Игра окончена (29 серия) Поучительные мультики для детей 2024, Може
Anonim

Свръх интелигентните компютри или роботи, които заплашват съществуването на човешката раса, са любим сюжет на научната фантастика. В действителност според учените подобен сценарий на съдбата може да бъде предотвратен само чрез създаване на виртуален „затвор“за съдържане на изкуствен интелект (AI). И това трябва да стане, преди да се научи да се осъзнава и да се усъвършенства.

Ако пуснете този джийн от бутилката, тогава от оракул, който решава проблемите ни, той може да се превърне в апокалиптична заплаха, казва Роман Ямполски, учен от университета в Луисвил, Кентъки, който работи в областта на компютърните науки. Условията, в които ще се съдържа AI, трябва да бъдат внимателно планирани, така че да не може да се освободи чрез заплахи, подкуп, изкушения или хакерство на компютър.

„Той може да измисли много начини да повлияе, да използва сложна социално-инженерна комбинация и да използва съществуващи хардуерни компоненти за цели, които дори не можем да си представим“, смята Ямполски. - Такъв софтуер има неограничени възможности за заразяване на компютри и мрежи. AI може да намери начини да повлияе на човешката психика, подкупи или изнудване на хора, които са в контакт с нея."

Появата на нова област от научни изследвания, която се занимава с проблема за създаването на „затвор“за изкуствен интелект, има допълнителни ползи. Тези проучвания са много полезни за подобряване на компютърната сигурност и криптографията, сигурен е Ямполски. Предложенията му бяха подробно описани в мартния брой на академичното списание на Journal of Consciousness Studies.

Как да настроите капан за Skynet

Като за начало можете да затворите изкуствения интелект във „виртуална машина“. Оставете го да работи в рамките на нормална операционна система - ограничаването на AI достъпа до софтуера и хардуера на хост компютъра ще го направи много по-безобиден. Така или иначе, интелигентният AI няма да може да изпраща тайни съобщения на своите човешки привърженици, побеждавайки Морзе код с охлаждащи вентилатори.

Поставянето на изкуствен интелект в компютър без достъп до Интернет е добър начин да осуети коварните планове на AI да защити Земята от вас и мен. В случай на някаква друга повреда, изследователите винаги могат да забавят мисловния процес на AI, като забавят скоростта на обработка на компютъра, редовно натискат бутона за нулиране или изключват AI от захранването.

Промоционално видео:

Тези мерки за сигурност са предназначени да се справят с високо интелигентни и опасни компютърни вируси, но доколко ефективни в действителност се оказват, е предположението на някой.

Catch-22 (роман на американския писател Дж. Хелър; приблизително Mixednews) е, че не можем да проведем мащабно тестване на нашите идеи, докато разработването на AI не завърши. Но за да се направи AI безопасен, е необходимо да се разработи набор от подходящи мерки, казва Ямполски. „Най-добрият вариант е да наложите ограничения за използването на AI системи и след това, ако е необходимо, да промените тези ограничения в съответствие с нарастващите възможности на AI.“

Image
Image

Ученият Роман Ямполски предложи да се използва знакът "@" или други знаци, използвани днес за обозначаване на радиационна или биологична заплаха, за да се посочи наличието на опасност, свързана с изкуствения интелект.

Никога не слагайте защитник на човека върху превозното средство

По време на привидно невинен разговор с охранител, нищо няма да попречи на ИИ да използва психологически техники като приятелство или изнудване. Човек може да бъде подкупен, като му обещае перфектно здраве, безсмъртие или дори обещание да върне роднини и приятели от другия свят. Или постигнете нещо със заплахи.

Най-сигурният начин за комуникация с AI е да го накарате, когато решавате конкретен научен или технически проблем, да изберете отговор от многото налични опции, обяснява Ямполски. Това ще помогне да се поддържа супер интелигентният оракул на къса каишка.

Много изследователи смятат, че въпреки всички предпазни мерки, поддържането на AI smartass затворено за неопределено време няма да работи. Последният експеримент на Eliezer Yudkowsky, изследовател в Института за сингулярност върху създаването на изкуствен интелект, показа, че дори интелигентността на човешко ниво може да заблуди човек и да „избяга“от затвора.

Независимо от това Ямполски настоява да държи AI в строга изолация - все пак е по-добре от това да се откажеш и да му дадеш пълна свобода. Но ако развитието на AI достигне дотам, че може да манипулира човек, използвайки подсъзнанието (предсказвайки бъдещето), телепатията или телекинезата, последствията ще бъдат непредсказуеми.

„Ако подобен ИИ ще се самоусъвършенства и ще достигне ниво, значително надвишаващо възможностите на човешката интелигентност, последиците дори не могат да се представят“, предупреждава Ямполски.