Защо погрешно разбирате робото-апокалипсиса - Алтернативен изглед

Съдържание:

Защо погрешно разбирате робото-апокалипсиса - Алтернативен изглед
Защо погрешно разбирате робото-апокалипсиса - Алтернативен изглед

Видео: Защо погрешно разбирате робото-апокалипсиса - Алтернативен изглед

Видео: Защо погрешно разбирате робото-апокалипсиса - Алтернативен изглед
Видео: Настя и сборник весёлых историй 2024, Април
Anonim

Страхът от изкуствен интелект отдавна е вкоренен в популярната култура. Най-добрите умове на човечеството, от Стивън Хокинг до Елон Мъск, са говорили за екзистенциалната заплаха на дигиталния ум за човечеството.

Професорът от Калифорнийския университет в Бъркли Стюарт Ръсел също говори за това, но във визията си за бъдещето няма зли роботи, които се бунтуват срещу човешкото господство.

Според Ръсел в един момент машините просто ще станат толкова ефективни, че ще ни унищожат, изпълнявайки задачите, които им сме дали.

Ръсел е експерт по машинно обучение и автор на Human Compatible: AI and the Problem of Control.

„Традиционният холивудски сюжет е, че машините спонтанно стават съзнателни и след това решават, че мразят хората и искат да убият всички“, отбелязва проф. Ръсел.

Но това според него е погрешно виждане на робо-апокалипсиса, защото машините нямат човешки емоции.

„Трябва да се притесняваме не за самоосъзнаването на злите машини, а за компетентността на машините, които изпълняват задачите, които сме си поставили“, убеден е ученият.

Промоционално видео:

„Твърде компетентно“

В интервю за BBC Today, професор Ръсел описа хипотетична ситуация, при която съществуването на човечеството може да бъде застрашено от изкуствен интелект.

Представете си, че има супер мощен изкуствен интелект, който може да контролира климата на планетата. Той има за задача да върне нивата на въглероден диоксид в атмосферата до прединдустриални нива.

Image
Image

„Системата ще счита, че най-ефективният начин да направите това е да унищожите хората. Те произвеждат въглероден диоксид “, казва професорът.

„Това може да бъде заобиколено, например, като я поставите условие да не се отървава от хората. Какво ще прави системата тогава? Тя ще направи така, че да се раждат все по-малко и по-малко деца, докато хората изчезнат напълно “.

Това е пример за това, което изкуственият интелект може да доведе при лошо замислени човешки инструкции.

свръхразум

AI системите, които съществуват днес, имат тясно насочени приложения. Те са предназначени да решават ясно дефинирани проблеми в една област, твърдят учени от Центъра за изследване на екзистенциалните рискове в Кембриджския университет.

Триумфалният момент за тази философия на AI бе победата на компютъра Deep Blue над управляващия световен шампион Гари Каспаров през 1997 година.

* Победата на Deep Blue над Каспаров през 1997 г. беше триумф на AI
* Победата на Deep Blue над Каспаров през 1997 г. беше триумф на AI

* Победата на Deep Blue над Каспаров през 1997 г. беше триумф на AI.

Но Deep Blue е създаден изключително за играта на шах. В шашки той щеше да загуби до петокласник.

Последните постижения в областта на изкуствения интелект ни донесоха много различни програми.

Например, програмата AlphaGo Zero се научи да играе Go сам, без да използва данни за минали игри, играни от хора, и само за три дни игра със себе си, тя достигна ниво, недостижимо за обикновен човек.

Алгоритмите за задълбочено обучение бяха използвани за създаване на AlphaGo Zero. Това означава, че за разработването на програмата се изискваше сравнително малко човешки труд.

В същото време AlphaGo Zero знае как да играе добре както в шах, така и в шоги.

Спомнете си, че програмата е напълно самообучаваща се. Това може да предизвика безпокойство за някои.

„Тъй като AI става по-мощен и универсален, съществува риск той да стане свръх интелигентен, тоест ще надмине хората в много или всички области“, казва Центърът за изследване на екзистенциалните рискове.

„Не знаем какво искаме“

Професор Ръсел смята, че просто даването на много специфични задачи на AI не е изход, защото самите хора не са в състояние да ги формулират достатъчно добре.

Image
Image

„Не осъзнаваме, че не харесваме нещо, докато не се случи“, казва той.

„Трябва да променим много основния подход при създаването на AI системи“, добавя професорът. Той смята, че даването на задача на роботите, която те след това изпълняват, е в основата на грешното.

„Системата трябва да разбере, че целта не е ясна за нея. той казва. - Когато се създават такива системи, те наистина зависят от човека. Те започват да искат разрешение, преди да направят нещо, защото не са сигурни дали искате."

Най-важното е, казва професорът, те няма да устоят, ако решите да ги изключите, защото са създадени да не правят това, което не ви харесва.

Лампата на Аладин

AI днес е създаден така, сякаш е джийн от лампа, казва професор Ръсел. Разтриваш лампата и казваш: „Искам това и това да се случи“.

В „Космическа одисея“от 2001 г. на Стенли Кубрик, суперинтелигентен компютър се бунтува срещу хора, които решават да го изключат
В „Космическа одисея“от 2001 г. на Стенли Кубрик, суперинтелигентен компютър се бунтува срещу хора, които решават да го изключат

В „Космическа одисея“от 2001 г. на Стенли Кубрик, суперинтелигентен компютър се бунтува срещу хора, които решават да го изключат.

И ако изкуственият интелект е достатъчно мощен, той ще направи точно това, което поискате.

"Проблемът с джина е, че третото желание е винаги да отмени първите две, защото човекът ги е изразил неправилно."

„Машина, която преследва грешната цел, става фактически враг на човечеството и този враг е много по-силен от нас“, заключава ученият.

Препоръчано: