„Сега трябва да мислим как да осигурим изкуствен интелект“- Алтернативен изглед

„Сега трябва да мислим как да осигурим изкуствен интелект“- Алтернативен изглед
„Сега трябва да мислим как да осигурим изкуствен интелект“- Алтернативен изглед
Anonim

Стивън Хокинг продължава „кръстоносния поход“срещу изкуствения интелект (AI).

По време на дългоочакваната кампания Ask Me Everything on Reddit той написа, че работата по разработването на протокол за сигурност на AI трябва да се свърши сега, а не в далечното бъдеще.

„Нашата цел не трябва да е да създадем абстрактна изкуствена интелигентност, а да създадем полезен интелект,“пише известният физик. „Ще отнеме десетилетия, за да разберем как да направите това, така че нека започнем да изследваме този проблем сега, а не в нощта преди първата напреднал AI”.

Хокинг използва славата, за да подкрепи движението за безопасност на ИИ от 2014 г., когато съавтор написа с други изследователи предупреждение за екзистенциалната заплаха, която напредналите машини представляват за човечеството.

Други знатни технологични личности, Елон Мъск и Стив Возняк, се присъединиха към Хокинг. По-рано през това време и тримата подписаха отворено писмо с призив за забрана на автономни оръжия или бойни роботи.

Очакванията, че човечеството скоро ще създаде изкуствен интелект, съществуват от 50-те години и все още не са се оправдали. Въпреки това повечето учени в ИИ вярват, че през този век ще се появят машини, равни на интелигентност на хората.

Image
Image

Снимка: ANDREW COWIE / AFP / Гети Имиджис

Промоционално видео:

Хокинг предупреждава, че изобразяването на изкуствения интелект във филмите за научна фантастика изкривява реалната опасност от машините. Филми като The Terminator изобразяват демонични роботи убийци, които се стремят да унищожат човечеството по причини, които реалният изкуствен интелект не е имал. Те също така улесняват смекчаването на потенциалния риск от ИИ (като не изграждане на киборги).

„Истинската заплаха от ИИ не е, че е зло, а че е много способна. Изкуственото суперинтелигентство е много добро при изпълнение на задачите си.

Ако задачите му не съвпадат с нашите, ще имаме проблеми, - пише Хокинг, - едва ли мразите мравки, но ако отговаряте за проект за зелена енергия, а районът, където се намира мравунякът, трябва да бъде наводнен, мравките нямат късмет. Нека не позволяваме на човечеството да се озове в положението на тези мравки “.

Ник Бостром, философ на AI, фантазира за сценариите в края на света, когато една програма започне да работи в грешна посока. Например, изкуственият интелект получава задачата да разработи план за опазване на околната среда и за да реши проблема с екологията, той решава да унищожи човечеството.

Елон Мъск вече е отделил 10 милиона долара за изследвания на сигурността на AI, за да предотврати появата на разрушителен изкуствен интелект като Skynet в Terminator. Но Хокинг иска хората да променят цялостното си възприятие за AI.

"Моля, кажете на учениците си да мислят не само за това как да създадат AI, но и как да гарантират, че той се използва за полезни цели", казва Хокинг на учителя, който изнася лекции за изкуствения интелект. или най-доброто, или най-лошото събитие в човешката история. Затова е важно всичко да върви както трябва ".

Препоръчано: