Google не иска да създаде Skynet един ден, затова създава превключвател за AI - Алтернативен изглед

Google не иска да създаде Skynet един ден, затова създава превключвател за AI - Алтернативен изглед
Google не иска да създаде Skynet един ден, затова създава превключвател за AI - Алтернативен изглед

Видео: Google не иска да създаде Skynet един ден, затова създава превключвател за AI - Алтернативен изглед

Видео: Google не иска да създаде Skynet един ден, затова създава превключвател за AI - Алтернативен изглед
Видео: СКАЙНЕТ НАСТУПИЛ! 2024, Юли
Anonim

Има две основни противоположни страни във въпросите и дискусиите за бъдещето на изкуствения интелект. В единия ъгъл се намират компании като Google, Facebook, Amazon и Microsoft, които инвестират агресивно в технологията, за да направят AI системите по-интелигентни, в другия са големите мислители на нашето време като Илон Мъск и Стивън Хокинг, които вярват че развитието на AI е сходно с "демон заклинание".

Една от най-напредналите AI компании, DeepMind, собственост на Google, създаде мерки за сигурност в случай, че човек трябва „да поеме контрола над робот, чийто провал може да доведе до непоправими последици“. Можем да предположим, че говорим за … "убий всички хора." Разбира се, в действителност предприетата мярка не е намек за възможен апокалипсис, а по-скоро за мерки за сигурност, свързани с интелигентни роботи, които работят и ще работят в бъдеще в различни фабрики и заводи.

Публикуваният документ с рецепти е съвместна работа на DeepMind и Оксфордския институт за бъдещето на човечеството, който, както подсказва името, се занимава с въпроси, които ще позволят на това човечество да влезе в бъдещето. От десетилетия основателят на института Ник Бостром много ясно говори за възможните опасности от развитието на изкуствения интелект и написа повече от една книга по този въпрос, в която обсъди последствията от създаването на свръх интелигентни роботи.

Ръководството, за което говорим днес, наричано „Агенти за безопасно увреждане“, изследва как да деактивираме AI, ако започне да прави неща, които човешкият оператор не иска да прави. Работата се състои от различни изчисления и формули, които 99 процента от нас най-вероятно няма да разберат. Следователно, по-просто казано, говорим за „червен бутон“, който може да деактивира AI.

Може да се смеете и да се чудите, но пионерите на роботиката и AI гледат едни и същи научнофантастични филми, които правим ние. Тези, в които веднъж роботите измислиха как да игнорират командата за изключване. Така че сега ще сме готови за това. Публикуваният документ описва методи и решения, за да се гарантира, че „обучимият агент“(прочетете AI) не може да се научи да игнорира или предотвратява въздействието на външната среда или човешкия оператор.

Това може да ви се струва прекалено, особено когато имате предвид, че най-модерният AI в момента наистина е добър само в настолните игри. Въпреки това, Bostrom вярва, че преди да започнем да създаваме AI на нивото на човешкия мозък, трябва да се вземат подходящи мерки:

„Веднага след като изкуственият интелект достигне човешкото ниво, се очаква рязък скок в развитието в много области. Освен това скоро след това самите ИИ ще създават нови ИИ. Просто преценете тези перспективи и в същото време възможните опасности. Затова е по-добре да прекалявате, отколкото да го пропускате “.

НИКОЛАЙ ХИЖНЯК

Промоционално видео: