Как се създава робот, който иска да промени света? - Алтернативен изглед

Съдържание:

Как се създава робот, който иска да промени света? - Алтернативен изглед
Как се създава робот, който иска да промени света? - Алтернативен изглед

Видео: Как се създава робот, който иска да промени света? - Алтернативен изглед

Видео: Как се създава робот, който иска да промени света? - Алтернативен изглед
Видео: Как ще се Промени Света до 2050г? . Бъдещето на Роботите. 2024, Септември
Anonim

Компютърният учен Кристоф Солг се опитва да премахне необходимостта от правила, които управляват поведението на роботите. Стратегията му е да им даде цел: да ни направи по-мощни. Кристоф работи в Game Innovation Lab в университета в Ню Йорк. Саша Маслов интервюира „Продадено“за списание Quanta, от което научаваме, че може би не си струва да се опитваме да задържаме неудържимия поток от технологична сингулярност.

Известните три закона на роботиката на Исак Азимов - ограничаващи поведението на андроидите и автоматите, за да се запази човечеството в безопасност - също не са завършени. Тези закони се появяват за първи път в разказа на Азимов през 1942 г., а след това в класически произведения като „Аз, робот“и звучат по следния начин:

1. Роботът не може да навреди на човек или с бездействието си да позволи да бъде нанесена вреда на човек.

2. Роботът трябва да се подчинява на заповедите, дадени от хората, ако те не противоречат на Първия закон.

3. Роботът трябва да защитава съществуването си, ако тази защита не противоречи на Първия или Втория закон.

Разбира се, в тези закони може да се открият много противоречия и вратички (които всъщност използва и самият Азимов). В сегашната ни епоха на усъвършенстван софтуер с машинно обучение и автономна роботика, дефинирането и внедряването на желязната етика на изкуствения интелект се превърна в належащо предизвикателство за организации като Института за машинно разузнаване и OpenAI.

Кристоф Салдж възприе различен подход. Вместо да налагат философски дефиниции отгоре надолу за това как трябва или не трябва да се държат изкуствените агенти, Салдж и колегата му Даниел Полани изследват пътя отдолу нагоре или „какво трябва да направи първо роботът“, както те написаха в статията си „Овластяване като заместител на трите закона на роботиката“. Empowerment, концепция, родена на пресечната точка на кибернетиката и психологията, описва вътрешната мотивация на агента да се съпротивлява и да работи в среда едновременно. „Като организъм той иска да оцелее. Той иска да остави следа в света “, обяснява Салдж. Прахосмукачката на Roomba, програмирана да търси зарядна станция, когато батериите й са изтощени, е елементарен пример за „овластяване“: да продължи да функционира в света,той трябва да получи заряд и да продължи собственото си съществуване, тоест да оцелее.

Овластяването може да звучи като рецепта за самия резултат, от който се застъпват защитниците на безопасен изкуствен интелект като Ник Бостром: мощна автономна система, занимаваща се само със собствени интереси и полудяваща в процеса. Но Салдж, който изучава социалните взаимодействия човек-машина, пита: Какво се случва, ако упълномощен агент „овластява и друг? Роботът трябва не само да иска да остане в изправност - той трябва да иска и да подкрепя своя човешки партньор."

Промоционално видео:

Солдж и Полани осъзнават, че теорията на информацията предлага начин за превръщане на това взаимно разширяване в математическа рамка за изкуствен агент, който не философства. „Един от недостатъците на трите закона на роботиката е, че те се основават на езика и езикът е много двусмислен“, казва Салдж. „Опитваме се да намерим нещо, което всъщност може да се направи.“

Някои технолози смятат, че ИИ представлява голяма, дори катастрофална заплаха за човешкото съществуване. А ти?

Ще се въздържа. Така че наистина вярвам, че сега има страх от роботи и нарастващото влияние на ИИ. Но мисля, че в краткосрочен план вероятно ще бъдем по-загрижени за възможни промени в работата, процеса на вземане на решения, загубата на демокрация, загубата на личен живот. Не знам доколко скоро ще се появи неудържим ИИ. Но дори AI да контролира здравната система и да издава рецепти, трябва да помислим за етичните проблеми, които възникват в хода на нейното функциониране.

Как концепцията за овластяване може да ни помогне да се справим с тези предизвикателства?

Мисля, че идеята за овластяване запълва ниша. Това няма да позволи на агента да остави човека да умре, но след като успеете да се задържите на този праг, това ще подкрепи намерението да създаде допълнителни възможности за човека да изрази и да повлияе на света. В една от книгите на Азимов роботите просто ще сложат всички хора в безопасни контейнери. Това би било нежелателно. Ако способността ни да влияем на света продължава да се подобрява, мисля, че ще бъде много по-интересна цел за постигане.

Тествахте идеите си за виртуален агент в среда на видеоигри. Какво стана?

Агентът, мотивиран от собствените си разширени права, ще избегне снаряда и няма да падне в ямата, като цяло ще избегне всяка ситуация, която може да доведе до загуба на подвижност, смърт или повреда по такъв начин, че да намали неговата работоспособност. Той просто ще се задържи.

Заедно с човешкия играч, който също е надарен с разширени права, видяхме, че виртуалният робот ще поддържа определена дистанция, за да не възпрепятства човешкото движение. Той няма да ви блокира, няма да застане на пътеката, за да не можете да преминете. Той ще остане възможно най-близо до вас, за да ви помогне. Това води до поведение, при което той може както да поеме инициативата, така и да следва чуждото.

Например създадохме сценарий, при който имахме лазерна бариера, която е опасна за хората, но безопасна за робот. Ако човекът в тази игра се приближи до лазерите, роботът има повече стимул да блокира лазера. Стимулът се засилва, когато човек застане точно пред бариерата, сякаш възнамерява да я премине. А роботът всъщност блокира лазера, заставайки пред човека.

Показаха ли тези агенти някакво неволно поведение, подобно на това, което следва от трите закона в книгата на Азимов?

Отначало поведението беше добро. Например, виртуален робот е прихванал противници, които са се опитали да ви убият. От време на време той подскачаше под куршум, ако това беше единственият начин да те спаси. Но това, което ни изненада особено от самото начало, беше, че той също се страхуваше много от човека.

Причината за това се дължи на неговия „късоглед“модел: всъщност той анализира как последователността на определени действия в две или три стъпки може да повлияе на света, както за вас, така и за него. Следователно, в първата стъпка програмирахме, че играчът действа произволно. Но на практика това доведе до факта, че агентът се отнасяше към човека като към някакъв вид психопат, който може например да застреля агента по всяко време. Следователно агентът трябваше много, много внимателно да избере позицията, в която човекът да не може да го убие.

Трябваше да поправим това, затова моделирахме така нареченото предположение за доверие. По принцип придружаващият агент действа въз основа на предположението, че лицето ще избере само онези действия, които няма да ограничат разширените права на самия агент - може би това е по-подходящ модел за придружителя.

Също така забелязахме, че ако имате, да речем, 10 точки за здраве в играта, спътникът наистина не се интересува дали сте загубили осем или девет от тези точки - той дори може да ви застреля веднъж, само за забавление. И тогава разбрахме, че има пропаст между света, в който живеем, и модела в компютърна игра. Веднага след като моделирахме ограничението на капацитета, причинено от загубата на здраве, проблемът изчезна. Може да се реши и чрез създаване на модел, който не е толкова късоглед, който да изчисли действията още няколко стъпки в бъдещето. Ако агентът можеше да погледне по-напред в бъдещето, той щеше да види, че наличието на повече точки за здраве може да бъде от полза за бъдещи събития.

Като вземе предвид, че промяната на броя на здравните точки по никакъв начин не засяга разширените ми права, агентът решава: „Застрелям го, не стрелям - каква е разликата?“И понякога стреля. Което, разбира се, е проблем. Не искам случайни изстрели към играчи. Добавихме поправка, за да направим виртуалния робот малко по-притеснен за вашето състояние от неговото.

Как правите тези понятия точни?

Ако разглеждаме агентите като системи за контрол, те могат да бъдат разложени на информационни компоненти: нещо се случва в света и по един или друг начин ви засяга. Не говорим за информация като неща, които вие възприемате, а като влияния от всякакъв вид - тя може да бъде вещество, нещо, което тече между света и вас. Във вашето тяло може да има температура или хранителни вещества. Всяко нещо, което преминава границата между света и агента, носи информация в себе си. По същия начин агентът може да повлияе на външния свят по различни начини, като също така извежда информация в него.

Можете да разглеждате този поток като честотна лента на канала, това е концепция от теорията на информацията. Можете да имате широки правомощия, разширени права, ако сте в състояние да предприемете различни действия, които водят до различни резултати. Ако нещо се обърка, ще загубите авторитета си, защото загубата на капацитет съответства на количествено намаляване на честотната лента на канала между вас и околната среда. Това е основната идея.

Колко трябва да знае агент, за да може пълните му сили да влязат в сила?

Разширените права имат предимството, че могат да бъдат приложени дори когато нямате пълни познания. Агентът наистина се нуждае от модел за това как действията му ще повлияят на света, но той не се нуждае от пълно разбиране на света и всички негови тънкости. За разлика от някои подходи, които се опитват да моделират всичко на света възможно най-много, в нашия случай просто трябва да разберете как вашите действия влияят върху собственото ви възприятие. Не е нужно да научавате всичко за всичко; трябва ви само агент, който изследва света. Той прави нещо и се опитва да разбере как неговите действия влияят на света. Моделът расте и агентът разбира все по-добре, когато границите на неговата власт се простират.

Изпробвахте го във виртуална среда. Защо не в реалния свят?

Основната пречка за мащабиране на този модел и поставянето му в истински робот е трудността да се изчисли честотната лента на агент и човек в такава богата среда като реалния свят за дълго време напред. Всички тези процеси тепърва трябва да станат ефективни. Оптимист съм, но засега този проблем остава чисто изчислителен. Затова проверяваме работата на системата в компютърна игра, в опростена форма.

Изглежда, че овластяването в идеалния случай ще направи нашите машини мощни кучета за обслужване

Дори познавам някои техници-роботи, които умишлено моделират поведението на спътник, базиран на куче. Мисля, че ако роботите се отнасят с нас като с кучетата си, в бъдеще всички ще се разбираме.

Иля Хел

Препоръчано: