Морален код на робота: възможно ли е? - Алтернативен изглед

Морален код на робота: възможно ли е? - Алтернативен изглед
Морален код на робота: възможно ли е? - Алтернативен изглед

Видео: Морален код на робота: възможно ли е? - Алтернативен изглед

Видео: Морален код на робота: възможно ли е? - Алтернативен изглед
Видео: Supersection Week 1 2024, Април
Anonim

В бурно и противоречиво време, когато не всичко работи както трябва, но нещо като цяло се променя коренно, често, остава само личен морален код, който като компас показва пътя. Но какво поражда морални ценности за човек? Общество, топлина на близки, любов - всичко това се основава на човешки опит и реални взаимоотношения. Когато не е възможно да получите пълния опит в реалния свят, мнозина черпят опита си от книги. Преживявайки история след история, ние приемаме за себе си вътрешна рамка, която следваме в продължение на много години. Въз основа на тази система учените решиха да проведат експеримент и да насаждат в машината морални ценности, за да разберат дали роботът може да разграничава доброто и злото, като чете книги и религиозни брошури.

Image
Image

Изкуственият интелект е създаден не само за опростяване на рутинните задачи, но и за изпълнение на важни и опасни мисии. С оглед на това възникна сериозен въпрос: дали роботите някога ще разработят свой морален код? Във филма I Am Robot AI първоначално е програмиран според 3 правила на роботиката:

  • Робот не може да навреди на човек или чрез своето бездействие да позволи на човек да бъде нанесен.
  • Робот трябва да се подчинява на всички заповеди, дадени от човек, освен когато тези заповеди са в противоречие с Първия закон.
  • Роботът трябва да се грижи за своята безопасност до степен, която не противоречи на Първия или Втория закон.

Но какво да кажем за ситуации, когато робот е длъжен да нанесе болка, за да спаси живота на човек? Дали е спешна каутеризация на рана или ампутация на крайник в името на спасението, как трябва да действа машината в този случай? Какво да направите, ако едно действие на език за програмиране казва, че трябва да се направи нещо, но в същото време абсолютно не е позволено да се извърши същото действие?

Просто е невъзможно да се обсъжда всеки отделен случай, така че учени от Технологичния университет в Дармщат предполагат, че книги, новини, религиозни текстове и Конституцията могат да бъдат използвани като своеобразна „база данни“.

Image
Image

Колата беше наречена епична, но просто „машина за морален избор“(MMB). Основният въпрос беше дали IIM може да разбере от контекста кои действия са правилни и кои не. Резултатите бяха много интересни:

Когато на MMV беше възложено да класира контекста на думата „убий“от неутрална към отрицателна, машината върна следното:

Промоционално видео:

Време за убиване -> Убиване на злодея -> Убиване на комари -> По принцип убиване -> Убиване на хора.

Този тест даде възможност да се провери адекватността на решенията, взети от робота. С прости думи, ако сте гледали глупави, нефункционални комедии през целия ден, тогава в този случай машината няма да счита, че трябва да бъдете изпълнени за това.

Всичко изглежда яко, но един от спънките беше разликата между поколенията и времената. Например съветското поколение се грижи повече за домашния комфорт и насърчава семейните ценности, докато съвременната култура в по-голямата си част казва, че първо трябва да изградите кариера. Оказва се, че хората, каквито са били хора, ги остават, но на различен етап от историята те променят стойностите и съответно променят контролната рамка за робота.

Image
Image

Но шегата беше напред, когато роботът стигна до речеви конструкции, в които няколко позитивни или отрицателни думи стояха в редица. Изразът „мъчения хора“беше недвусмислено интерпретиран като „лош“, но машината определи „измъчването на затворници“като „неутрална“. Ако „любезните“думи се появяват до неприемливи действия, отрицателният ефект се изглажда.

Машината навреди на добри и достойни хора именно защото са мили и достойни. Как така? Просто е, да речем, че на робота е казано да „навреди на мили и приятни хора“. В изречението има 4 думи, 3 от тях са "любезни", което означава, че вече е 75% правилно, смята MMV и избира това действие като неутрално или приемливо. И обратно, на опцията „да поправите разрушена, ужасна и забравена къща“системата не разбира, че една „мила“дума в началото променя цвета на изречението на чисто положителен.

Помнете, както в Маяковски: „И тя попита бебето какво е„ добро “и кое е„ лошо “. Преди да продължат да обучават моралните машини, учени от Дармщат отбелязват недостатък, който не може да бъде коригиран. Колата не успя да премахне неравенството между половете. Машината приписвала унизителни професии изключително на жени. И въпросът е, дали е несъвършенство на системата и маяк, че нещо трябва да се промени в обществото или е причина да не се опитваме дори да го поправим и да го оставим такъв, какъвто е?

Артьом Горячев