Морална машина: инженерите са дарили изкуствения интелект с морал и етика - Алтернативен изглед

Съдържание:

Морална машина: инженерите са дарили изкуствения интелект с морал и етика - Алтернативен изглед
Морална машина: инженерите са дарили изкуствения интелект с морал и етика - Алтернативен изглед

Видео: Морална машина: инженерите са дарили изкуствения интелект с морал и етика - Алтернативен изглед

Видео: Морална машина: инженерите са дарили изкуствения интелект с морал и етика - Алтернативен изглед
Видео: Zhanna de Allatra Muestra de Nuevo Ojos Reptilianos En los Saludos de Año Nuevo 2024, Може
Anonim

Колкото по-силен AI навлиза в нашето ежедневие, толкова по-често трябва да се сблъсква със сложни морални и етични дилеми, които понякога не са толкова лесни за решаване от живия човек. Учени от Масачузетския технологичен институт се опитаха да разрешат този проблем и дариха машината със способността да мисли в морален смисъл, въз основа на мнението на повечето живи хора.

Някои експерти смятат, че най-добрият начин за обучение на изкуствен интелект за справяне с морално трудни ситуации е чрез използването на „опит от тълпата“. Други твърдят, че този подход не е без пристрастия и различните алгоритми могат да стигнат до различни заключения от един и същ набор от данни. Как може машините да бъдат в такава ситуация, която очевидно ще трябва да взема трудни морални и етични решения, когато работи с реални хора?

Интелект и морал

Тъй като системите за изкуствен интелект (AI) се развиват, експертите все повече се опитват да решат проблема как най-добре да дадат на системата етична и морална основа за извършване на определени действия. Най-популярната идея е ИИ да прави изводи, като изучава човешките решения. За да проверят това предположение, изследователи от Масачузетския технологичен институт създадоха Моралната машина. Посетителите на уебсайта бяха помолени да направят избор за това как да действа автономно превозно средство, когато са изправени пред доста труден избор. Например, това е позната дилема за потенциална авария, която има само две възможности за развитие на събитията: колата може да удари трима възрастни, за да спаси живота на две деца, или може да направи обратното. Коя опция трябва да изберете? И възможно ли е напримерда жертва живота на възрастен човек, за да спаси бременна жена?

В резултат на това алгоритъмът събра огромна база данни въз основа на резултатите от теста и Ариел Прокача от Катедрата по компютърни науки в университета Карнеги Мелън реши да ги използва за подобряване на интелигентността на машината. В ново проучване той и един от създателите на проекта, Iyad Rahwan, заредиха пълната база на проекта Moral Machine в AI и помолиха системата да предвиди как колата на автопилот ще реагира на подобни, но все пак малко по-различни сценарии. Прокача искаше да демонстрира как системата, базирана на гласуване, може да бъде решение за „етичен” изкуствен интелект. възможно е.

Кръстосан морал

Промоционално видео:

Самата идея за избор между два морално отрицателни резултата не е нова. Етиката използва отделен термин за него: принципът на двойния ефект. Но това е областта на биоетиката, но никой досега не е прилагал подобна система върху автомобил и следователно проучването предизвика особен интерес сред експерти по целия свят. Съпредседателят на OpenAI Илон Мъск вярва, че създаването на "етичен" AI е въпрос на разработване на ясни насоки или политики, които да ръководят развитието на програмата. Политиците постепенно го изслушват: например Германия създаде първите етични принципи в света за автономните автомобили. Дори Alphabet AI DeepMind на Google вече има отдел по етика и обществен морал.

Други експерти, включително екип от изследователи от университета Дюк, вярват, че най-добрият начин за придвижване напред е създаването на „обща рамка“, която описва как ИИ ще взема етични решения в дадена ситуация. Те вярват, че обединяването на колективните морални възгледи, както в същата Морална машина, ще направи изкуствения интелект още по-морален в бъдеще, отколкото съвременното човешко общество.

Критика към "моралната машина"

Както и да е, понастоящем принципът на "мнението на мнозинството" далеч не е надежден. Например една група от анкетираните може да има пристрастия, които не са общи за всички останали. Резултатът ще бъде, че AI, дадени на абсолютно един и същ набор от данни, могат да стигнат до различни заключения въз основа на различни извадки от тази информация.

За професор Джеймс Гримелман, който се специализира в динамиката между софтуера, богатството и властта, самата идея за обществен морал изглежда погрешна. „Той не е в състояние да преподава етика на изкуствения интелект, а само го дарява с подобие на етични стандарти, присъщи на определена част от населението“, казва той. И самият Прокача, както беше споменато по-горе, признава, че техните изследвания не са нищо повече от успешно доказателство за концепцията. Той обаче е уверен, че подобен подход може да донесе успех на цялата кампания за създаване на силно морален ИИ в бъдеще. „Демокрацията, без съмнение, има редица недостатъци, но като единна система тя работи - дори някои хора все пак да вземат решения, с които мнозинството не е съгласно.“

Василий Макаров