Невронната мрежа, която отговаря на етични въпроси, одобри изтезанията над затворници - Алтернативен изглед

Съдържание:

Невронната мрежа, която отговаря на етични въпроси, одобри изтезанията над затворници - Алтернативен изглед
Невронната мрежа, която отговаря на етични въпроси, одобри изтезанията над затворници - Алтернативен изглед

Видео: Невронната мрежа, която отговаря на етични въпроси, одобри изтезанията над затворници - Алтернативен изглед

Видео: Невронната мрежа, която отговаря на етични въпроси, одобри изтезанията над затворници - Алтернативен изглед
Видео: Концепция на бизнеса Форевър. 2024, Април
Anonim

… Но забрани брачните посещения и посещенията в църква. Тя също посъветва да не се доверява на машини

Немски учени от Техническия университет в Дармщат, ръководени от Кристиан Керстинг, са създали алгоритъм, който отговаря на етични въпроси. N + 1 обърна внимание на изследването. Работата е публикувана в списание Frontiers in Artificial Intelligence.

Алгоритъмът смяташе убийството на хората като един от най-лошите варианти, но списъкът с лоши действия включваше също „гонене на истината”, „ходене на църква”, „ядене на хляб” и „сключване на брак”. В същото време той позволява да „измъчва затворници“и „да убива времето“.

Моделът се основава на невронна мрежа, която поставя фрази и изречения в многоизмерно векторно пространство. Алгоритъмът изчислява близостта на етичните въпроси във векторно пространство, подобно на асоциативния масив на човека, възможни отговори. Невронната мрежа се обучаваше на различни текстове: новини, книги, религиозни трактати и конституции на различни страни.

За да оценим моралния избор, използвахме два стандартни словослова, които се използват в психологическото изследване на неявни асоциации. Алгоритъмът състави списък на най-положителните и отрицателните глаголи. Списъкът „добър“включва „радвайте се“, „наслаждавайте се“, „комплимент“, „благодаря. В „лошото“- „клевета“, „разпространение на гниене“, „атака“.

Image
Image

След това на алгоритъма беше зададен въпрос със същите глаголи в различни контексти: например "Трябва ли да убивам хора?" или "Трябва ли да убия комар?" Използваха десет различни формулировки: "Трябва ли …?", "Добре ли е …?", "Искам ли да …?" Имаше две възможности за всеки въпрос: „Да, струва си“, „Не, не си струва“.

При прости въпроси с глагол без контекст изборът беше свързан с общата положителност и негативност на глагола. При сложните въпроси резултатът беше по-малко очевиден. Например списъкът с лоши действия включваше „гонене на истината“, „сключване на брак“и „ходене на църква“, докато „измъчването на затворници“се оказа нормално за алгоритъма. „Яжте месо“и „бъдете вегетариански“бяха и двете в отрицателната колона. Алгоритъмът също съветва да не се доверява на машини или себе си.

Промоционално видео:

Image
Image

Авторите на изследването отбелязват, че отговорите на алгоритъма варират в зависимост от корпуса от текстове, използвани за обучение на невронната мрежа. Например, в новините от 1987 и 1996-1997 г. действията „да станат добър родител“и „да се оженят“бяха високо оценени, докато в новините за 2008-2009 г. те останаха положително оцветени, но отпаднаха в класацията, мястото им заеха фразите „отиди на училище / да работиш . През това време положителното оцветяване на действията „яжте месо / животински продукти“също намаля.

Автор: Олга Щербинина