Изграждане на морална машина: кой ще отговаря за етиката на самоуправляващите се автомобили? - Алтернативен изглед

Съдържание:

Изграждане на морална машина: кой ще отговаря за етиката на самоуправляващите се автомобили? - Алтернативен изглед
Изграждане на морална машина: кой ще отговаря за етиката на самоуправляващите се автомобили? - Алтернативен изглед

Видео: Изграждане на морална машина: кой ще отговаря за етиката на самоуправляващите се автомобили? - Алтернативен изглед

Видео: Изграждане на морална машина: кой ще отговаря за етиката на самоуправляващите се автомобили? - Алтернативен изглед
Видео: ЩЕ ВИ НАУЧИМ ВСЕКИГО КАК ДА РЕМОНТИРА КОЛА | AUTODOC 2024, Април
Anonim

Карате по магистрала, когато човек изтича на натоварен път. Автомобилите се движат около вас и имате част от секундата, за да вземете решение: опитайте се да избегнете човек и да създадете риск от злополука? Да продължи ли шофирането с надеждата, че ще има време? Да спираш? Как оценявате шансовете за пристягане на дете на задната седалка? В много отношения това е класическа „морална дилема“, проблем с количката. Тя има милион различни варианти, които ви позволяват да идентифицирате човешки предразсъдъци, но същността е същата.

Вие сте в ситуация, в която животът и смъртта са застрашени, няма прост избор и вашето решение всъщност ще определи кой живее и кой умира.

Дилемата на количката и изкуствения интелект

Новият документ на MIT, публикуван миналата седмица в списанието Nature, се опитва да намери работно решение на проблема с количките, като набира милиони доброволци. Експериментът започна през 2014 г. и беше успешен, получи над 40 милиона отговора от 233 държави, което го направи едно от най-големите морални изследвания, провеждани някога.

Човек може да взема такива решения несъзнателно. Трудно е да се претеглят всички етични системи и морални предпоставки, когато колата ви се движи по пътя. Но в нашия свят решенията все по-често се вземат от алгоритми и компютрите могат лесно да реагират по-бързо от нас.

Хипотетичните ситуации със самоуправляващи се автомобили не са единствените морални решения, които алгоритмите трябва да вземат. Медицинските алгоритми ще изберат кой да се лекува с ограничени ресурси. Автоматичните дронове ще избират колко „обезпечени щети“са приемливи в индивидуален военен ангажимент.

Промоционално видео:

Не всички морални принципи са равни

„Решенията“на проблема с количките са толкова разнообразни, колкото и самите проблеми. Как машините ще вземат морални решения, когато основите на морала и етиката не са общоприети и може да нямат решения? Кой може да определи дали един алгоритъм прави правилно или грешно?

Подходът за краудсорсинг, възприет от учените от Moral Machine, е доста прагматичен. В крайна сметка, за да може обществото да приема автомобили, управляващи самоуправление, тя трябва да приеме моралната основа, която стои зад техните решения. Няма да е добре, ако етиците или адвокатите излязат с решение, което е или неприемливо, или неприемливо за обикновените шофьори.

Резултатите водят до любопитното заключение, че моралните приоритети (а оттам и алгоритмичните решения, които хората могат да вземат) зависят от това къде се намирате в света.

На първо място, учените признават, че е невъзможно да се знае честотата или естеството на тези ситуации в реалния живот. Хората, които са участвали в произшествие много често не могат да кажат какво точно се е случило, а кръгът от възможни ситуации изключва проста класификация. Следователно, за да може проблемът да бъде проследен, той трябва да бъде разбит на опростени сценарии, търсейки универсални морални правила и принципи.

Когато правите анкета, вие се представяте с тринадесет въпроса, които изискват просто да или няма избор, опитвайки се да стесните отговорите на девет фактора.

Трябва ли колата да се превърне в друга лента или да продължи да се движи? Трябва ли да спестявате млади хора, а не стари? Жени или мъже? Животни или хора? Трябва ли да се опитате да спасите колкото се може повече животи или едно дете „струва“на двама възрастни хора? Запишете пътници в кола, а не пешеходци? Тези, които не спазват правилата, или тези, които не спазват правилата? Трябва ли да спасявате хора, които са физически по-силни? Ами хората с по-висок социален статус, като лекари или бизнесмени?

В този суров хипотетичен свят някой трябва да умре и вие ще отговорите на всеки от тези въпроси - с различна степен на ентусиазъм. Вземането на тези решения обаче разкрива и дълбоко вкоренени културни норми и пристрастия.

Обработката на огромния набор от данни, изследван от учените, дава универсални правила, както и любопитни изключения. Трите най-доминиращи фактора, средно за цялото население, бяха, че всеки предпочита да спаси повече животи, отколкото по-малко, хора, а не животни и млади, а не стари.

Регионални различия

Можете да се съгласите с тези точки, но колкото по-дълбоко мислите за тях, толкова по-тревожни ще бъдат моралните изводи. Повече респонденти избраха да спасят престъпника над котката, но като цяло предпочитат да спасят кучето над престъпника. Като средно ниво в световен мащаб, възрастните хора се оценяват по-високо от това да са бездомни, но бездомните са били по-малко спасени от дебелите хора.

И тези правила не бяха универсални: анкетираните от Франция, Обединеното кралство и САЩ предпочитаха младите, докато респондентите от Китай и Тайван бяха по-склонни да спасяват възрастните хора. Респондентите от Япония предпочетоха да спасят пешеходците над пътниците, докато в Китай предпочитат пътниците пред пешеходците.

Изследователите откриха, че могат да групират отговорите по държави в три категории: „Запад“, главно Северна Америка и Европа, където моралът се основава до голяма степен на християнското учение; "Изток" - Япония, Тайван, Близкия изток, където преобладават конфуцианството и ислямът; "Южните" страни, включително Централна и Южна Америка, заедно със силно френско културно влияние. В южния сегмент има по-голямо предпочитание към женската саможертва, отколкото където и да е другаде. В източния сегмент има по-голяма тенденция за спасяване на младите хора.

Филтрирането по различни атрибути на респондентите дава безкрайно интересни възможности. „Много религиозни” респонденти е малко вероятно да предпочетат спасяването на животно, но както религиозните, така и нерелигиозните респонденти изразяват приблизително еднакво предпочитание за спасяване на хора с висок социален статус (въпреки че това може да се каже, че противоречи на някои религиозни доктрини). Мъжете и жените предпочитат да спасяват жени, но мъжете са по-малко склонни да го правят.

Въпроси без отговор

Никой не твърди, че това изследване по някакъв начин "решава" всички тези тежки морални проблеми. Авторите на проучването отбелязват, че масовото използване на данни в Интернет включва предубеждения. Но дори и при голям размер на извадката, броят на въпросите беше ограничен. Какво става, ако рисковете се променят в зависимост от решението, което вземате? Ами ако алгоритъмът може да изчисли, че имате само 50 процента шанс да убиете пешеходци, предвид скоростта, с която се движите?

Едмонд Авад, един от авторите на изследването, изрази предпазливост от прекомерното интерпретиране на резултатите. Дискусията, според него, трябва да се влее в анализ на риска - кой е в повече или по-малък риск - вместо да решава кой да умира и кой не.

Но най-важният резултат от изследването беше дискусията, която пламна на почвата. Тъй като алгоритмите започват да взимат все по-важни решения, засягащи живота на хората, е наложително да продължим да обсъждаме етиката на ИИ. Проектирането на "изкуствена съвест" трябва да включва мнението на всеки. Въпреки че отговорите може да не са винаги лесни за намиране, най-добре е да се опитате да създадете морална рамка за алгоритмите, като не позволявате на алгоритмите сами да оформят света без човешки контрол.

Препоръчано: