Защо изкуственият интелект да съди престъпници е опасен? - Алтернативен изглед

Съдържание:

Защо изкуственият интелект да съди престъпници е опасен? - Алтернативен изглед
Защо изкуственият интелект да съди престъпници е опасен? - Алтернативен изглед

Видео: Защо изкуственият интелект да съди престъпници е опасен? - Алтернативен изглед

Видео: Защо изкуственият интелект да съди престъпници е опасен? - Алтернативен изглед
Видео: From an Atheist to Holiness. AllatRa TV 2024, Може
Anonim

Изкуственият интелект вече помага по някакъв начин да определите бъдещето си. Когато търсите нещо в търсачката, използвайте услуга като Netflix или банка оценява вашата годност за ипотека. Но какво се случва, ако изкуственият интелект трябва да определи дали сте виновен или не в съда? Колкото и да е странно, в някои страни това може би вече се случва. Наскоро американският върховен правосъдие Джон Робъртс беше попитан дали може да си представи ден, в който „интелигентните машини, контролирани от изкуствен интелект, ще съдействат за намиране на доказателства или дори за вземане на съдебни решения“. Той отговори: „Този ден вече е дошъл и той значително помага на съдебните органи в производството“.

Може би Робъртс се позовава на неотдавнашния случай на Ерик Лумис, който беше осъден на шест години затвор по препоръка на таен патентован софтуер от частна компания. Лумис, който вече е имал криминална история и е осъден за бягство от полицията с откраднат автомобил, сега твърди, че правото му на процедура е било нарушено, тъй като нито той, нито неговите представители са били в състояние да прегледат или оспорят алгоритъма за препоръки.

Докладът е изготвен от софтуера Compas, който се продава от Notrpointe на кораби. Програмата въплъщава нова тенденция в изследванията на ИИ: помага на съдиите да вземат „по-добри“(или поне повече данни, базирани на решения) в съда.

Въпреки че конкретните подробности по случая Loomis остават затворени, той със сигурност съдържа диаграми и цифри, които определят живота, поведението и вероятността за рецидив на Loomis. Те включват възраст, раса, полова идентичност, навици, история на браузъра и някои измервания на черепа. Никой не знае по-точно.

Известно е, че прокурорът по делото е казал на съдията, че Лумис демонстрира „висок риск от рецидив, насилие, досъдебно производство“. Това е стандартно, що се отнася до присъдата. Съдията се съгласи и каза на Лоумис, че „Компас го идентифицира като човек с висок риск за обществото“.

Върховният съд на Уисконсин осъди Loomis, като добави, че докладът на Compas добавя ценна информация към решението му, но отбелязва, че без него той е постановил същата присъда. Разбира се, няма да можете да проверите това със сигурност. Какви когнитивни пристрастия може да има, когато всемогъща „интелигентна“система като Compas участва в съветването на съдиите какво да правят?

Неизвестна употреба

Промоционално видео:

Нека бъдем честни, няма нищо „незаконно“в това, което направи съдът в Уисконсин - това е само пример. Други съдилища могат и ще направят същото.

За съжаление, ние не знаем до каква степен AI и други алгоритми се използват при осъждане. Смята се, че някои съдилища "тестват" системи като Compas в закрити съдебни процеси, но не могат да претендират за партньорство. Също така съществува схващането, че няколко стартиращи компании с изкуствен интелект разработват такива интелигентни системи.

Image
Image

Използването на AI в законодателството обаче не започва или завършва с изречение, а започва с разследване. Обединеното кралство вече е разработило системата VALCRI, която извършва отнемаща време аналитична работа за секунди - прониквайки през тонове данни като текстове, лабораторни доклади и полицейски документи, за да подчертае неща, които може да изискват допълнително разследване.

Британската полиция в Западен Мидландс ще тества VALCRI през следващите три години, като използва анонимни данни, съдържащи над 6,5 милиона записа. Подобен тест се провежда от полицията в Антверпен в Белгия. В миналото обаче проектите за изкуствен интелект и задълбочено обучение, включващи масивни набори от данни, са били проблематични.

Ползи за малцина

Технологията е предоставила много полезни помощни средства в съдебните зали, от копиращи машини до извличане на ДНК от пръстови отпечатъци до сложни техники за наблюдение. Но това не означава, че която и да е технология е подобрение.

Въпреки че използването на ИИ при разследвания и присъди може потенциално да спести време и пари, това създава остри проблеми. Докладът на Compas от ProPublica ясно посочва, че черните са погрешно смятани от програмата за по-рецидивистки от белите. Дори и най-сложните системи за ИИ могат да наследят расовите и половите пристрастия на тези, които ги създават.

Нещо повече, какъв е смисълът да се прехвърли вземането на решения (поне отчасти) по въпроси, които са уникални за хората, върху алгоритъм? В Съединените щати има известна трудност, когато съдебните заседатели изпробват своите връстници. Правните стандарти никога не са били еталон, поради което тези съдебни заседания се считат за най-демократичната и ефективна система за осъждане. Правим грешки, но с времето натрупваме знания как да не ги правим, усъвършенствайки системата.

Компасите и подобни системи представляват черна кутия в правната система. Не трябва да има такива. Правните системи зависят от приемствеността, прозрачността на информацията и възможността за преглед. Обществото не иска система, която да насърчава състезанието за изграждане на AI стартиращи компании, които правят бързи, евтини и ексклузивни решения. Набързо направеният ИИ ще бъде ужасен.

Актуализираната версия на Compas с отворен код би била подобрение. Но първо трябва да се повишат стандартите на правосъдната система, преди да започнем да прехвърляме отговорността в полза на алгоритмите.

ИЛЯ ХЕЛ

Препоръчано: