AI може да промени живота си завинаги - но в момента сме на тъмен път - Алтернативен изглед

AI може да промени живота си завинаги - но в момента сме на тъмен път - Алтернативен изглед
AI може да промени живота си завинаги - но в момента сме на тъмен път - Алтернативен изглед

Видео: AI може да промени живота си завинаги - но в момента сме на тъмен път - Алтернативен изглед

Видео: AI може да промени живота си завинаги - но в момента сме на тъмен път - Алтернативен изглед
Видео: From an Atheist to Holiness. AllatRa TV 2024, Може
Anonim

Изкуственият интелект (AI) вече променя света по видими начини. Данните задвижват нашата глобална цифрова екосистема, а AI технологиите разкриват модели в данните.

Смартфоните, интелигентните домове и интелигентните градове влияят върху начина, по който живеем и си взаимодействаме, а системите за изкуствен интелект все по-често участват в решения за наемане, медицинска диагностика и решения. Дали този сценарий е утопичен или дистопичен, зависи от нас.

Потенциалните рискове от ИИ са изброени многократно. Роботите-убийци и масовата безработица са често срещани проблеми, докато някои хора дори се страхуват от изчезване. По-оптимистичните прогнози твърдят, че AI ще добави 15 трилиона долара към глобалната икономика до 2030 г. и в крайна сметка ще ни доведе до някаква социална нирвана.

Със сигурност трябва да вземем предвид въздействието на тези технологии върху нашите общества. Един от основните проблеми е, че AI системите засилват съществуващите социални пристрастия - до пагубен ефект.

Няколко известни примера за това явление са получили широко внимание: модерни автоматизирани системи за машинен превод и системи за разпознаване на изображения.

Тези проблеми възникват, защото такива системи използват математически модели (като невронни мрежи) за определяне на модели в големи набори от данни за обучение. Ако тези данни са силно изкривени по различни начини, тогава присъщите грешки неизбежно ще бъдат изучавани и възпроизвеждани от обучени системи.

Собствените автономни технологии са проблематични, тъй като те потенциално могат да изолират групи като жени, етнически малцинства или възрастни хора, като по този начин изострят съществуващите социални дисбаланси.

Ако AI системите са обучени, например, от данните на полицейските арести, тогава всички съзнателни или несъзнателни пристрастия, проявени в съществуващите схеми за арест, ще бъдат дублирани от системата за AI „полицейска прогноза“, обучена от тези данни.

Промоционално видео:

Като признават сериозните последици от това, наскоро различни уважавани организации препоръчват всички системи за изкуствен интелект да бъдат обучени на обективни данни. Етичните насоки, публикувани по-рано през 2019 г. от Европейската комисия, предлагат следната препоръка:

Когато се събират данни, те могат да съдържат социално конструирани грешки, неточности. Това трябва да се обърне внимание преди обучението на ИИ на всеки набор от данни.

Всичко това звучи достатъчно разумно. За съжаление, понякога просто не е възможно да се гарантира безпристрастността на определени набори от данни преди обучението. Конкретен пример трябва да изясни това.

Всички съвременни системи за машинен превод (като Google Translate) се учат от двойки изречения.

Англо-френската система използва данни, които свързват английските изречения („тя е висока“) с еквивалентни френски изречения („elle est grande“).

Може да има 500 милиона такива двойки в даден набор от данни за обучение и следователно само един милиард отделни изречения. Всички пристрастия между половете трябва да бъдат премахнати от този вид набор от данни, ако искаме да предотвратим генериране на резултати като следните:

Френският превод е създаден с помощта на Google Translate на 11 октомври 2019 г. и е неправилен: „Ils“е мъжествено множествено число на френски език и се появява тук, въпреки че контекстът ясно показва, че се прави препратка върху жените.

Това е класически пример за автоматизирана система, предпочитаща стандартния мъжки стандарт поради пристрастия в данните за обучение.

Като цяло 70 процента от родовите местоимения в наборите от данни за превод са мъжки род, а 30 процента - женски род. Това се дължи на факта, че текстовете, използвани за такива цели, по-често се отнасят за мъже, отколкото за жени.

За да се избегне повтарянето на съществуващите грешки в системата за превод, е необходимо да се изключат конкретни двойки изречения от данните, така че мъжкото и женското местоимения да се срещат в съотношение 50/50 както на английска, така и на френска страна. Това ще попречи на системата за приписване на по-големи вероятности на мъжки местоимения.

И дори ако полученият подмножество на данните е напълно балансиран по пол, той все още ще бъде изкривен по различни начини (например, етнически или възрастови). В действителност би било трудно напълно да се премахнат всички тези грешки.

Ако един човек отдели само пет секунди, за да прочете всяко едно от милиарда изречения в данните за обучение на AI, ще са нужни 159 години, за да ги тества всички - и това предполага желанието за работа през целия ден и нощ, без почивки за обяд.

Алтернативен?

Следователно е нереалистично да се изискват всички набори от данни за обучение да бъдат безпристрастни преди изграждането на AI системи. Такива изисквания на високо ниво обикновено предполагат, че „AI“означава хомогенна група от математически модели и алгоритмични подходи.

Всъщност различните AI задачи изискват напълно различни видове системи. И напълно подценяването на това разнообразие прикрива истинските проблеми, свързани с, да речем, силно изкривени данни. Това е жалко, тъй като означава, че други решения на проблема с пристрастията към данни са пренебрегвани.

Например, отклоненията в обучена система за машинен превод могат да бъдат значително намалени, ако системата е адаптирана, след като е била обучена на голям, неизбежно пристрастен набор от данни.

Това може да се направи с много по-малък, по-малко съкровен набор от данни. Следователно, повечето от данните могат да бъдат силно предубедени, но не е необходима обучена система. За съжаление, тези методи рядко се обсъждат от тези, които разработват насоки и правни рамки за изследвания на ИИ.

Ако ИИ системите просто изострят съществуващите социални дисбаланси, тогава те са по-склонни да обезкуражат, отколкото да насърчат положителни социални промени. Ако AI технологиите, които все по-често използваме ежедневно, бяха далеч по-малко предубедени от нас, те биха могли да ни помогнат да разпознаем и да се изправим срещу собствените си дебютни предразсъдъци.

Разбира се, към това трябва да се стремим. Следователно, дизайнерите на AI трябва да помислят много по-внимателно за социалните последици от системите, които създават, докато тези, които пишат за AI, трябва да разберат по-задълбочено как действително са проектирани и изградени AI системите.

Защото ако наистина се приближаваме или до технологична идилия, или до апокалипсис, първата би била за предпочитане.

Виктория Ветрова