Хората нямат доверие на изкуствения интелект. Как да го поправя? - Алтернативен изглед

Съдържание:

Хората нямат доверие на изкуствения интелект. Как да го поправя? - Алтернативен изглед
Хората нямат доверие на изкуствения интелект. Как да го поправя? - Алтернативен изглед

Видео: Хората нямат доверие на изкуствения интелект. Как да го поправя? - Алтернативен изглед

Видео: Хората нямат доверие на изкуствения интелект. Как да го поправя? - Алтернативен изглед
Видео: David Amerland at SEO Conference 2014 2024, Може
Anonim

Изкуственият интелект вече може да предсказва бъдещето. Полицията го използва за съставяне на карта, показваща кога и къде може да се случи престъпление. Лекарите го използват, за да предскажат кога пациентът може да получи инсулт или инфаркт. Учените дори се опитват да дадат на ИИ въображението, за да може да предвиди неочаквани събития.

Много решения в живота ни изискват добри прогнози и агентите на ИИ са почти винаги по-добри от тях от хората. И въпреки всички тези технологични постижения, все още ни липсва увереност в прогнозите, които изкуственият интелект предоставя. Хората не са свикнали да разчитат на ИИ и предпочитат да се доверяват на човешки експерти, дори ако тези експерти грешат.

Image
Image

Ако искаме изкуственият интелект да е от полза за хората, трябва да се научим да му се доверяваме. За да направим това, трябва да разберем защо хората толкова упорито отказват да се доверят на ИИ.

Доверете се на д-р Робот

Опитът на IBM да представи суперкомпютърна програма на онколози (Watson for Oncology) се провали. AI се ангажира да предостави висококачествени препоръки за лечение на 12 ракови заболявания, което представлява 80% от случаите в света. Към днешна дата повече от 14 000 пациенти са получили препоръки въз основа на неговите изчисления.

Но когато лекарите се срещнаха за първи път с Уотсън, те се оказаха в доста трудна ситуация. От една страна, ако Уотсън предоставя насоки за лечение, които съответстват на собствените им мнения, медицинската професия не вижда голяма стойност в препоръките за ИИ. Суперкомпютърът просто им казваше това, което вече знаеха, и тези препоръки не променяха действителното лечение. Това може да е дало на лекарите спокойствие и увереност в собствените им решения. Но IBM все още не е доказала, че Уотсън всъщност увеличава процента на оцеляване при рак.

Промоционално видео:

Image
Image

От друга страна, ако Уотсън дава препоръки, които противоречат на експертното мнение, лекарите заключават, че Уотсън е некомпетентен. И машината не можеше да обясни защо нейното лечение ще работи, тъй като нейните алгоритми за машинно обучение бяха твърде сложни, за да могат хората да ги разберат. Съответно, това доведе до още по-голямо недоверие и много лекари просто игнорираха препоръките на ИИ, разчитайки на собствения си опит.

В резултат на това главният медицински партньор на IBM Watson, MD Anderson Cancer Center, наскоро обяви, че отменя програмата. Датската болница също заяви, че се отказва от програмата, след като установи, че онколозите не са се съгласили с Уотсън два от всеки три пъти.

Проблемът с онкологията на Уотсън беше, че лекарите просто не му вярваха. Доверието на хората често зависи от нашето разбиране за това как мислят другите хора и от собствения ни опит, което изгражда увереност в тяхното мнение. Това създава психологическо чувство за сигурност. ИИ, от друга страна, е сравнително нов и неразбираем за хората. Той взема решения въз основа на сложна система за анализ, за да идентифицира потенциални скрити модели и слаби сигнали от големи количества данни.

Дори и да може да бъде обяснено от техническа гледна точка, процесът на вземане на решения за ИИ обикновено е твърде сложен, за да го разберат повечето хора. Взаимодействието с нещо, което не разбираме, може да предизвика безпокойство и да създаде усещане за загуба на контрол. Много хора просто не разбират как и с какво работи AI, защото това се случва някъде зад екрана, на заден план.

По същата причина те са по-добре запознати със случаите, в които ИИ греши: помислете за алгоритъма на Google, който класифицира цветните хора като горили; чатботът на Microsoft, който стана нацист за по-малко от ден; Автомобилът на Tesla в режим на автопилот води до фатален инцидент. Тези нещастни примери получиха несъразмерно внимание от страна на медиите, подчертавайки дневния ред, че не можем да разчитаме на технологиите. Машинното обучение не е 100% надеждно, отчасти защото хората го проектират.

Разцепление в обществото?

Чувствата, които предизвиква изкуственият интелект, навлизат дълбоко в природата на човешкото същество. Учените наскоро проведоха експеримент, в който изследваха хора, гледали филми за изкуствен интелект (фантазия) на тема автоматизация в ежедневието. Оказа се, че независимо дали AI е изобразен в положителен или отрицателен начин, просто гледането на кинематографично представяне на нашето технологично бъдеще поляризира нагласите на участниците. Оптимистите стават още по-оптимистични, а скептиците се затварят още повече.

Това предполага, че хората са пристрастни към ИИ въз основа на собствените си разсъждения, дълбоко вкоренена тенденция на пристрастие към потвърждение: тенденцията да търсят или интерпретират информация по такъв начин, че да потвърдят съществуващи концепции. Тъй като ИИ все по-често се появява в медиите, той може да насърчи дълбоки разделения в обществото, разрив между тези, които използват ИИ, и тези, които го отхвърлят. Преобладаващата група хора може да получи голямо предимство или недостатък.

Три изхода от доверителната криза на ИИ

За щастие имаме някои мисли как да се справим с доверието в ИИ. Опитът само с AI може драстично да подобри отношението на хората към тази технология. Има и доказателства, че колкото по-често използвате определени технологии (като Интернет), толкова повече им се доверявате.

Друго решение може да бъде да отворите черната кутия на алгоритмите за машинно обучение и да ги накарате да работят по-прозрачно. Компании като Google, Airbnb и Twitter вече публикуват доклади за прозрачност на правителствени запитвания и оповестявания. Този вид практика в системите за ИИ ще помогне на хората да придобият необходимото разбиране за това как алгоритмите вземат решения.

Изследванията показват, че включването на хора във вземането на решения за изкуствен интелект също ще увеличи доверието и ще позволи на изкуствения интелект да се учи от човешкия опит Проучването установи, че хората, на които е била дадена възможност леко да модифицират алгоритъма, се чувстват по-доволни от резултатите от неговата работа, най-вероятно поради усещането за превъзходство и способността да влияят на бъдещите резултати.

Не е нужно да разбираме сложната вътрешна работа на системите за ИИ, но ако дадем на хората дори малко информация и контрол върху това как се прилагат тези системи, те ще имат повече увереност и желание да възприемат ИИ в ежедневието си.

Иля Хел

Препоръчано: