Развитието на AI набира страшни темпове: защо разработчиците изразяват опасения за това - Алтернативен изглед

Съдържание:

Развитието на AI набира страшни темпове: защо разработчиците изразяват опасения за това - Алтернативен изглед
Развитието на AI набира страшни темпове: защо разработчиците изразяват опасения за това - Алтернативен изглед
Anonim

Технологичният прогрес не стои на едно място. През последните 100 години човечеството е направило толкова голяма стъпка, че всички предишни поколения биха възкликнали изненадано. Изглежда, че има невероятно много причини за радост. Но тук е уловката: учените се притесняват, че напредъкът напредва твърде бързо. Нека да разберем защо изкуственият интелект или AI причинява толкова много притеснения на водещите разработчици.

Image
Image

Напредък, който не само изненадва, но и плаши

Повечето хора могат да живеят целия си живот и дори да не знаят колко се е променил нашият свят. За да разберете докъде е стигнало човечеството с развитието на ИИ, помислете кога автомобилите са изобретени за първи път.

Представете си Дивия Запад или Русия, където хората яздеха коне наляво и надясно, без стопове и предпазни колани. Мерките за пътна безопасност бяха предприети много по-късно - когато започнаха да се случват много инциденти.

Днес AI е разработил самоуправляващи се автомобили, които могат да намалят пътните инциденти до минимум. Автомобилите просто знаят как да общуват помежду си, като изграждат безопасен маршрут и реагират на внезапни препятствия, които създават аварийни ситуации по пътищата.

Image
Image

Промоционално видео:

Въпреки това хората продължават да се притесняват за изкуствения интелект. Те си задават въпроса: какво ще се случи, когато технологиите достигнат тези области, където е необходимо вземането на човешки решения? Ще може ли AI напълно да замести хората, които отговарят за наемането на кандидати, обучението на служители, популяризирането на компанията?

Първата причина: ще заменят ли роботите хората

Първата причина учените да се притесняват от бързото развитие на изкуствения интелект е, че алгоритмите вече са постигнали такъв напредък, че могат да диагностицират заболявания и дори да решават кой да получи заем и кой не.

Но поддръжниците на този напредък са само щастливи, защото вземането на човешки решения понякога изисква смелост, ораторско майсторство и разбиране на човешката психология. Тук винаги има тъмна страна. В крайна сметка, представете си какво е да решите кого да обвинявате и кого да дадете предсрочно освобождаване. Или докладвайте за смъртта на роднина, уволнете некомпетентен служител, който е в трудна житейска ситуация.

Image
Image

В идеалния свят не би трябвало да мислим за тъмната страна. Машините ще направят всичко за нас, макар и само защото ще бъдат много по-умни и по-малко пристрастни от хората.

Причина две: машините могат да бъдат манипулирани

Роботът София каза в интервю: „Четете твърде много Илон Мъск и гледате холивудски филми. Ако ще бъдеш мил с мен, аз ще бъда добър с теб. Отнасяйте се с мен като с интелигентна I / O система."

Но тъй като разработката започва с хора и приложенията се използват директно от тях, данните, влизащи в машината, могат да бъдат манипулирани.

Image
Image

Друг страх на учените: данните за изкуствения интелект може да са грешни. Това е особено опасно в медицинската област. AI може просто да подмами пациента да погрешно диагностицира, особено ако човешки лекар или болница като цяло са променили данните в своя полза. Ето защо разработчиците трябва да носят главна отговорност за информационната сигурност и да разработват мерки за защита.

AI и хитрата природа на човешкия език

Google си партнира с Jigsaw, който се сблъска с голямо предизвикателство при разработването на изкуствен интелект. Софтуерният инженер Луси Васерман работи върху перспектива за машинно обучение, която предсказва „токсичността“на даден език. Но какво означава това?

Смисълът на тази функция е, че роботът ще анализира текстове от уебсайтове и интернет форуми, които съдържат обиден контекст, както и атака срещу човека, унижение или агитация.

Това е част от модел за машинно обучение, наречен невронна мрежа. Тя изучава думи, изречения и параграфи и се научава да предсказва какво е токсично и какво, напротив, има положителен контекст.

Най-трудното в това е да се вземат предвид всички нюанси. Човек може да прочете изречение и да разбере от контекста дали дадена дума е била обидна. Васерман даде пример с думата „хомосексуален“и нейните словоформи, които са по-унизителни и обиждащи чувства.

Причина трета: роботите могат да мислят едностранно

Друг страх от водещи разработчици: изкуственият интелект все още не е в състояние да анализира фрази и изречения, така че може да смята някоя дума за обидна, като предприема „сурови“мерки. Машината трябва да се научи да чете буквално между редовете.

Image
Image

Разработчиците виждат стойност в експериментите с отворен код. Те смятат, че наистина има значение дали човечеството иска да получи справедливи роботи.

Но досега днес е невъзможно да се принуди изкуственият интелект да се адаптира към човешкия свят. Има още много работа.

Това, че роботите може да не са честни, е наистина страшно. В противен случай как може да им бъде поверено разрешаването на спорове и конфликти в бъдеще?

Принципът на изкуствения интелект все още е съвсем прост и наподобява подобрен компютър. Добър пример са гласовите асистенти като Алис и Сири. Днес те работят по следния начин: „Тъй като думата„ стоп “е в текста, това означава, че със сигурност е обидна.“

И трябва да е така: „Кои думи са до унизителните? Вярвам, че значението на изречението се е променило много, дори и да е имало нещо обидно."

Причина четвърта: Ръководство за етика

AI трябва да бъде фокусиран върху човека и проектиран по такъв начин, че да има разбиране за етиката във фърмуера му. Но какво означава това?

  • Първо, етиката се основава на основните права, социалните ценности и принципите на благотворителността (добротата като цяло).
  • На второ място, машините не трябва да навредят на човешката автономия, да изпитват чувство за справедливост.

Друг страх от разработчиците: когато изкуственият интелект достигне върха на своето развитие и не може да зависи от подкрепата на хората, той ще се обърне срещу човечеството.

Всичко зависи от разработчиците. Те могат да насочват работата на изкуствения интелект за борба с престъпността. Например намерете тези, които разпространяват детска порнография.

Важно е да се установят защитни елементи, преди ИИ да излезе извън човешкия контрол. И ще излезе недвусмислено, защото това е смисълът.

Роботите трябва да са близо до хората

С други думи, ако някой ще се довери на решение, взето от машина, то трябва да отговаря на човешките критерии. Ето защо разработчиците трябва да се уверят, че всяко решение, взето от алгоритъма, е справедливо. За учените целта не е да създадат алтернативна форма на интелигентност, а да помогнат на хората да се развият.

В края на деня повечето хора се съгласяват, че ИИ ще донесе прекрасен нов свят.

Пета причина: война срещу човечеството

Най-голямото нещо, което поддържа разработчиците будни през нощта, се опитва да разбере безкрайните възможности и въздействието на тази технология върху здравеопазването, образованието и обслужването на клиентите. Когато AI излезе извън „проекта“и накрая в производството, тогава това ще има реално социално въздействие.

Всеки от разработчиците вярва, че се намираме в точка на прелом между човешкия и дигиталния свят. Но AI не може да промени живота ни сам. Хората трябва да се променят на първо място, за да реализират пълния потенциал на интелигентността.

Не е изненадващо, че хората се страхуват от ИИ. Но те няма да могат да поробят или унищожат онези, които споделят обща цел с тях - да се развиват и да напредват. Когато хората осъзнаят, че трябва да мислят не като животни, а като висши същества, тогава никакви роботи няма да се страхуват.

Алиса Краснова

Препоръчано: