Изкуствен интелект: опасен враг или вид помощник - Алтернативен изглед

Изкуствен интелект: опасен враг или вид помощник - Алтернативен изглед
Изкуствен интелект: опасен враг или вид помощник - Алтернативен изглед

Видео: Изкуствен интелект: опасен враг или вид помощник - Алтернативен изглед

Видео: Изкуствен интелект: опасен враг или вид помощник - Алтернативен изглед
Видео: Что-то пошло не так: сложно усваивать информацию. Кто виноват и что делать? 2024, Може
Anonim

Използването на изкуствен интелект (AI) в ежедневието бързо набира скорост, но тази тенденция все повече предизвиква безпокойство у специалистите. Служителите на NYU подготвиха предупредителна бележка за рисковете от използването на I. I. В по-голямата си част авторите се съсредоточиха върху етичните и социалните въпроси, както и върху липсата на регулация. Докладът на групата AI Now казва малко ново, но в световната практика въпросът за необходимостта от ограничаване на работата на изкуственото мислене все повече се повдига.

Почти всички визионери на технологичния прогрес говориха за потенциалните заплахи за ИИ. През ноември миналата година Стивън Хокинг изрази основните страхове, съпътстващи размислите върху развитието на технологиите. Според него компютрите рано или късно ще се научат да се възпроизвеждат. Биологичните същества вероятно ще загубят силициевия интелект както по отношение на умствените способности, така и по отношение на адаптивността към околната среда, особено на друга планета. Рано или късно умните роботи ще смятат хората за остаряла форма и искат да се отърват от тях.

Думите на Хокинг все още звучат като история на ужасите, изсвирени десетки пъти във филми и книги, но дори тези, които работят върху внедряването на интелигентни системи, все повече се страхуват от бъдещето с AI, въпреки че има такива, които смятат такива страхове за преждевременни. „Страхът от развитието на ИИ днес е като притеснение от пренаселеността на Марс“, казва Андрю Нг, ръководител на Google Brain. Той обаче не успокои всички.

Image
Image

Сред най-големите фобии, свързани с въвеждането на компютър във всички сфери на живота, три заслужава да се отбележи. Първо, компютърният ум ще бъде използван като оръжие за война, което значително ще надмине дори ядрените оръжия с разрушителна сила. Второто е, че ИИ ще поробва хората. Трето, като всяко човешко творение, компютърът е склонен към грешки. И трите точки могат да бъдат обсъдени по-подробно.

На 21 август 2017 г. водещи експерти в областта на изследванията и прилагането на изкуствения интелект, включително ръководителите на компании като SpaceX и Deep Mind, изпратиха отворено писмо до ООН. В текста те предупредиха световната общност срещу разработването на смъртоносни автономни оръжия, били те роботи или други механизми, предназначени да убият врага. Авторите на документа обърнаха внимание на фаталните последици от използването на такова оръжие. Със своята феноменална ефективност е справедливо да попитаме в чии ръце ще попадне. Може да се използва както от тесен кръг от елити, така и от терористи.

Авторите на писмото призоваха контролната организация, а с нея и научната общност, да очертаят обхвата на вредното използване на ИИ. Отговорността, която е изправена пред човек за собственото му творение, го задължава да извърши сериозна работа за предотвратяване на рискове. Освен законите, техните създатели трябва да ограничат и силата на роботите, които ще трябва да озадачават как да изключват машините в крайни случаи.

Image
Image

Промоционално видео:

Политическата злоупотреба с електронните системи вече е демонстрирана чрез работата на социалните мрежи и алгоритмите за анализ на данни. През пролетта на тази година в света гръмна скандал с Cambridge Analytica. Нейните специалисти извършиха задълбочен анализ на потребителските данни и поставиха реклами във Facebook, адаптирани индивидуално за всеки човек.

Служителите на компанията не само прекрачиха етичната рамка, но и приложиха съвременни технологии, работата на които беше невъзможна за анализ. Ефективността на машинното обучение е повтаряща се тема сред водещите математици. Те признават в унисон, че са изумени от изключителния успех на компютърните програми, но напълно не могат да разберат работата на сложна система. В Мианмар през април тази година публикациите във Facebook също предизвикаха вълнения сред масите, но за разлика от САЩ, където се проведоха протести, в азиатския щат имаше клане, при което бяха убити няколкостотин души. Манипулацията на огромен брой хора е реалност и роботите тук могат да играят жестока шега с нас.

Image
Image

Струва си да си спомним същия Facebook, където бяха пуснати AI-базирани чатботи. Виртуалните асистенти бяха обучени да водят диалог със събеседника. С течение на времето ботовете стават неразличими от реалните хора и тогава авторите решават да обединят роботите. С течение на времето ботовете започнаха да съкращават лексикални структури и да обменят безсмислици. Медиите надуха сензация от новините, те казват, че „машините се бунтуват“. Но като оставим настрана преувеличението на журналистите, честно е да признаем, че в случаите, когато машините започват да комуникират помежду си, човек може да не забележи това. И как ще живеят собствения си живот там - никой не знае.

Все по-сложната структура на компютърния ум всеки ден ни отдалечава от разбирането на принципите на неговата работа. Но макар повечето алгоритми да си вършат работата, дори и днес сложните машини са далеч от идеала и допускат грешки. За по-нататъшното развитие на AI е важно да се разбере не толкова силните му страни, колкото неговите уязвими места. Именно върху това са насочени голям брой научни групи, в една от които има специалист от MIT Аниш атали. Само преди няколко дни той разказа на репортери за най-често срещаните грешки в системите за разпознаване на изображения.

Колегите му демонстрираха предмети на машината и откриха, че често отделните предмети се възприемат неправилно от електронното зрение. Компютърът може да нарече бейзбол чаша кафе, а костенурка с 3D печатане армейска машина. Групата вече е събрала около 200 позиции, които са подвеждащи алгоритми.

Image
Image

Изкуственият интелект, вместо да възприема обект като цяло, се концентрира върху неговите индивидуални параметри. AI има тенденция да се учи от „перфектна“проба. Когато се сблъсква с явления, които не съответстват на нормите, той не винаги може да изостави обичайния процес на обработка. Вместо да признае за неспособността си да обработва изображението, той продължава да се опитва да чете изображението и това води до понякога смешни резултати. Вместо формата на костенурка, електронният мозък се опита да разчете текстурата му, подобна на камуфлаж. По почти същата причина автопилотите за електронни автомобили все още не са 100% надеждни. Трудно е автомобил да види силуета и да приеме, че той се състои от отделни елементи.

И ако в следващите години някои недостатъци могат да бъдат коригирани, няма гаранция, че хакерите няма да използват уязвимостта. Хакерите на електронни устройства днес представляват почти основната причина за страх. Малък екип от програмисти могат не само да получат достъп до лична информация, но и да преконфигурират автономни системи, като поемат контрола върху инструментите с колосална власт. И тогава всички ще бъдем в беда. Но основният извод, който може да се направи, е може би традиционният - не трябва да се страхувате от коли, а от хора.

Александър Лавренов

Препоръчано: