В света на утрешния ден не само ще гледате филми, но те са зад вас - Алтернативен изглед

Съдържание:

В света на утрешния ден не само ще гледате филми, но те са зад вас - Алтернативен изглед
В света на утрешния ден не само ще гледате филми, но те са зад вас - Алтернативен изглед

Видео: В света на утрешния ден не само ще гледате филми, но те са зад вас - Алтернативен изглед

Видео: В света на утрешния ден не само ще гледате филми, но те са зад вас - Алтернативен изглед
Видео: Настя и сборник весёлых историй 2024, Септември
Anonim

Когато сте в тъмен киносалон, реакциите ви към случващото се на екрана често са незабелязани от другите. Тук отваряте широко очи при неочакван завой на сюжета, буквално скачате на стола си от страшна сцена или хвърляте сълза към мелодраматична музика - всички тези емоции вероятно ще бъдат насочени не повече от пластмасовата облегалка на стола отпред. Но само ако това кино не е оборудвано с "компютърно зрение". Ако някога имате възможност да посетите някое от тях, тогава бъдете сигурни, че докато гледате филма, филмът ще ви гледа.

Компютърна програма, чиято основна задача е точно това, за което е написано по-горе, е разработена от Silver Logic Labs. Нейният изпълнителен директор Джеримая Хамон е експерт по приложна математика, специализиран в теорията на числата. Той работи дълги години в стените на такива гиганти като Amazon, Microsoft, а също и в Harvard Medical School, занимавайки се с различни въпроси, свързани с човешката потребителска природа. Основният му интерес обаче винаги е бил да разбере как изкуственият интелект (ИИ) може да помогне по-добре да се предвиди една от най-трудните ни характеристики - човешкото поведение.

Докато изследва AI алгоритмите за анализ на човешките отговори на възприятията на различни видове медии, Хамон осъзнава, че това може да бъде полезно не само научно, но и в търговски план. Системата му работи по следния начин: алгоритъмът AI следи публиката, която гледа филма, отбелязвайки емоциите върху лицата на хората, проявяващи се дори чрез най-фините промени (т. Нар. Микро-изрази) и след това генерира необходимите данни въз основа на тази информация за последващ анализ.

Джамон сериозно се задълбочи в подобни изследвания преди около три години и въпреки че резултатите от неговата работа за медийната индустрия изглеждат много груби досега, те със сигурност предизвикаха голям интерес към тази тема. До голяма степен, защото обещават надеждни резултати, тъй като човешкото поведение може да бъде толкова предсказуемо, колкото и работата на софтуера, поне според собствената визия на Хамон. AI, от своя страна, и технологиите за компютърно виждане, които използва, ще помогнат за събирането на информация за това как хората реагират на определени филми и телевизионни програми, много по-ефективно от която и да е фукусова група. След като AI е обучен да събира правилния набор от данни, той може да осигури бърз, последователен и подробен анализ на тази информация. За тези области на индустриятакоито трябва да работят с тези данни - страхотна новина. Всъщност, благодарение на по-компетентния и ефективен анализ на човешките желания и предпочитания, те ще могат да подобрят своите продукти и услуги, които носят пари.

Оценките са един от най-важните и показателни аспекти, които гарантират успеха на определена телевизионна програма или филм. За изненада на тези, които следват процеса, текущата версия на софтуера на Hamon успя да предвиди оценки за Nielsen, Rotten Tomatoes и IMDB с точност от 84 до 99 процента. Разликата в показателите се дължи на факта, че някои обекти от класацията са „мултимодални“, тоест те са предназначени за по-широка аудитория, така че обикновено са по-трудни за прогнозиране. Като цяло, що се отнася до телевизията, самият опит да се предвиди популярността на определена програма не може да не впечатли.

„Когато за пръв път започнах, всички ми казваха, че никога няма да мога да предскажа нещо подобно, защото никой не може“, сподели Хамон в разговор с футуризма.

Но с математиката нищо не е невъзможно. Всъщност, според Хамон, с помощта на математически методи е възможно да се отбележат много нюанси, които е просто невъзможно да се отбележат без тяхното използване.

„Взехме емоционални отговори на зрителната и слуховата стимулация от публиката и ги преобразихме в цифрови стойности. И когато нещо придобие формата на цифрова стойност, то рано или късно тя придобива формата на необходимото уравнение, задачата на което в нашия случай се свежда до това да разберете колко наистина сте харесали (или ще харесате) това или онова шоу “, казва Хамон.

Промоционално видео:

Изследователят съобщава, че има обширен статистически анализ, но отказва да даде подробности за това кое уравнение използва за изчисляване, което показва, че по този начин се опитва да защити „тайната съставка“на програмата си.

Извън развлекателната индустрия

Високата ефективност на AI в прогнозирането на човешките предпочитания подтикна Хамон да проучи други области, в които неговата програма може да бъде ефективна. Например при определяне дали човек казва истината или не. Подобно на полиграф, AI би могъл да сравни данните, показващи стресови състояния, с референтен набор от стойности и въз основа на това да определи дали човек лъже или не. За да тества тази идея, Хамон използва AI алгоритъм, за да изпълни задача за идентифициране на емоциите при хората въз основа на видео с относително ниско качество. За изследването той използва видеоклипове от информационната агенция CSPAN, както и кадри от снимките от пресконференциите на президента Доналд Тръмп.

Във време, когато истината може да бъде поставена под въпрос, отделянето на истината от лъжата може да бъде критично важно. Системата обаче може да се използва и в ситуации, в които буквално става въпрос за живот и смърт. Например в медицината, където може да е необходимо точно да се определи нивото на болка, която човек изпитва, така че лекарите да изберат по-ефективни лечения.

Хамон отбелязва, че системата може да бъде полезна, например, в ситуации, когато е необходимо да се идентифицира инсулт. Въпреки факта, че медицинският персонал обикновено получава необходимото обучение, което да им позволи да идентифицират признаците на инсулт, често има случаи, когато се пропускат така наречените микро-удари (или преходни исхемични атаки, ако са научни), които много често са последвани от мащабни инсулти, които засягат голяма площ. мозъка. AI компютърното зрение може да открие тези микро-признаци на инсулт или дори симптоми или намеци за предстоящо заболяване, дори преди те действително да се появят при пациента. В този случай медицинският персонал би могъл да реагира своевременно на ситуацията и може би дори да предприеме стъпки, за да избегне по-нататъшното развитие на по-сериозен инсулт.

Но дали това всъщност ще работи? Джеймън смята, че е възможно. Изследователят е уверен, че ИИ са способни да станат толкова чувствителни, че ще могат да открият такива фини и преходни промени в работата на организма. Когато системата се тестваше в различни аудитории, изследователите трябваше да вземат предвид факта, че някои хора приемат предписани лекарства, някои от които например имат странични ефекти под формата на високо кръвно налягане или фини мускулни крампи. Може би човек няма да може да забележи тези промени в друг човек, но ИИ може лесно да ги открие, но в същото време може да сбърка ефектите от приема на лекарството за проявление на стресови признаци. Това също трябва да се вземе предвид.

Мощен инструмент

Много хора смятат, че интелигентните машини ще бъдат лишени от пристрастия, но не бива да забравяме: тези машини ще бъдат създадени от хора и тези хора, които разработват и взаимодействат с ИИ, могат несъзнателно да ги дарят със собствените си пристрастия. С развитието на AI последствията от натрупването на тези пристрастия ще станат по-изразени и в крайна сметка могат да засегнат различни процеси за обработка на информация, например при идентифициране на конкретно лице или при събиране на социални данни на личността, съдържащи се в мрежите на обществените услуги.

Тъй като технологиите за разпознаване на лица вече започват да проникват в личния ни живот, много от тях започват да разсъждават и обръщат повече внимание на етичните проблеми, изразявайки опасения относно вероятната предубедена работа на подобни алгоритми. Същата идея, че технологията може да съществува без каквато и да е степен на предубеденост, вградена в нея, е силно противоречива. Това е сериозно поставено под въпрос само от един-единствен аргумент: ефективността на AI ще зависи от данните, които са вградени в него, и тези данни могат да съдържат информация, която първоначално е оцветена от пристрастието на лицето, създало тази система. С напредъка на развитието на ИИ, със създаването на машини, които реално могат да се учат, трябва да разработим ограничителни мерки, които да ни предпазят от ситуации,когато тези машини могат да научат много повече от нас, отколкото сме възнамерявали да ги учим.

Независимо от това, същият Хамон е сигурен, че алгоритъмът му е напълно безпристрастен, поне доколкото е възможно. Компютърната му система интерпретира само признаци на човешко поведение, без значение какъв тип лице или тяло се намира в зрителното му поле.

„Аз съм индианец и трябва да призная, че понякога тук се случват неща, които могат да разпалят околната среда. Например, може да се изнервите, когато ченгетата се появят зад гърба ви. Вярвам обаче, че подобни технологии в бъдеще ще могат напълно да изкоренят този фактор на нервност. Ако не правите нищо нередно, компютърът със сигурност ще информира полицая, че не правите нищо нередно. Лично в този случай ще почувствам повишено ниво на собствената си сигурност и защита от полицейска бруталност, като знам, че компютърът ще може да извърши подобно ниво на оценка на заплахата.

Във всеки случай Хамон изобщо не се притеснява от интерпретирането на резултатите от анализа на данните с алгоритъма, който е създал. В същото време, въпреки че е уверен в алгоритъма си, той също признава неговите ограничения. Следователно, ако говорим за изводите, направени от анализа, тогава според изследователя това решение е най-добре да се остави на експертите от правоприлагащата система, медицината и психиатрията.

Бъдещето на развитието на Hamon в Silver Logic Labs едва започва. А възможностите за сферите на приложение на ИИ, който създава, са ограничени само от човешкото въображение. Самият Хамон иска инструментът му да стане наистина универсален и използван при решаването на най-различни въпроси, но по един или друг начин изследователят е насочен към това къде е започнало всичко: да създаде висококачествено забавно съдържание.

"Разказването е част от човешката култура", казва Хамон.

Чрез работата си той откри поне един неизмерим елемент, който е ключът към успеха на медиите.

„Човек наистина обича да наблюдава как един човек взаимодейства с другите. Това е едно от онези неща, които съставят формулата за успех “, добавя изследователят.

Въпреки факта, че обществото, може би, може да възприеме негативно трансформациите, които AI обещава да внесе в живота ни, във визията на Хамон със сигурност може да се намери един много положителен момент. Рано или късно изкуственият интелект, базиран на всички данни, които събира, един ден ще ни накара да преосмислим разбирането си за това какво всъщност означава да си човек. Може би той ще успее да види в нас това, което никога не сме виждали досега в другите или в себе си.

Николай Хижняк