Учен: няма фундаментални ограничения за създаването на интелигентна машина - Алтернативен изглед

Съдържание:

Учен: няма фундаментални ограничения за създаването на интелигентна машина - Алтернативен изглед
Учен: няма фундаментални ограничения за създаването на интелигентна машина - Алтернативен изглед

Видео: Учен: няма фундаментални ограничения за създаването на интелигентна машина - Алтернативен изглед

Видео: Учен: няма фундаментални ограничения за създаването на интелигентна машина - Алтернативен изглед
Видео: процесс упаковки масок_КРОНОС 2024, Септември
Anonim

Михаил Бурцев, ръководител на лабораторията за невронни системи и задълбочено обучение в Московския физико-технологичен институт, разказва за това дали е възможно да се създаде пълноценен компютърен аналог на човешкия ум и обяснява защо учените го разработват и как може да бъде защитен от атаки на тролове.

В края на юли учени от MIPT стартираха международно състезание за „говорими“системи за изкуствен интелект, способни да имитират жив човек, и приканиха всички да говорят с тях и да оценят получените диалози. Използвайки помощта на доброволци, учените се надяват да създадат гласов асистент през следващите три години, който да може да общува с човек почти толкова добре, колкото и жив събеседник.

Състезанието беше организирано съвместно от учени от университетите в Монреал, Макгил и Карнеги Мелън. Можете да участвате в тестването на системи за диалог, като следвате връзката.

Всъщност тези идеи не са измислени днес - съвременните гласови асистенти от Google, Apple, Amazon и други ИТ компании се коренят в дълбокото минало, в самото начало на компютърната ера. Първата такава машина за говорене, наречена ELIZA, е създадена през 1966 г. и всъщност е шега, пародия на психотерапевт, който дава безполезни съвети на пациент.

В следващите години и десетилетия програмистите създават все по-сложни и „живи“системи за комуникация с компютър. Най-напредналите от тези системи могат да разпознават настроението на собственика, да си спомнят старите му желания и предпочитания и да решават някои от рутинните и битови задачи за него, като поръчват храна или стоки в магазина или играят ролята на оператор в кол центровете.

Михаил, изминаха почти 50 години от създаването на ELIZA. Какво общо се е променило през това време и може ли по принцип да очакваме, че в бъдеще учените ще могат да създадат такава система, която хората да не могат да различат от живия събеседник?

- Мисля, че в близко бъдеще ще бъде възможно да се създаде технология на говоримо разузнаване, която да позволи на машината да се доближи до нивото на човешкия диалог. Работим по тази задача в рамките на проекта iPavlov, който е част от Националната технологична инициатива.

Потребителят трябва да бъде толкова удобен за комуникация с автоматична система за диалог, колкото и с жив човек. Това ще направи възможно създаването на информационни системи, които са в състояние да разберат по-добре какво човек иска от него и да му отговорят на естествен език.

Промоционално видео:

Разговорният интелект може да се използва за автоматизиране на много гласови и текстови интерфейси, включително месинджъри като Telegram. Пратениците, както показват статистическите данни, днес се използват по-активно от социалните мрежи и много голямо количество информация преминава през каналите за текстова комуникация.

Те например са удобни за използване в транспорта, а добавянето на асистент за диалог - чат бот - ще позволи на потребителите не само да общуват помежду си, но и да получават необходимата информация, да правят покупки и да правят много други неща. Това ще доведе до факта, че незабавните съобщения и гласовите асистенти постепенно ще заменят обичайните уеб страници и приложения, а също така ще играят ролята на онлайн консултанти и специалисти в кол центъра.

Предвид присъствието на Apple, Google и Amazon на този пазар, може ли Русия да се конкурира тук? Има ли някаква специфика в руския език, която би могла да попречи на потенциалните конкуренти на руски компании и учени?

- Разбира се, руският език е по-сложен и някои от методите, които се използват днес при разработването на системи за диалог и гласови асистенти в света, не могат да бъдат приложени без усъвършенстване и значителни модификации, които биха им позволили да работят с по-богата граматика.

От друга страна, основните алгоритми, които се използват в работата на Siri, Cortana, Google и други дигитални асистенти, никой не крие - те са ни достъпни поне на ниво изследвания и концепции. Научните трудове и програмният код често са публично достъпни - по принцип те могат да бъдат адаптирани към руски език.

Михаил Бурцев, ръководител на лабораторията за невронни системи и дълбоко обучение, MIPT
Михаил Бурцев, ръководител на лабораторията за невронни системи и дълбоко обучение, MIPT

Михаил Бурцев, ръководител на лабораторията за невронни системи и дълбоко обучение, MIPT

Освен това няма много опити да се приложи това на „индустриално“ниво. Единственият голям проект се провежда от Yandex, който разработва асистент за проекта Alice.

В нашия проект ние се опитваме да създадем инструменти, които биха опростили и ускорили създаването на такива „индустриални“системи за диалог, проектирани за различни цели. Но разработването на универсален гласов асистент, способен да реши всеки проблем, е изключително трудна задача дори за големи компании.

От друга страна е много по-лесно да автоматизирате малък бизнес, който ще използва специализирана система за диалог. Надяваме се, че инструментите, които ще създадем, ще помогнат на предприемачите и програмистите да решат такива проблеми достатъчно бързо, без да имат дълбоки познания и без да полагат супер усилия за това.

Много учени като Роджър Пенроуз или Стюарт Хамеров смятат, че човешкият ум е от квантово естество и е невъзможно да се изгради негов машинен аналог по принцип. Съгласни ли сте с тях или не?

- Според мен, ако погледнете онова, което знаем днес за структурата на мозъка и природата на човешкото съзнание, то засега нямаме фундаментални пречки да възпроизведем работата му с помощта на компютър.

Пенроуз и Хамеров имат набор от хипотези, които според тях обясняват защо това не може да се направи. Досега неврофизиолозите не са открили експериментални доказателства, че тези хипотези са верни и настоящата ни база от знания говори в полза на обратното.

Друго нещо е, че времевата рамка, за която ще бъде създадена такава машина, остава не напълно дефинирана. Струва ми се, че това може да се случи след поне 50 или дори 100 години.

Това ще изисква ли принципно нови технологии и компютри, които са по-близки по своите принципи на работа до невроните, отколкото до цифровата логика?

- Ако вярваме, че човешкият интелект се основава на някаква форма на изчисления, тогава всяка универсална изчислителна система, еквивалентна на машина на Тюринг, може на теория да подражава на работата на човешкия мозък.

Друго нещо е, че тази машина може да работи много бавно, което я прави безполезна от практическа гледна точка. Днес е трудно да се отгатне какви технологии за изграждане на компютри ни трябват тук.

Какви други задачи могат да решават цифровите асистенти освен нещата, които правят днес? Могат ли да се използват за дешифриране на текстове на мъртви езици или криптиране като ръкописа на Войнич?

- В момента, доколкото знам, никой не се е опитвал да използва невронни мрежи, за да разкрие тайните на мъртвите езици и да дешифрира текстове, но ми се струва, че някой ще се опита да направи това в близко бъдеще. Ние от своя страна все още не сме се интересували от такива неща.

"Помощник" всъщност е много широко понятие, което може да включва много много различни неща. Ако вземем например същата ELIZA, виртуалната „психотерапевтка“, възниква въпросът: асистент ли е тя или не?

Системите за диалог могат да се използват не само за решаване на практически проблеми, но и за забавление на хората или поддържане на настроението им. Въпросът тук всъщност е какво разбираме под понятието личен асистент и колко широко или тясно е то. В най-широк смисъл такива системи могат да решават всички въпроси, свързани с комуникацията, макар и с различна степен на успех.

Разговорните интерфейси, в допълнение към директната комуникация с хората, могат да се използват и за обучение на машини за бързо намиране на общ език и прехвърляне на информация от една система в друга.

Това ще заобиколи проблема с установяването на връзки и прехвърлянето на данни между съществуващи и създадени услуги, тъй като няма да е необходимо да знаят спецификациите на API на всеки друг, за да комуникират помежду си. Те ще могат да обменят данни, използвайки естествени езици или техен собствен изкуствен език, който ще бъде измислен от машини или хора за такива цели.

Грубо казано, дори „непознати“помежду си системи ще могат да се споразумеят, като използват общ език за комуникация за тях, а не фиксирани правила за обмен на информация. Ако не разбират нещо, тогава те могат да се питат взаимно за непознати неща, което ще направи цялата инфраструктура за предоставяне на услуги и услуги в Интернет невероятно гъвкава и ще му позволи бързо да интегрира нови услуги без помощта на хората.

В тази връзка възниква въпросът - кой трябва да отговаря за препоръките на „психотерапевта“ELIZA, компютърни лекари и други гласови асистенти, чиито съвети могат да повлияят значително на благосъстоянието и здравето на човек?

- Това е много труден въпрос, тъй като днес няма ясни критерии, които да ни помогнат да разберем как да действаме в такива случаи. Много интернет услуги и услуги, които издават препоръки на потребителите, започват да работят само след като потребителят се съгласи с условията на услугата и последиците, които могат да възникнат в резултат на работата с нея.

Струва ми се, че работата на чат ботовете и гласовите асистенти - поне в ранните етапи от съществуването им - може да се регулира по подобен начин. Например, ако бот просто търси и анализира информация, действайки по същия начин като търсачката, тогава към него могат да се приложат същите правила. В случай, че той ще даде медицински или правен съвет, формата на отговорност трябва да бъде различна.

Например такива системи трябва ясно да уведомяват потребителя за последиците от избора между изкуствен интелект и обикновен лекар. Човек ще има избор - да се довери на лекаря, който например ще сгреши в 10% от случаите, или да заложи на машина, която дава грешен отговор в 3% от случаите. В първия случай лекарят ще носи отговорност за грешката, а във втория - самият потребител.

Миналата година Microsoft стартира чат-бота Tay. AI, който трябваше да изключи буквално ден по-късно, защото потребители на мрежата превърнаха тийнейджърката в истински расист. Възможно ли е да се защитят такива системи за диалог от тролове и шегобийци?

- Струва ми се, че можете да се предпазите, но дали си струва да го направите, зависи от целта на системата. Ясно е, че ако системата не трябва да дава конкретни забележки - груби или екстремистки, тогава можем да филтрираме нейните отговори. Това филтриране може да се случи или на етапа на обучение на системата, или вече по време на генерирането на отговори.

Между другото, подобна задача за оценка на качеството на диалога беше решена от екипи в рамките на научния учебен хакатон DeepHack Turing, който се проведе в MIPT преди няколко седмици. Неговите участници разработиха алгоритми, които биха могли да предвидят от репликите в диалога какъв вид оценка ще даде човек на системата за диалог.

Следващата стъпка в развитието на този подход е създаването на програма, която да оценява приемливостта на фразите или надеждността на източниците, използвани за генериране на отговори на потребителски заявки. Струва ми се, че би помогнало за решаването на този проблем.