Мислене като човек: какво ще се случи, ако дарите машината с теорията на съзнанието - Алтернативен изглед

Съдържание:

Мислене като човек: какво ще се случи, ако дарите машината с теорията на съзнанието - Алтернативен изглед
Мислене като човек: какво ще се случи, ако дарите машината с теорията на съзнанието - Алтернативен изглед

Видео: Мислене като човек: какво ще се случи, ако дарите машината с теорията на съзнанието - Алтернативен изглед

Видео: Мислене като човек: какво ще се случи, ако дарите машината с теорията на съзнанието - Алтернативен изглед
Видео: Най-странната тайна на света (FULL) 2024, Юли
Anonim

Миналия месец екип от самоуки играчи на AI претърпя зрелищно поражение срещу професионални играчи в еспорта. Мачът на шоуто, който се проведе като част от Международното световно първенство Dota 2, показа, че стратегическото мислене на екипа все още позволява на човек да получи ръката над кола.

Включените AI бяха няколко алгоритми, разработени от OpenAI, от които Елон Мъск е един от основателите. Колектив от дигитални плейъри, наречени OpenAI Five, се научиха сами да играят Dota 2, чрез опит и грешки, състезавайки се помежду си.

За разлика от същата логическа игра на шах или дъска Go, популярната и бързо развиваща се мултиплейър игра Dota 2 се счита за много по-сериозно поле за тестване на изкуствен интелект за сила. Цялостната трудност на играта е само един фактор. Не е достатъчно просто да щракнете много бързо с мишката и да издадете команди на героя, който контролирате. За да спечелите, е необходимо да имате интуиция и разбиране какво да очаквате от противника в следващия момент, както и да действате адекватно според този набор от знания, за да се съберем с общи усилия за постигане на обща цел - победа. Компютърът няма този набор от възможности.

Към днешна дата дори и най-забележителният компютърен алгоритъм за дълбоко учене няма стратегическото мислене, необходимо за разбиране на целите от задачите на опонента му, било то друг ИИ или човек.

Според Уанг, за да успее AI, трябва да има умение за дълбока комуникация, което произлиза от най-важната познавателна характеристика на човек - наличието на интелигентност.

Моделът на психичното състояние като симулация

Промоционално видео:

До четиригодишна възраст децата обикновено започват да разбират една основна социална черта: умовете им са различни от тези на другите. Те започват да разбират, че всеки има това, в което вярва, своите желания, емоции и намерения. И най-важното, представяйки се на мястото на другите, те могат да започнат да предсказват по-нататъшното поведение на тези хора и да ги обясняват. По някакъв начин мозъците им започват да създават множество симулации на себе си в себе си, замествайки се на мястото на други хора и се поставят в различна среда.

Моделът на психичното състояние е важен за разбирането на себе си като личност и също така играе важна роля в социалното взаимодействие. Разбирането на другите е ключът към ефективната комуникация и постигането на общи цели. Тази способност обаче може да бъде и движещата сила на фалшивите убеждения - идеи, които ни отвеждат от обективната истина. Щом способността за използване на модел на психично състояние е нарушена, например, това се случва при аутизъм, тогава естествените „човешки“умения, като способността за обяснение и представяне, също се влошават.

Според д-р Алън Уинфийлд, професор по роботика в Университета на Западна Англия, моделът на психичното състояние или "теорията на ума" е ключова характеристика, която един ден ще даде възможност на AI да "разбере" хора, неща и други роботи.

Вместо методи за машинно обучение, при които множество слоеве невронни мрежи извличат отделни части от информация и „изучават“огромни бази данни, Уинстън предлага да се използва различен подход. Вместо да разчита на ученето, Уинстън предлага предварително да програмира AI с вътрешен модел на себе си и на средата, който ще отговори на прости въпроси „какво, ако?“.

Например, представете си, че два робота се движат по тесен коридор, техният AI може да симулира резултатите от допълнителни действия, които ще предотвратят сблъсъка им: завийте наляво, надясно или продължете направо. Този вътрешен модел по същество ще действа като „механизъм на последиците“, действайки като един вид „здрав разум“, който ще помогне да се насочи ИИ към следващите правилни действия, като прогнозира бъдещото развитие на ситуацията.

В проучване, публикувано по-рано тази година, Уинстън демонстрира прототип робот, способен да постигне такива резултати. Предвиждайки поведението на другите, роботът успешно премина през коридора без сблъсъци. Всъщност това не е изненадващо, отбелязва авторът, но "внимателният" робот, използвайки симулиран подход за решаване на проблема, отне 50% повече време, за да завърши коридора. Независимо от това Уинстън доказа, че методът му за вътрешна симулация работи: „Това е много мощен и интересен изходен пункт в развитието на теорията за изкуствения интелект“, заключи ученият.

Уинстън се надява, че в крайна сметка AI ще придобие способността да описва, умствено възпроизвежда ситуации. Вътрешен модел на себе си и на други ще позволи на такава ИИ да симулира различни сценарии и по-важното - да определи конкретни цели и задачи за всеки от тях.

Това значително се различава от алгоритмите за задълбочено обучение, които по принцип не са в състояние да обяснят защо са стигнали до този или онзи извод при решаване на проблем. Моделът на черната кутия за задълбочено обучение всъщност е истинският проблем в доверието на такива системи. Този проблем може да стане особено остър, например при разработване на роботи за кърмене за болници или за възрастни хора.

Един ИИ, въоръжен с модел на психическо състояние, може да се постави в обувките на своите господари и правилно да разбере какво се иска от него. Тогава той можеше да идентифицира подходящи решения и след като обясни тези решения на лицето, той вече ще изпълни възложената му задача. Колкото по-малко несигурност в решенията, толкова повече увереност ще има в такива роботи.

Модел на психичното състояние в невронна мрежа

DeepMind използва различен подход. Вместо да програмират алгоритъм за механизма на последствията, те са разработили няколко невронни мрежи, които проявяват сходство с модел на колективно психологическо поведение.

Алгоритъмът AI "ToMnet" може да научи действия, като наблюдава други неутронни мрежи. Самият ToMNet е съвкупност от три невронни мрежи: първата се основава на особеностите на избора на други ИИ според последните им действия. Вторият формира обща концепция за настоящото настроение - техните убеждения и намерения в определен момент. Колективният резултат от работата на две невронни мрежи се получава от третата, която предвижда по-нататъшни действия на ИИ въз основа на ситуацията. Както при дълбокото обучение, ToMnet става по-ефективен, тъй като натрупва опит, като следва други.

В един експеримент, ToMnet "наблюдава" три маневриращи AI агенти в дигитална стая, събирайки цветни кутии. Всеки от тези AI имаше своя особеност: един беше „сляп“- не можеше да определи формата и разположението в стаята. Другият беше „склеротик“: не можеше да си спомни последните си стъпки. Третият можеше и да вижда, и да си спомня.

След обучението ToMnet започна да предвижда предпочитанията на всеки AI, като наблюдава неговите действия. Например „слепият“непрекъснато се движеше само по стените. ToMnet си спомни това. Алгоритъмът също беше в състояние правилно да предвиди бъдещото поведение на AI и по-важното - да разбере кога AI срещна фалшиво представяне на средата.

В един тест екип от учени програмира един AI за „късогледство“и промени дизайна на една стая. Агентите с нормално зрение бързо се приспособиха към новото оформление, но късогледът продължи да следва първоначалните си маршрути, лъжливо вярвайки, че все още е в старата среда. ToMnet бързо отбеляза тази функция и точно предвиди поведението на агента, поставяйки се на негово място.

Според д-р Алисън Гопник, психолог за развитие в Калифорнийския университет в Бъркли, който не е участвал в тези проучвания, но който е бил запознат с откритията, тези резултати показват, че невронните мрежи имат невероятна способност сами да усвояват различни умения чрез наблюдение на другите. В същото време, според експерта, все още е много рано да се каже, че тези ИИ са разработили изкуствен модел на психичното състояние.

Според д-р Джош Тенебаум от Масачузетския технологичен институт, който също не е участвал в проучването, „разбирането“на ToMnet е силно обвързано с контекста на учебната среда - същата стая и конкретни агенти на AI, чиято задача беше да събира кутии. Това ограничение в определена рамка прави ToMnet по-малко ефективен при прогнозиране на поведението в коренно нови среди, за разлика от същите деца, които могат да се адаптират към нови ситуации. Алгоритъмът, според учения, няма да се справи с моделирането на действията на напълно различен ИИ или човек.

Във всеки случай работата на Уинстън и DeepMind демонстрира, че компютрите започват да показват наченките на „разбиране“един на друг, дори ако това разбиране все още е само рудиментарно. И докато те продължават да усъвършенстват това умение, разбирайки се по-добре и по-добре, ще дойде време, когато машините ще могат да разберат сложността и сложността на нашето собствено съзнание.

Николай Хижняк

Препоръчано: