Какви опасности от невронните мрежи ние подценяваме? - Алтернативен изглед

Съдържание:

Какви опасности от невронните мрежи ние подценяваме? - Алтернативен изглед
Какви опасности от невронните мрежи ние подценяваме? - Алтернативен изглед

Видео: Какви опасности от невронните мрежи ние подценяваме? - Алтернативен изглед

Видео: Какви опасности от невронните мрежи ние подценяваме? - Алтернативен изглед
Видео: Електропреносна мрежа на ЈИЕ 22.05.2013 2024, Може
Anonim

Срещали ли сте някога на улицата човек, който би бил един към един като вас? Дрехите, лицето, походката, начинът на общуване, навиците са напълно идентични с вашите. Това е като сканиране и отпечатване на принтер. Звучи малко страховито, нали? А сега си представете, че сте видели видео, в което такъв човек разказва нещо за себе си. В най-добрия случай ще се опитате да си спомните кога сте ходили по такъв начин, че нищо не си спомняте, но можете да кажете това на камера. Въпреки че всичко това звучи като прости разсъждения, но технологията вече е много близка до създаването на такива хора. Те вече съществуват, но скоро ще има много повече.

Откъде идва фалшификатът?

Сега вече има твърде много неща, които обикновено се наричат фалшификати. Те са навсякъде. Те могат да бъдат намерени в снимки, в новини, в производството на стоки и в информационни услуги. По-лесно е да се каже къде няма явления, придружени от тази дума. Докато можете да се борите с тях. Можете да проучите произхода на снимката, да проверите отличителните характеристики на марков продукт от фалшив продукт и да проверите двукратно новините. Въпреки че, новините са отделна тема.

В днешно време потребителят на съдържание не иска да чака и изисква моментална продукция от създателя си, понякога той дори не се интересува от качеството, основното е бързо. Тук възникват ситуации, когато някой е казал нещо, а другите, без да го проверяват, го отнемат от своите уебсайтове и вестници. В някои случаи отнема много време, за да завъртите тази топка назад и да докажете, че всичко е грешно.

Няма смисъл да обяснявам защо се прави всичко това. От една страна, има такива, които просто искат да се смеят на ситуацията, от друга, тези, които наистина не са знаели, че грешат. Отделно място, приблизително в средата, е заето от онези, за които е банално да печелят. Това могат да бъдат интереси на влияние на различни нива, включително политическото. Понякога това е целта на печалба. Например, сеитбата на паника на фондовия пазар и провеждането на печеливши сделки с ценни книжа. Но често това се дължи на враждебност към човек (компания, продукт и т.н.), за да го омаловажат. Прост пример е „отпадане“в оценките на филм или институция, което не е желателно за някого. Разбира се, това изисква армия от онези, които ще отидат и не харесват (понякога дори ботове), но това е друга история.

Какво е задълбочено обучение?

Промоционално видео:

Напоследък този термин звучи все по-често. Понякога той дори не е свързан със случая и е объркан с нещо друго. Така софтуерният продукт изглежда по-впечатляващ.

Не мислете, че концепцията и основните принципи на машинното обучение се появяват само преди няколко години. Всъщност те са толкова много години, че много от нас дори не сме се родили тогава. Основните принципи на системите за дълбоко обучение и математическите модели за тяхната работа са били известни още през 80-те години на миналия век.

По онова време те нямаха толкова смисъл поради липсата на един важен компонент. Беше висока изчислителна мощност. Едва в средата на 2000-те се появиха системи, които могат да ви помогнат да работите в тази посока и да ви позволят да изчислите цялата необходима информация. Сега машините са се развили още повече и някои системи на машинно зрение, възприемане на глас и някои други работят толкова ефективно, че понякога дори надминават възможностите на човек. Въпреки че те все още не са „затворени“в отговорни посоки, което ги прави допълнение към човешките възможности, като същевременно поддържа контрол над тях.

Image
Image

Какво е Deepfake? Кога се появи Deepfake?

Лесно е да се предположи, че Deepfake е малка игра на думи, свързани с Deep Learning и самите фалшификати, за които говорих по-горе. Тоест Deepfake трябва да изведе фалшиви на ново ниво и да разтовари човек в този труден бизнес, което им позволява да създават фалшиво съдържание, без да губят енергия.

На първо място, подобни фалшификати засягат видео. Тоест, всеки човек може да седне пред камерата, да каже нещо и лицето му ще бъде заменено с друг човек. Изглежда страшно, защото всъщност просто трябва да хванете основните движения на човек и ще бъде просто невъзможно да различите фалшив. Да видим как започна всичко.

Първата генеративна състезателна мрежа е създадена от студент в Станфордския университет. Това се случи през 2014 г., а името на студента беше Иън Гудфелд. Всъщност той хвърли две невронни мрежи една срещу друга, едната от които се занимаваше с генериране на човешки лица, а втората ги анализираше и говори подобно или не. Така те тренираха взаимно и един ден втората невронна мрежа започна да се обърква и да приема генерираните изображения за реални. Именно тази все по-сложна система ражда Deepfake.

Сега един от основните популяризатори на идеята за Deepfake е Хао Ли. Той прави не само това, но и много други. За това той многократно е награждаван с различни награди, включително неофициални. Между другото, той е един от тези, на които трябва да се благодари за появата на animoji в iPhone X. При интерес можете да се запознаете с него по-подробно на неговия уебсайт. Днес той не е основната тема на дискусия.

Помнихме го само защото на Световния икономически форум в Давос той показа своето заявление, което ще ви позволи да замените лицето на човек, който седи пред камерата, с което и да е друго лице. По-специално той показа как работи системата на примера на лицата на Леонардо Ди Каприо, Уил Смит и други известни личности.

Изглежда малко страховито. От една страна, можете само да се възхищавате на съвременните технологии, които ви позволяват да сканирате лице, да го промените в друг в движение и да създадете нова картина. Всичко това отнема частица секунда и системата дори не се забавя. Тоест, той позволява не само да обработва готовия видеоклип и да замени лицето, но и да участва с такъв персонаж в някакъв вид видео комуникация на живо.

Опасност от Deepfake. Как да променя лицето на видеоклип?

Можете да говорите колкото искате, че тази технология е необходима, много е готина и не е нужно да клеветите. Можете дори да отидете до крайност и да започнете да казвате, че това е положението на свиреп старец, който просто се страхува от всичко ново, но наистина има повече опасности, отколкото ползи.

С такава технология, особено ако е с отворен код, всеки ще може да сърфира и записва всяко видео. Не е лошо, ако просто осквернява нечия чест и достойнство, много по-лошо е, ако това е изявление, направено от името на важен човек. Например, като запишете видео с дължина само 30-40 секунди от името на Тим Кук, можете да свалите почти цялата ИТ сфера в САЩ, водена от Apple. Фондовата борса ще бъде ударена толкова силно, че ще засее паника сред инвеститорите. В резултат на това хиляди хора ще загубят милиарди долари.

Всеки, който не харесва този начин на печелене на пари, ще каже, че това е това, от което се нуждаят, нека отидат в завода. Но по най-тъжния сценарий след това няма да има растение. Освен това е банално, че получаваме човек, който изневерява на колебанията в стойността на ценните книжа. Достатъчно е само да ги купите и продадете навреме.

Ситуацията може да бъде още по-лоша, ако „жокерът“изказва от името на лидера на голяма държава. Разбира се, тогава всичко ще се разкрие, но през това време можете да направите много неприятни неща. На този фон просто заместване лицето на знаменитост на актьор във филм за възрастни би било невинна шега.

При такива технологии основното е да сканирате и тогава е въпрос на технология. В най-верния смисъл на думата
При такива технологии основното е да сканирате и тогава е въпрос на технология. В най-верния смисъл на думата

При такива технологии основното е да сканирате и тогава е въпрос на технология. В най-верния смисъл на думата.

Можете да си представите обратната ситуация, когато истински човек казва нещо, а след това уверява всички, че е бил поставен в рамка. Как да бъдем в тази ситуация също не е много ясно. Това ще внесе такова объркване в емисиите на новини, че просто не е възможно да го проверите отново в друг източник. В резултат на това ще стане като цяло неясно какво е вярно и кое е невярно в този свят. Снимка се появява от филми за мрачно бъдеще, като Сурогати или Терминатор, където Т-1000 се представи като други хора и, наред с други неща, наречен Джон Конор от името на своята осиновителка.

Сега дори не говоря за поредната злоупотреба, която ще позволи събирането на неверни доказателства. На този фон цялото забавление на играчката става твърде съмнително.

Как да открием Deepfake?

Проблемът дори не е, че подобни системи трябва да бъдат забранени, а че това вече не е възможно. Те вече са там и развитието на технологии, включително четенето на лица, доведе до появата им и разпространението на отворен код. Дори да си представим, че системата в сегашния си вид ще престане да съществува, трябва да разберем, че ще бъде създадена наново. Те просто още веднъж ще научат невронните мрежи да работят помежду си и това е всичко.

Засега не всичко е толкова страшно и буквално можете да идентифицирате фалшив с просто око. Картината е подобна, но доста груба. Освен това понякога има някои проблеми със смесването, особено около краищата на лицето. Но нищо не стои неподвижно и изобщо не е трудно да го развием още повече. Същият Хао Ли е сигурен, че това ще отнеме не повече от няколко месеца и за създаването на „маски“, които дори компютърът не може да различи, ще отнеме още няколко години. След това няма да има връщане назад.

От една страна, алгоритъмът, който YouTube и Facebook вече създават, може да защити срещу това. Между другото, последният дори отвори конкурс за разработване на технология за разпознаване - Deepfake Detection Challenge („Задачата за откриване на дълбоки фейкове“). Наградният фонд за този конкурс е 10 милиона долара. Състезанието вече е в ход и ще приключи през март 2020 г. Все още можете да имате време за участие.

Подмяната на лице във видеоклип вече не е проблем
Подмяната на лице във видеоклип вече не е проблем

Подмяната на лице във видеоклип вече не е проблем.

Може би тази щедрост се дължи на фалшиво видео със самия Марк Зукърбърг. Ако тези две неща са свързани, появата на подобна конкуренция не е изненадваща.

Ако замененото лице напълно съвпада с оригинала, контрафорсът, представен от специална невронна мрежа, ще бъде безсилен. В този случай тя ще трябва да улови минимални разлики в изражението на лицето, движенията и начина на говорене. В случай на известни хора такъв проблем ще бъде решен на нивото на видео услугата, тъй като същият YouTube знае как се движи конвенционалният Доналд Тръмп. Когато става въпрос за по-малко известен човек, той става по-труден. Въпреки това, това може да се докаже и като го поставите пред камерата и проведете непринуден разговор, докато невронната мрежа анализира движенията му. Ще се окаже нещо като изучаване на пръстов отпечатък, но, както виждаме, това отново ще доведе до ненужни трудности.

Шиенето на системи за аутентификация на видео в камери също може да бъде заобиколено. Можете да накарате камерата да маркира заснетия видеоклип и да изясните, че той не е заснет чрез отделно приложение или обработен в специална програма. Но какво да кажем за видеоклипове, които току-що са обработени? Например, редактирано интервю. В резултат на това ще получим видео, в което оригиналният ключ вече няма да бъде.

Няколко мема в края
Няколко мема в края

Няколко мема в края.

Можем ли да кажем, че сега сме очертали един от сценариите на едно мрачно бъдеще? Като цяло, да. Ако технологиите, които са създадени за постигане на добри цели, излязат извън контрол, те могат да отпият от мъка. Всъщност има много възможности за такива опасни технологии, но повечето от тях са защитени. Например ядрен синтез. Тук се занимаваме с код, който всеки може да получи.

Напишете в коментарите как виждате защита срещу фалшифициране, като имате предвид, че маскиращата система успя да направи маски напълно идентични с оригиналните лица. И тъй като те са на видео, дори не можете да приложите разпознаване на дълбочина и обем към тях. Освен това, нека приемем, че всеки код и ключ, вградени в изображението, могат да бъдат хакнати. Както се казва, би било за какво. Сега можем да обсъдим, всичко уводно е там.

Артем Сутягин