Как се научиха невронните мрежи да фалшифицират новинарската картина - Алтернативен изглед

Съдържание:

Как се научиха невронните мрежи да фалшифицират новинарската картина - Алтернативен изглед
Как се научиха невронните мрежи да фалшифицират новинарската картина - Алтернативен изглед

Видео: Как се научиха невронните мрежи да фалшифицират новинарската картина - Алтернативен изглед

Видео: Как се научиха невронните мрежи да фалшифицират новинарската картина - Алтернативен изглед
Видео: Дете хваща риба за секунди 2024, Април
Anonim

За създаване на фалшификати се използват системи за изкуствен интелект и технологии за генериране на видео и аудио фалшификати.

За да създадете „индивидуална“новинарна картина за всеки от нас и да фалшифицирате избраните в нея медийни отчети, днес усилията на един програмист са достатъчни. Специалисти по изкуствен интелект и киберсигурност разказаха за Известия за това. Съвсем наскоро те прецениха, че това изисква работата на множество екипи. Подобно ускорение стана възможно с развитието на технологии за атаки на невронни мрежи и генерирането на звукови и видео фалшификати с помощта на програми за създаване на „дълбоки фалшификати“. Вестник „Известия“наскоро претърпя подобна атака, когато три либийски новинарски портала наведнъж публикуваха съобщение, което се твърди, че се появява в един от броевете. Според експерти, в рамките на 3-5 години може да се очаква нахлуване на роботизирани манипулатори, което автоматично ще може да създаде много фалшификати.

Смел нов свят

Има все повече проекти, които адаптират информационната картина към възприемането на конкретни потребители. Един пример за тяхната работа беше неотдавнашната акция на три либийски портала, които публикуваха новини, за които се твърди, че са отпечатани в броя на "Известия" на 20 ноември. Създателите на фалшивата модифицираха заглавната страница на вестника, публикувайки на него съобщение за преговорите между фелдмаршал Халифа Хафтар и министър-председателя на правителството на Националното споразумение (ПНС) Файез Сарадж. Фалшивата, с шрифт "Известия", беше придружена от снимка на двамата лидери, направена през май 2017 г. Етикетът с логото на изданието е изрязан от действително публикувания брой от 20 ноември, а всички останали текстове на страницата от броя на 23 октомври.

От гледна точка на специалистите, в обозримо бъдеще подобни фалшификации могат да се извършват автоматично.

Image
Image

„Технологиите за изкуствен интелект вече са напълно отворени и устройствата за получаване и обработка на данни се миниатюризират и стават по-евтини“, каза за „Известия“доктор физико-математически науки Юри Вилситер, професор на Руската академия на науките. - Ето защо е много вероятно в близко бъдеще дори държавата и големите корпорации, а просто частните лица да могат да ни подслушват и шпионират, както и да манипулират реалността. В следващите години ще бъде възможно, като се анализират предпочитанията на потребителите, да му повлияете чрез новинарски емисии и много умни фалшификати.

Промоционално видео:

Според Юрий Вилситър технологии, които могат да бъдат използвани за подобна намеса в психичната среда, вече съществуват. На теория инвазията на ботовете на манипулаторите може да се очаква след няколко години, каза той. Ограничаващ момент тук може да е необходимостта от събиране на големи бази данни с примери за реакции на реални хора на изкуствени стимули с проследяване на дългосрочните последици. Подобно проследяване вероятно ще изисква още няколко години изследвания, преди целенасочени атаки да бъдат последователно получени.

Зрителна атака

Алексей Парфентиев, ръководител на отдела за анализи в SearchInform, е съгласен с Юрий Вилситер. Според него експертите вече прогнозират атаки на невронни мрежи, въпреки че сега практически няма такива примери.

- Изследователи от Gartner вярват, че до 2022 г. 30% от всички кибератаки ще бъдат насочени към повреждане на данните, по които невронната мрежа тренира и кражба на готови модели за машинно обучение. Тогава например безпилотните превозни средства могат изведнъж да започнат да заблуждават пешеходците за други обекти. И няма да говорим за финансов или репутационен риск, а за живота и здравето на обикновените хора, смята експертът.

Атаките върху системите за компютърно зрение се извършват като част от изследванията в момента. Целта на подобни атаки е да принудят невронната мрежа да открие в изображението това, което го няма. Или, обратно, да не видя какво е планирано.

Image
Image

„Една от активно развиващите се теми в областта на обучението на невронните мрежи са така наречените съпътстващи атаки („ състезателни атаки “- Известия)“, обясни Владислав Тушканов, уеб анализатор в лабораторията на Касперски. - В повечето случаи те са насочени към системи за компютърно зрение. За да извършите такава атака, в повечето случаи е необходимо да имате пълен достъп до невронната мрежа (т. Нар. Атаки с бяла кутия) или до резултатите от нейната работа (атаки с черни кутии). Няма методи, които да заблудят всяка система за компютърно зрение в 100% от случаите. В допълнение, вече са създадени инструменти, които ви позволяват да тествате невронните мрежи за устойчивост на противоречиви атаки и да увеличите тяхната устойчивост.

В хода на такава атака нападател се опитва по някакъв начин да промени разпознатия образ, така че невронната мрежа да не работи. Често върху снимката се наслагва шум, подобен на този, който се получава при фотографиране в слабо осветена стая. Човек обикновено не забелязва подобна намеса добре, но невронната мрежа започва да функционира неправилно. Но за да извърши такава атака, нападателят се нуждае от достъп до алгоритъма.

Според Станислав Ашманов, генерален директор на Neuroset Ashmanov, в момента няма методи за справяне с този проблем. В допълнение, тази технология е достъпна за всеки: средният програмист може да я използва, като изтегли необходимия софтуер с отворен код от услугата Github.

Image
Image

- Атаката срещу невронна мрежа е техника и алгоритми за измама на невронна мрежа, които я карат да генерира фалшиви резултати и всъщност да я счупят като брава на вратата - смята Ашманов. - Например, сега е доста лесно да накарате системата за разпознаване на лица да мисли, че не сте вие, а Арнолд Шварценегер пред нея - това става чрез смесване на добавки, незабележими за човешкото око, в данните, влизащи в невронната мрежа. Същите атаки са възможни за системите за разпознаване и анализ на речта.

Експертът е сигурен, че само ще се влоши - тези технологии са отишли на маса, измамниците вече ги използват и няма средства за защита срещу тях. Тъй като няма защита срещу автоматизираното създаване на видео и аудио фалшификати.

Дълбоки фалшификати

Технологиите на Deepfake, базирани на Deep Learning (технологии за дълбоко изучаване на невронни мрежи. - Известия), вече представляват реална заплаха. Видео или аудио фалшификати се създават чрез редактиране или наслагване на лицата на известни хора, които уж произнасят необходимия текст и играят необходимата роля в сюжета.

„Deepfake ви позволява да замените движенията на устните и човешката реч с видео, което създава усещане за реализъм на случващото се“, казва Андрей Бусаргин, директор на отдела за иновативна защита на марката и интелектуалната собственост в Group-IB. - Фалшиви знаменитости „предлагат“на потребителите в социалните мрежи да участват в тегленето на ценни награди (смартфони, коли, парични суми) и др. Връзките от тези видеоклипове често водят до сайтове за измама и фишинг, където потребителите са помолени да въведат лична информация, включително данни за банкова карта. Подобни схеми представляват заплаха както за обикновените потребители, така и за обществениците, споменати в рекламите. Благодарение на този вид шенигани изображенията на знаменитости се свързват с измами или рекламирани стоки.и тук срещаме лични щети на марката “, казва той.

Image
Image

Друга заплаха е свързана с използването на „фалшиви гласове“за телефонни измами. Например, в Германия киберпрестъпниците използваха глас, за да накарат ръководителя на филиал в Обединеното кралство спешно да преведе 220 000 евро по сметката на унгарски доставчик в телефонен разговор, представяйки се за мениджър на компанията. Ръководителят на британската фирма заподозрял трик, когато неговият "шеф" поискал втори паричен превод, но обаждането дошло от австрийски номер. По това време първият транш вече беше преведен по сметка в Унгария, откъдето парите бяха изтеглени в Мексико.

Оказва се, че съвременните технологии позволяват създаването на индивидуална новина, изпълнена с фалшиви новини. Освен това скоро ще бъде възможно да се разграничат фалшификатите от реално видео и аудио само от хардуер. Според експертите мерките, забраняващи развитието на невронни мрежи, едва ли ще бъдат ефективни. Затова скоро ще живеем в свят, в който ще е необходимо непрекъснато да проверяваме всичко.

„Трябва да се подготвим за това и трябва да го приемем“, подчерта Юрий Вилситер. - Човечеството не за първи път преминава от една реалност в друга. Нашият свят, начин на живот и ценности коренно се различават от света, в който нашите предци са живели преди 60 000 години, преди 5 000 години, преди 2000 години и дори преди 200-100 години. В близко бъдеще човек до голяма степен ще бъде лишен от личен живот и следователно ще бъде принуден да не крие нищо и да действа честно. В същото време нищо в заобикалящата действителност и в собствената личност не може да се възприеме с вяра, всичко ще трябва да бъде поставено под въпрос и постоянно да се проверява. Но дали тази бъдеща реалност ще бъде ужасна? Не. Просто ще бъде съвсем различно.

Анна Урманцева

Препоръчано: