Роботите ще създадат най-правдоподобните информационни фалшификати - Алтернативен изглед

Роботите ще създадат най-правдоподобните информационни фалшификати - Алтернативен изглед
Роботите ще създадат най-правдоподобните информационни фалшификати - Алтернативен изглед

Видео: Роботите ще създадат най-правдоподобните информационни фалшификати - Алтернативен изглед

Видео: Роботите ще създадат най-правдоподобните информационни фалшификати - Алтернативен изглед
Видео: 6 РЕАЛЬНЫХ МАШИН ТРАНСФОРМЕРОВ КОТОРЫЕ СУЩЕСТВУЮТ 2024, Може
Anonim

Представете си, че един ден някой вундеркинд би изобретил технология, която позволява на хора или материални предмети да преминават през стени, и да публикува инструкции в интернет как евтино да се изгради такава машина за чудо от общодостъпни домакински материали. Как би се променил светът?

Много индустрии вероятно ще станат значително по-продуктивни. Възможността да се разхождате през стени, вместо да се налага да използвате врати, ще улесни хората да се придвижват из офисите, да преместват стоки в складове и да изпълняват безброй ежедневни задачи. Обаче негативните последици биха могли да надхвърлят положителните. Държането на ценности под ключ ще загуби всякакъв смисъл. Всеки може лесно да влезе в склада, да влезе в банков сейф или къща.

Повечето методи, които използваме за защита на частната собственост, включват стени по един или друг начин, така че всички те биха били безполезни за една нощ. Крадците биха действали безнаказано, докато обществото измисли алтернативни начини за предотвратяване на подобни престъпления. Резултатът от подобно развитие на събитията може да бъде икономически колапс или социален хаос.

Горното илюстрира общ принцип: технологичните иновации не винаги са полезни за обществото, поне в краткосрочен план. Технологиите са способни да създават негативни външни ефекти, външни фактори. Този икономически термин означава вреда, причинена на трети лица или страни. Ако тези негативни външни ефекти надвишават полезността на самата технология, изобретението всъщност влошава света, а не по-добре, поне за известно време.

Машинното обучение, особено вариант, известен като дълбоко обучение, е може би най-горещият технологичен пробив на планетата. Той дава на компютрите възможност да изпълняват много задачи, които преди са могли да правят само хората: да разпознават изображения, да карат автомобили, да търгуват на фондовия пазар и други. Това поражда безпокойство при някои хора, че машинното обучение може да направи хората ненужни и безполезни на работното място. И това всъщност е възможно, но има много по-сериозна опасност от машинното обучение, което досега не е получило достатъчно внимание. Въпросът е, че ако машините могат да се учат, те могат да се научат и да лъжат.

Днес хората могат да фалшифицират изображения като снимки, но това е трудоемък и сложен процес. А фалшифицирането на гласово или видео изображение обикновено надхвърля възможностите на обикновения човек. Но скоро, благодарение на машинното обучение, вероятно ще бъде възможно лесно да се създадат правдоподобни фалшиви видео изображения на нечие лице и да се създаде впечатлението, че човекът говори със собствения си глас. Вече има технология за синхронизиране на движенията на устните, която буквално може да сложи всякакви думи в устата на човек. Това е само върхът на айсберга. Скоро 12-годишните ще могат да създават фотореалистични и правдоподобно звучащи фалшиви образи на политици, бизнес лидери, техни роднини или приятели в спалните си в спалните си, казвайки всичко, което могат да си представят.

Това само по себе си провокира някои очевидни злоупотреби. Политическите измислици, така наречените „фалшиви новини“или „пълнене на информация“, ще се разпространяват като горски пожари. Разбира се, измамата ще бъде открита възможно най-скоро - никоя цифрова технология не може да бъде толкова добра, че друга технология да не може да открие фалшификата. Но това ще се случи едва след като вредната идея вече е проникнала в съзнанието на хората, които вярват в нея. Представете си перфектно измислено фалшиво видео на кандидати за президент, които крещят расови клевети или признават за тежки престъпления.

Това обаче е само началото. Представете си потенциала за манипулиране на фондовия пазар. Да предположим, че някой е разпространил фалшиво видео, в което изпълнителният директор на Tesla Илон Мъск признава, че автомобилите на Tesla не са в безопасност. Видеото ще влезе онлайн и акциите на компанията ще се сринат. Скоро след откриването на фалшификат, цената им ще се възстанови, но през това време манипулаторите ще могат да правят огромни пари, играейки за намаляване на акциите на Tesla.

Промоционално видео:

И това далеч не е най-екстремният сценарий. Представете си такъв шегобиец, който създава реалистичен фалшив видеоклип на президента Доналд Тръмп, заявяващ, че предстои удар по севернокорейските цели, и след това публикува това видео, където севернокорейците могат да го видят. Какви са шансовете севернокорейското ръководство да осъзнае, че това е фалшификат, преди да се наложи да започне война?

Тези, които са склонни да разглеждат такива екстремни сценарии като алармист, разумно ще посочат, че всяка фалшификация може да бъде открита, тъй като за тях ще бъдат използвани същите технологии за машинно обучение, както и за създаване. Но това не означава, че няма опасност да попаднем в свят, изпълнен с повсеместни фалшификати. След като фалшификатите станат достатъчно правдоподобни, че хората не могат да ги открият сами, завинаги ще загубим доверие в това, което виждаме и чуваме. Вместо да се доверяваме на собствените си сетива, ще бъдем принудени да разчитаме на алгоритми, използвани за откриване на фалшификати и удостоверяване на информация. По време на еволюцията се научихме да се доверяваме на собствените си чувства,и прехвърлянето на тези функции към машинната интелигентност може да бъде твърде рязко за повечето хора.

Това може да е лоша новина за икономиката. Бизнес и търговските мрежи са изградени върху доверие и комуникация. Ако машинното обучение хвърли един ден безкрайна буря от илюзии и фалшификати в публичната информационна сфера, стените, създадени от еволюцията за разграничаване на реалността от измислицата, ще се срутят. В този случай нивото на доверие в обществото може бързо да падне, което няма да се забави, за да се отрази негативно на глобалното благосъстояние на човечеството.

Поради тази причина правителството вероятно трябва да предприеме някои стъпки, за да гарантира, че цифровото фалшифициране се наказва строго. За съжаление сегашната администрация едва ли ще направи такава стъпка от любов към теснопартийните новини. А правителства като Русия вероятно ще бъдат още по-малко склонни да ограничат подобни практики. В крайна сметка комбинацията от лошо управление с мощни нови технологии представлява далеч по-голяма заплаха за човешкото общество, отколкото самите технологии.

От Ноа Смит - Колумнист на Bloomberg News

Игор Абрамов