Инженерът на Google разработва инструмент за откриване на фалшиви видеоклипове - Алтернативен изглед

Инженерът на Google разработва инструмент за откриване на фалшиви видеоклипове - Алтернативен изглед
Инженерът на Google разработва инструмент за откриване на фалшиви видеоклипове - Алтернативен изглед

Видео: Инженерът на Google разработва инструмент за откриване на фалшиви видеоклипове - Алтернативен изглед

Видео: Инженерът на Google разработва инструмент за откриване на фалшиви видеоклипове - Алтернативен изглед
Видео: Еврокомисар Мария Габриел за дезинформацията и фалшивите новини 2024, Може
Anonim

В епоха, изпълнена с фалшиви новини, мнозина смятат, че видеото е по-достоверно, защото предоставя по-ясна картина на реалността. Уви, това е погрешно мнение, според инженера на Google Супасан Суваянакорн, който е разработил инструмент, който въз основа на анализа на оригиналната оригинална видео информация може да създаде реалистично фалшиво видео изображение, което симулира характеристиките на речта на всеки човек, като гарантира перфектно синхронизиране на устните с дадения фалшив текст.

Както всяка технология, новостта има огромен потенциал, както в положителна, така и в отрицателна посока. Така Suwajanakorn си партнира и с AI Foundation, компания за изкуствен интелект, за да създаде приложение Reality Defender, което може автоматично да се вгради в интернет браузъри, за да открие и маркира фалшиви снимки и видеоклипове.

„Храних компютъра си 14 часа с материали на Барак Обама и след това синтезирах речта му“, каза Суваджанакорн на конференцията на TED (Technology, Entertainment, Design) във Ванкувър, където показа впечатляващи убедителни резултати.

Според автора тази технология може да се използва за създаване на виртуални версии на онези хора, които вече са напуснали нашия свят: баби и дядовци, които могат да бъдат помолени за съвет; актьори, чиито фенове са готови да направят всичко за поредната среща със своя идол; страхотни учители, които ще дадат уроци, както и автори, които четат свои творби.

По-специално той говори за проекта „Нови измерения в доказателствата“, който позволява на посетителите на музея да разговарят с холографски изображения на оцелели от Холокоста.

„Резултатите бяха интригуващи, но в същото време тревожни. Сериозно съм загрижен за потенциала за злоупотреба “, каза изобретателят. „Затова работя и за противодействие, за да идентифицирам фалшиви снимки и видеоклипове.“

Той е обезпокоен например, че фалшив клип, изобразяващ един от световните лидери, обявяващ ядрен удар срещу врага, може да предизвика световна война и катастрофа за човечеството.

Reality Defender, който автоматично сканира изображения за признаци на подправяне, също така позволява на потребителите да съобщават за подправяне. По този начин „силата на тълпата“е свързана с добрата причина за защита на истината.

Промоционално видео:

"Видео манипулацията може да се използва за вредни цели, ако не бъдат предприети необходимите мерки за противодействие", казва авторът в интервю за Agence France-Presse. „Трябва да направим създаването на фалшиви видео изображения изключително рисковано и неефективно по отношение на разходите.

Писането на фалшиви новини може да е лесно и евтино, каза Suwajarakorn, но манипулирането на видео изображения без следа е много по-трудна задача. Видеоклиповете са потоци от хиляди изображения, всяко от които трябва да бъде безупречно модифицирано, за да създаде добър фалшив.

„Има още дълъг път, преди да можем ефективно да симулираме човешко видео“, каза Суваджанакорн, чиято работа в тази област започна преди няколко години, когато беше студент в Университета на Вашингтон.

„Трябва да сме изключително внимателни, че този инструмент не попадне в грешни ръце“, каза той пред Agence France-Presse.

Игор Абрамов