Изкуственият интелект като терорист: нови заплахи за сигурността - Алтернативен изглед

Съдържание:

Изкуственият интелект като терорист: нови заплахи за сигурността - Алтернативен изглед
Изкуственият интелект като терорист: нови заплахи за сигурността - Алтернативен изглед

Видео: Изкуственият интелект като терорист: нови заплахи за сигурността - Алтернативен изглед

Видео: Изкуственият интелект като терорист: нови заплахи за сигурността - Алтернативен изглед
Видео: Exposing the Secrets of the CIA: Agents, Experiments, Service, Missions, Operations, Weapons, Army 2024, Октомври
Anonim

Руски учени са изследвали и класифицирали заплахите от използването на изкуствен интелект (AI) от гледна точка на международната информация и психологическата сигурност. Особено внимание бе обърнато на противодействието на злонамерената употреба на ИИ от терористите. Резултатите от изследването са публикувани в списанието Russia in Global Relations.

Опасности от злонамерена употреба на AI

Потенциалната опасност от изкуствения интелект за човечеството многократно се превръща в тема на произведения на изкуството и днес е един от най-обсъжданите въпроси на научно-техническото развитие. Въпреки че Силният ИИ, способен на независимо системно мислене и вероятно притежаващ самосъзнание и воля, все още е далеч от създаването, различни усъвършенствани версии на Слабия ИИ изпълняват специализирани задачи, които изглеждаха като научна фантастика преди 10 години. Използването на AI за добри цели (например в медицината) вече носи безспорни ползи. В ръцете на терористичните и други престъпни организации обаче постепенно по-евтините и по-модерни технологии на ИИ могат да се превърнат в по-страшно оръжие от ядрените.

Изследователи от различни страни активно изучават заплахите, които злонамерената употреба на ИИ представлява за обществото като цяло и за определени сфери на човешката дейност, било то политика, икономика, военни дела и др. Въпреки това, заплахите директно за международната информация и психологическата сигурност все още не са идентифицирани като независими. обхват на разглеждане. Междувременно използването на AI за дестабилизиране на международните отношения чрез целенасочена високотехнологична информация и психологическо въздействие върху хората представлява очевидна голяма опасност.

Авторите на изследването предложиха класификация на заплахите от злонамереното използване на изкуствен интелект въз основа на редица критерии, включително териториално покритие, скорост и форма на разпространение. Прилагането на класификация ще ви помогне да намерите начини за противодействие и разработване на инструменти за отговор.

„Бъдещото намаление на цената на AI технологиите може да създаде заплахи от нови терористични атаки. Възможно е чатбот да бъде използван за конструиране на съобщение за фалшиво събитие и да убеди потенциалните жертви да го посетят. За да се противодейства, е препоръчително да се запознаят обществото с нови заплахи, като се инструктират гражданите да внимават при отдалечени контакти с хора, които не познават лично. Изходът може да бъде сертифицирането на публични събития, потвърждаващи реалността на информацията, публикувана за тях. Разбира се, задачата на техническите специалисти в този случай ще бъде защитата на базите данни за събития и механизма на тяхното сертифициране “, заяви пред RIAEPA Дария Базаркина, професор от Катедрата за международна сигурност и външна политика на Русия в RANEPA.

Съвременното ниво на технологии и възможности на AI ни позволява да идентифицираме редица коренно нови заплахи за информацията и психологическата сигурност на човек.

Промоционално видео:

Използване на технологиите на "фалшиви хора" и "дълбоки фейкове" за международни провокации

Американската технологична компания NVIDIA наскоро сподели резултатите от генеративно-конкурентна мрежа, обучена да генерира свои собствени образи на хора („фалшиви хора“). За секунди невронната мрежа създава изображения с висока разделителна способност на лицата на несъществуващи хора, може да добави всякакви културни и етнически черти, емоции, настроение и се основава на безкрайна колекция от изображения на реални лица. В бъдеще е възможно този опит да бъде повторен от други разработчици. В същото време подобни изображения могат да бъдат използвани от престъпниците за всякакви провокации, които могат да бъдат разпознати само от общество със системни политехнически познания.

„Технологията Deepfake може да синтезира образа и гласа на човек. Той вече започна да се използва за създаване на видео изображения на световни лидери, включително президента на САЩ Доналд Тръмп и руския президент Владимир Путин. Видеоклиповете на Deepfake са способни да манипулират поведението на големи целеви групи и могат да бъдат използвани в информационната и психологическа конфронтация (IPP), за да предизвикат финансова паника или война , заяви Евгений Пашенцев, водещ изследовател в Института за съвременни международни въпроси на Дипломатическата академия на Министерството на външните работи на Русия, професор в Московския държавен университет, пред РИА Новости.

Анализът на сентенцията е клас от методи за анализ на съдържанието в компютърната лингвистика, предназначен за автоматизирано откриване на емоционално оцветена лексика и емоционална оценка на авторите в текстове. Анализът на чувствителността се предоставя от широк спектър източници, като блогове, статии, форуми, анкети и др. Това може да бъде много ефективен инструмент в API, което например се потвърждава от големия интерес към подобни разработки в момента от страна на ръководството на американското командване за специални операции. (Командването за специални операции на САЩ (SOCOM).

„Предсказващи оръжия“: Прогнозиране на човешкото поведение въз основа на данните в социалните медии

През 2012 г. Агенцията за напреднали разузнавателни изследвания на Съединените щати (IARPA) стартира програмата за ранно разпознаване на събития въз основа на модела, използвайки сурогати (EMBERS). Целта на развитието се нарича прогнозиране на граждански вълнения въз основа на използването на ИИ с определяне на дата, място, протестираща група от населението.

Системата обработва данни от медии и социални мрежи, както и източници с по-високо качество, например икономически показатели. Попадането на подобни програми в ръцете на терористите, разбира се, също е изключително опасно. В този случай големите терористични атаки по време на най-мащабните социални демонстрации могат да станат вероятна заплаха. Допълнителен критерий за избор на целите на терористичното нападение може да бъде степента на социално и психологическо напрежение в определени области.

Според авторите на изследването като противодействие мерките за прогнозиране могат да се използват от самите държавни и наднационални власти за предотвратяване на социалното напрежение (навременно приемане на социални, икономически и политически мерки, насочени към постигане на стабилност в дългосрочен план).

Освен това терористичните групи могат да причинят щети на репутацията чрез използването на ботове по време на политически кампании, както и да привлекат нови привърженици или да организират убийствата на политици.

Заснемане на дронове и роботизирана инфраструктура

Транспортните системи за самообучение с контрол на ИИ могат да бъдат удобни цели за високотехнологични терористични атаки. Изземването на терористите от контрола върху системата за контрол на транспорта в голям град може да доведе до много жертви, да създаде паника и да създаде психологически климат, който ще улесни други престъпни дейности.

Търговските системи могат да се използват за разполагане на безпилотни летателни апарати или автономни превозни средства за доставяне на експлозиви и създаване на аварии. Поредица от големи бедствия могат да предизвикат вълнение в международните медии и да причинят значителни щети на информационната и психологическата сигурност.

Изследователи от Руската президентска академия за национална икономика и публична администрация и Дипломатическата академия на Министерството на външните работи на Руската федерация базират своите изследвания на систематичен анализ на ролята на ИИ в областта на сигурността, метод на сценариен анализ, исторически аналогии и анализ на случаите. Заедно с колега от Университета в Упсала (Швеция) Грег Симонс, авторите на изследването станаха съредактори на предстоящата книга „Тероризмът и напредналите технологии в информационната и психологическа конфронтация: Нови рискове, нови възможности за противодействие на терористичната заплаха“с участието на изследователи от 11 държави.

По инициатива на руски изследователи проблемът с ролята на ИИ в контекста на заплахите за международната информационна и психологическа сигурност се обсъжда активно и ще бъде обсъждан на международни конференции и автономни международни изследователски семинари. Сред тях е конференция, проведена под егидата на Комисията на Руската федерация за ЮНЕСКО и редица други руски и международни структури в Ханти-Мансийск на 9-12 юни. Управителят на Ханти-Мансийския автономен окръг Наталия Владимировна Комарова взе активно участие в сесията на секцията по проблема със злонамереното използване на ИИ, сформирана с подкрепата на Европейската-руска експертна мрежа за управление на комуникациите (ERESKM). В бъдеще това е IV иберо-американски форум в Санкт Петербург на 1 - 3 октомври 2019 г.,Европейска конференция за въздействието на изкуствения интелект и роботика 31 октомври - 1 ноември 2019 г. Авторите на проучванията са представили научни доклади в Аржентина, Уругвай, Бразилия, Южна Африка и Италия.

Според специалисти от RANEPA и Дипломатическата академия е изключително важно в мащаба на Русия да се установи формирането на дългосрочни целеви програми, тъй като проблемът с ИИ и международната информационна и психологическа сигурност е проблем за близкото бъдеще.

Препоръчано: