Изкуственият интелект се е научил да вижда мрежови тролове - Алтернативен изглед

Изкуственият интелект се е научил да вижда мрежови тролове - Алтернативен изглед
Изкуственият интелект се е научил да вижда мрежови тролове - Алтернативен изглед

Видео: Изкуственият интелект се е научил да вижда мрежови тролове - Алтернативен изглед

Видео: Изкуственият интелект се е научил да вижда мрежови тролове - Алтернативен изглед
Видео: Environmental Disaster: Natural Disasters That Affect Ecosystems 2024, Може
Anonim

Изкуственият интелект прочете агресивните коментари от потребителите на Reddit и разбра как говорят хора, които мразят други хора. По-трудно е да го заблудиш от обикновен бот модератор.

Интернет е обитаван от дебели и тънки тролове и просто груби хора, които не влизат в джоба си за думи. Модернизирането на интернет ръчно е трудна и безблагодарна работа. Ботовете, програмирани да търсят думи от „забранения списък“, се справят по-добре, но не могат да знаят кога разяждащият коментар с кодови думи е безобидна шега и кога е зъл словесна атака.

Изследователи в Канада научиха изкуствения интелект да различава грубите вицове от обидните вицове и това, което социолозите наричат „реч на омразата“.

Дана Уормсли, един от създателите на AI, отбелязва, че "речта на омразата" е трудно да се формализира. Всъщност формално обидните думи могат да се използват както с ирония, така и в по-меките им значения; само някои от текстовете, съдържащи такива думи, сериозно подбуждат и унижават. Няма да дадем примери, защото правителствените организации, които регулират интернет в Русия, все още нямат изкуствен интелект).

Невронната мрежа беше обучена върху извадките от изявленията на членове на общността, известни с враждебността си към различни групи от населението. Невронната мрежа научи от публикациите на сайта Reddit - платформа, където можете да намерите голямо разнообразие от групи по интереси, от активисти за граждански права до радикални мизогинисти. Текстовете, които бяха качени в системата, най-често обиждаха афро-американците, хората с наднормено тегло и жените.

Невронната мрежа, обучена по този начин, даде по-малко фалшиви позитиви от програмите, които определят „речта на омразата“по ключови думи. Системата хвана расизма, където изобщо нямаше индикаторни думи. Но въпреки доброто представяне, създателите на AI модератора не са сигурни, че тяхното развитие ще бъде широко използвано. Засега тя успешно е намерила реч на омраза в Reddit, но дали ще успее да направи същото във Facebook и други платформи, не се знае. Плюс това, системата е несъвършена, понякога пропуска много от очевидно грубите расистки твърдения, които търсачката на ключови думи не би пропуснала. Единственият, който е в състояние да различи обида от невинната шега, докато човекът остава.