Изкуственият интелект се е научил да разпознава емоциите. До какво може да доведе това? - Алтернативен изглед

Съдържание:

Изкуственият интелект се е научил да разпознава емоциите. До какво може да доведе това? - Алтернативен изглед
Изкуственият интелект се е научил да разпознава емоциите. До какво може да доведе това? - Алтернативен изглед

Видео: Изкуственият интелект се е научил да разпознава емоциите. До какво може да доведе това? - Алтернативен изглед

Видео: Изкуственият интелект се е научил да разпознава емоциите. До какво може да доведе това? - Алтернативен изглед
Видео: Емоциите 2024, Може
Anonim

Развитието на изкуствения интелект през 21-ви век протича на скокове: едно от основните му постижения е способността да се разпознават човешките емоции. В своя годишен доклад за развитието на AI, интердисциплинарният изследователски център, изучаващ социалните последици от изкуствения интелект, AI Now призова за забрана на използването на тази технология в определени случаи. Според експерти уменията на AI в областта на разпознаването на емоциите не трябва да се прилагат при решения, които засягат живота на хората и обществото като цяло. Защо способността на роботите да различават емоциите може значително да промени обичайния живот на човечеството?

Способността на роботите да разпознават човешките емоции може да повлияе негативно на съвременното общество
Способността на роботите да разпознават човешките емоции може да повлияе негативно на съвременното общество

Способността на роботите да разпознават човешките емоции може да повлияе негативно на съвременното общество.

Може ли робот да развие чувство за съпричастност?

Алгоритмите за компютърно зрение, които са в състояние да открият определени емоции, съществуват на планетата поне от няколко десетилетия. Тази технология разчита на информация, получена в резултат на машинно обучение - специални алгоритми, които обработват данни за най-доброто вземане на решения. Въпреки целия напредък на роботиката днес, способността за възпроизвеждане на това наистина човешко умение все още е доста предизвикателна. Експертите на Microsoft отбелязват, че разпознаването на човешките емоции с помощта на компютри може да създаде редица приложения от ново поколение, но поради трудностите при идентифицирането им AI отдавна показва грешни резултати. Нови изследвания обаче показватче съвременните технологии вече помагат на агенциите за набиране на персонал за оценка на потенциалната производителност на бъдещ служител на етап интервю. И така, анализът на видеозаписите на интервютата с помощта на най-новите технологии вече е в ход, което позволява на мениджърите да добият по-добра представа за емоционалното състояние на своите подчинени.

Развитието на интелигентността в AI може да провокира редица етични и морални проблеми
Развитието на интелигентността в AI може да провокира редица етични и морални проблеми

Развитието на интелигентността в AI може да провокира редица етични и морални проблеми.

Лекотата на непрекъснато наблюдение от AI поражда много етични предизвикателства. Понастоящем има голям брой въпроси, свързани с поверителността на личната информация, които могат да предизвикат негативни обществени нагласи. Като се имат предвид тези етични съображения, използването на изкуствен интелект в ежедневието, макар че може да помогне при набирането или в наказателните процедури за присъда, в същото време може да бъде ненадеждно. Например, ако системите научат за пристрастия, ползите от AI по време на интервюта или присъда могат да бъдат сведени до минимум.

В крайна сметка разработчиците на технологии и обществото като цяло трябва да следят внимателно как информацията от AI системите се подава в процесите на вземане на решения. Както всяка друга форма на интелигентност, изкуствените системи могат да дадат неправилни резултати, които могат да повлияят негативно на живота на индивид или на цялото общество. Освен това съвременният ИИ има значителни технически затруднения при четенето на определени емоции, например нивото на самоувереност. Ако хората, склонни да се доверяват на изкуствения интелект, ще вземат решения въз основа на погрешното мнение за ИИ, обществото може да има много големи проблеми, които могат да бъдат предотвратени само чрез проектиране на такива качества като справедливост, прозрачност и етика в тези системи. С други думи,Преди умните системи да се научат да разпознават правилно емоциите, учените първо ще трябва да работят усилено, за да създадат морален код за изкуствен интелект.

Промоционално видео:

Автор: Дария Елецкая

Препоръчано: