Учените предложиха начин за предотвратяване на края на света поради роботи в бъдеще - Алтернативен изглед

Учените предложиха начин за предотвратяване на края на света поради роботи в бъдеще - Алтернативен изглед
Учените предложиха начин за предотвратяване на края на света поради роботи в бъдеще - Алтернативен изглед

Видео: Учените предложиха начин за предотвратяване на края на света поради роботи в бъдеще - Алтернативен изглед

Видео: Учените предложиха начин за предотвратяване на края на света поради роботи в бъдеще - Алтернативен изглед
Видео: Институт по Роботика - БАН - роботи 2024, Април
Anonim

Много хора се страхуват от въстание на робота в бъдеще, призовавайки да се спре развитието на изкуствения интелект, за да се избегне отрицателен сценарий в бъдеще. Но в индустрията, свързана с развитието на роботиката, участват огромен брой хора и пари, така че никой няма да спира развитието на подобни технологии. Можем ли да се сблъскаме с апокалипсис поради нашите творения и има ли начин да предотвратим въстанието на машините?

Преди време Science Alert публикува статия на експерти от света на науката, която говори за разработването на специален алгоритъм, който ще помогне за предотвратяване на неконтролирано поведение на роботи с изкуствен интелект в бъдеще. Според учените роботи просто не могат да навредят на хората поради този метод.

Самите учени нарекли алгоритъма си селдонски. Но какво е значението му? Алгоритмите ще могат да анализират неприемливо поведение за машините и максимално ще предпазят хората от отрицателните действия на роботи, но алгоритмите не съдържат концепцията за добро и лошо поведение, така че не всички експерти вярват в защитните функции на алгоритмите.

Разработчиците на новата система разказаха за работата на алгоритъма, използвайки един от примерите, който е за управление на инсулинова помпа с помощта на автоматизирана система. Ако количеството инсулин в кръвта на пациента се намали до изключително ниско ниво, тогава алгоритмите предполагат действията, необходими за спасяването на човека.

Преди време редица учени изразиха загриженост за разработването на ядрени оръжия, базирани на изкуствен интелект. Ако такива системи ще вземат свои собствени решения, тогава това може да предизвика апокалипсис на Земята. Не забравяйте за действията на хакерите, които могат да хакнат подобни системи и никакви защитни алгоритми няма да помогнат в този случай. По този начин може да се счита, че няма идеална защита срещу заплахите на съвременния свят в областта на разработването на роботи и изкуствения интелект.