Хокинг и Мъск защитиха хората от свръхразузнаването - Алтернативен изглед

Хокинг и Мъск защитиха хората от свръхразузнаването - Алтернативен изглед
Хокинг и Мъск защитиха хората от свръхразузнаването - Алтернативен изглед

Видео: Хокинг и Мъск защитиха хората от свръхразузнаването - Алтернативен изглед

Видео: Хокинг и Мъск защитиха хората от свръхразузнаването - Алтернативен изглед
Видео: СТИВЕН ХОКИНГ. ВСЕ ЕГО РОЛИ В ТЕОРИИ БОЛЬШОГО ВЗРЫВА. 2024, Юли
Anonim

Теоретичният физик Стивън Хокинг и основателят на Tesla Motors Илон Мъск подкрепиха редица принципи, които трябва да гарантират, че изкуственият интелект (AI) не вреди на хората и служи само на доброто. Докладите на Business Journal от Силициевата долина

Този пакт е необходим, за да се гарантира безопасността на хората, както и да се отговори на много въпроси, свързани с ИИ. Мъск е убеден, че изкуственият интелект може да бъде по-опасен от ядрените оръжия. Хокинг също е на подобно мнение и твърди, че ИИ може да унищожи човечеството. И двамата осъзнават, че ИИ ще помогне на хората да решат много проблеми, като излекуване на рак или забавяне на глобалното затопляне.

Спазването на всички 23 принципа трябва да гарантира, че ИИ служи само за добри цели. Те са разделени на три категории: Изследователски въпроси, Въпроси за етика и ценности и Дългосрочни въпроси. Първата категория включва отговори на въпросите, пред които са изправени създателите на ИИ, включително как трябва да продължи финансирането. Втората категория засяга въпросите на сигурността и начините за неутрализиране на заплахата. Третият описва възможните рискове, с които човечеството може да се сблъска, когато ИИ достигне своя връх и се появи така нареченото свръхразузнаване.

Тези принципи бяха разработени на конференция по дискусия за ИИ в началото на януари 2017 г. Главният изпълнителен директор на DeepMind Демис Хасабис допринесе за писането.