Стивън Хокинг нарече изкуствения интелект най-голямата грешка в историята - Алтернативен изглед

Стивън Хокинг нарече изкуствения интелект най-голямата грешка в историята - Алтернативен изглед
Стивън Хокинг нарече изкуствения интелект най-голямата грешка в историята - Алтернативен изглед

Видео: Стивън Хокинг нарече изкуствения интелект най-голямата грешка в историята - Алтернативен изглед

Видео: Стивън Хокинг нарече изкуствения интелект най-голямата грешка в историята - Алтернативен изглед
Видео: 215th Knowledge Seekers Workshop - Mar 15, 2018 2024, Септември
Anonim

Известният британски физик Стивън Хокинг в статия, вдъхновена от научнофантастичния филм „Трансцендентност“с участието на Джони Деп, заяви, че подценяването на заплахата от изкуствен интелект може да бъде най-голямата грешка в човешката история.

В статия в съавторство с професора по компютърни науки Стюарт Ръсел от Калифорнийския университет в Бъркли и преподавателите по физика Макс Тегмарк и Франк Уилчек от MIT, Хокинг посочва известен напредък в изкуствения интелект, отбелязвайки самостоятелно шофиране на автомобили, гласов асистент на Сири и суперкомпютъра. победителят от мъжа в играта за викторина за телевизия Jeopardy.

„Всички тези постижения бледнеят на фона на онова, което ни очаква през следващите десетилетия. Успешното създаване на изкуствен интелект ще бъде най-голямото събитие в човешката история. За съжаление може да се окаже последно, ако не се научим да избягваме рисковете “, цитира Хокинг от британския вестник The Independent.

Професорите пишат, че в бъдеще може да се случи, че никой и нищо не може да спре машини с нечовешки интелект от самоусъвършенстване. И това ще даде старт на процеса на така наречената технологична особеност, което означава изключително бързо технологично развитие. Във филма с участието на Деп в този смисъл се използва думата „трансцендентност“.

Представете си, че такава технология надминава хората и управлява финансовите пазари, научните изследвания, хората и разработването на оръжия извън нашето разбиране. Ако краткосрочният ефект на изкуствения интелект зависи от това кой го контролира, тогава дългосрочният ефект зависи от това дали той изобщо може да бъде контролиран.

Трудно е да се каже какви последствия може да има изкуственият интелект върху хората. Хокинг смята, че има малко сериозни изследвания, посветени на тези въпроси извън такива организации с нестопанска цел като Центъра за изследване на екзистенциалните рискове в Кеймбридж, Института за бъдещето на човечеството и изследователски институти за машинно разузнаване и бъдещ живот.

Според него всеки от нас трябва да се запита какво можем да направим сега, за да избегнем най-лошия сценарий на бъдещето.