Изкуствен интелект: меч с две остриета? - Алтернативен изглед

Изкуствен интелект: меч с две остриета? - Алтернативен изглед
Изкуствен интелект: меч с две остриета? - Алтернативен изглед

Видео: Изкуствен интелект: меч с две остриета? - Алтернативен изглед

Видео: Изкуствен интелект: меч с две остриета? - Алтернативен изглед
Видео: AI, big data и machine learning 2024, Може
Anonim

Казваме, че роботите ще се повишат. Това ще завладее света, ще поеме контрола над всичко. Чуваме тези предупреждения от десетилетия и днес, в началото на 21 век, броят на тези предупреждения само расте. Нараства страхът от изкуствен интелект, който ще сложи край на нашия вид.

Такива сценарии не само са щракнати в Холивуд, но и все по-често намират привърженици в научната и философската област. Например, Рей Курцвайл пише, че експоненциалният растеж на изкуствения интелект ще доведе до технологична особеност, точката, в която машинният интелект ще надмине човешката интелигентност. Някои виждат това като края на света, други виждат само възможности. Ник Бостром смята, че свръх разузнаването би ни помогнало да се справим с болести, бедност и унищожаване на околната среда, както и да подобрим себе си.

Във вторник известният учен Стивън Хокинг се присъедини към редиците на пророците за сингулярността, по-точно към тяхната песимистична група, тъй като той каза пред Би Би Си, че „развитието на пълноправен изкуствен интелект може да означава края на човешката раса“. Той вярва, че хората няма да могат да се конкурират с AI, който ще може да се препрограмира и да достигне ниво, далеч по-високо от човешкото. Хокинг също смята, че изобщо не трябва да се опитваме да контактуваме с извънземни, тъй като те ще имат само една цел: да ни покори или унищожи напълно.

Проблемът с тези сценарии не е, че те неизбежно грешат - кой може да предскаже бъдещето? - или не вярващи скриптове за научна фантастика. Последното е неизбежно, ако искате да разберете и оцените съвременните технологии и тяхното въздействие върху нас в бъдеще. Важно е да поставим философските си въпроси на масата в подобни сценарии и да проучим страховете си, за да разберем какво е най-важно за нас.

Проблемът със съсредоточаването изключително върху изкуствения интелект в контекста на „съдбовия ден“и други фатални сценарии е, че ни разсейва от други, по-належащи и важни етични и социални проблеми, които възникват във връзка с технологичното развитие в тези области. Например, има ли място за поверителност в света на информационните и комуникационни технологии? Google, Facebook и Apple заплашват ли свободата в света на технологиите? Допълнителната автоматизация ще доведе ли до загуба на работни места? Могат ли новите финансови технологии да застрашат глобалната икономика? Как мобилните устройства влияят на околната среда? (За заслуга на Хокинг, той спомена за неприкосновеността на личния живот в интервюта, но след това все още говори за края на човешката епоха.)

Тези въпроси са далеч по-малко привлекателни от свръх разузнаването или от края на човечеството. Те също не повдигат въпроси относно интелигентността или роботите; те са за това от какво общество имаме нужда и как искаме да видим живота си.

Тези въпроси са древни, те се появиха от самата поява на науката и философията, а нарастващите информационни технологии на днешния ден, които променят нашия свят, ни карат да мислим за тях отново. Да се надяваме, че най-добрите човешки умове на нашето време ще съсредоточат по-голямата част от енергията си върху намирането на отговори на правилните въпроси, а не върху демагогията около преувеличените заплахи.

Иля Кел

Промоционално видео: