就目前而言,人工智慧還算不上什麼威脅

ADVERTISEMENT

編者按:近年來,人工智慧這個話題大熱。一些科幻電影中,人工智慧的發展最終無法抑製,成為了人類文明的終結者。一些大牛們,如比爾蓋茨、霍金,都對人工智慧的發展提出了警告;不過也有人認為,人工智慧在現在階段並不是什麼威脅。且看這篇文章的論點。

2014年,SpaceX的CEO Elon Musk發推說:“Bostrom的《超級智慧(Superintelligence)》非常值得一讀。對待AI,我們需要小心翼翼。” 同年,劍橋大學的宇宙學家史蒂芬·霍金(Stephen Hawking)在接受BBC的訪問時說:“完全的人工智慧(full artificial intelligence)的發展可能會導致人類的終結。” 微軟聯合創始人比爾·蓋茨(Bill Gates)也警告說:“關於AI,我持謹慎懷疑態度。”

關於AI帶來的世界末日將如何展開,電腦科學家Eliezer Yudkowsky在2008年發表的《全球災難風險(Global Catastrophic Risks)》中提出:AI在未來從單細胞生物發展到人類智力水平的可能性有多大呢?他回答道:“形成一個物理意義上的大腦是可能的,其計算的速度是人類大腦的一百萬倍....如果人腦因此而加速,主觀上一年的思考將在31秒內就完成了,一千年將在八個半小時內就過去了。” Yudkowsky認為,如果我們不這麼做就太晚了:“人工智慧所執行的時間維度與我們不同,當你的神經元完成思考說‘我應該做這件事情’時,你已經錯過時機了。”

牛津大學哲學家尼克·博斯特羅姆(Nick Bostrom)在他的《超級智慧(Superintelligence)》中提出所謂的回形針最大化的思想實驗:一個AI被設計來製造回形針,並且在耗盡其最初的原材料供應之後,它將利用在其可達範圍內的任何可用原子,包括人類。正如他在2003年的一篇論文中所描述的那樣,從那時開始“首先轉化整個地球,為回形針製造設施增加空間”。短時間內,整個宇宙都由回形針和回形針製造器組成。

對此,我表示懷疑。首先,所有這樣的末日情景都涉及一長串的“如果-那麼(if-then)”意外事件,在任何點的失敗都會推到所謂的世界末日。西英格蘭布裡斯託大學的電氣工程教授艾倫·溫菲爾德(Alan Winfield)在2014年的一篇文章中這樣說:“如果我們成功地構建與人類相同的AI,如果AI對它如何工作有著充分理解,如果它成功地改善自身成為超智慧AI,如果這個超級AI意外或惡意地開始消耗資源,如果我們不能拔插頭斷電,那麼,是的,我們可能有問題。這種危險,不是不可能,是不太可能發生。”

第二,如果按照時間段來檢查的話,會發現人工智慧的發展遠低於預期。正如Google執行主席埃裡克·施密特(Eric Schmidt)在迴應馬斯克(Musk)和霍金(Hawking)時所說:“你認為人類不會注意到這種情況嗎?你認為人類不會關閉這些電腦嗎?”Google自己的DeepMind開發了一個AI關閉開關的概念,被戲稱為“大紅色按鈕“,可以用來接管AI。正如百度副總裁吳安民(Andrew Ng)所說的那樣(迴應Musk),“這就像是我們甚至還沒有踏上火星,就在擔心火星上會人口過剩。”

第三,AI的末日情景通常基於自然智慧和人工智慧之間的錯誤對比。哈佛大學實驗心理學家Steven Pinker在對2015年Edge.org年度問題“你對機器思考有什麼看法”的回答中闡明:“AI 反烏託邦項目將一個狹隘的阿爾法男性心理學投射到智力概念上。他們認為,超人類的智慧機器人將‘放棄他們的主人或接管世界’作為自己的發展目標。”同樣地,Pinker說道,“人工智慧將沿著雌系自然發展——能夠完全解決問題,但不會想要消滅無辜或支配文明。“

第四,暗示計算機將“想要”做某事(例如將世界變成回形針)就等同於AI有情感。正如科學作家Michael Chorost所言:“AI真的想要做某事時,它將會生活在一個有獎勵和懲罰的宇宙中,這其中就包括來自我們對不良行為的懲罰。”

鑑於歷史上對世界末日的幾乎為0的預測率,加上人工智慧在幾十年來緩慢發展,我們有足夠的時間建立故障安全系統,防止任何這樣的人工智慧所帶來的世界末日。

» 36氪

ADVERTISEMENT