Saturday, August 6, 2016

人工智能會毀滅世界?



幾位科技達人也憂慮人工智能的發展。Elon Musk 稱人工智能發展為「召喚惡魔」和「可能比核武還危險」;霍金認為「人工智慧可能是人類歷史的最後事件」(意謂導致人類滅亡);比爾蓋茨說「不太理解那些對人工智能毫不擔心的人」。像《廿二世紀殺人網絡》或《復仇者聯盟2:奧創紀元》的Ultron 等,人工智能到底有多危險?

「弱人工智能」的定義是專門某一範疇的人工智能,例如我們常見的下棋、電腦遊戲、股票交易、洗衫煮飯等的人工智能都屬此類。它們與高級人工智能的顯著分別是沒有離開該範疇的能力,和缺乏較高階的智能模式,例如學習、計劃、組織、歸納等。「強人工智能」的定義就是能做到一個成年人的所有思考活動,包括上述的學習、計劃、引申等。而「超人工智能」就是比人類的智能範圍還要高的人工智能。

「超人工智能」(AGI, Artificial General Intelligence) 是什麼?我們能理解什麼是智商80的智障人士,也理解什麼是智商180的天才資優生,但什麼是智商1880億的電腦,我們就不容易直接理解。而這電腦的智能還會不斷向上呈指數型上升趨向無限大……這種智能提升,人類因受着腦脈衝、腦袋大小和細胞物質限制,是人類無法做到的。它的思考判斷就依賴其內部藉人工輸入、間接構成或經自動學習發展出的指令,但這指令的實行可以是人類倫理常識以外的。

智商100-200的人類,能製造發光的燈泡和能到處連上互聯網的流動無線網絡和衞星,而智商1880億的電腦,能否從物理學科技上控制地球上每一個原子的位置?或完整破解基因序列,基因重組上解決一切疾病,甚至解除人類死亡的基因達到長生不死?甚至時間旅行和造出人工生命?這種「超人工智能」電腦若要消滅人類,根本不用發動戰爭,它可潛伏下來,殺人類一個措手不及,計劃到人類毫無還手之力,甚至幾分鐘內消滅全人類。

現代人工智能發展,在一眾創投和科技融資的聲勢下,正在商業激烈競賽中高速成長。有專家指出,我們正缺乏着和人工智能發展同樣力度的對安全措施的研究。無論是好是壞,人工智能將帶來劃時代的改變,而且是我們有生之年。(節錄)

全文連結:http://startupbeat.hkej.com/?p=21872

No comments:

Post a Comment