來(lái)源:AI世代 人工智能是一項了不起的技術(shù),它正在以不可思議的方式改變世界。如果你看過(guò)電影《終結者》,肯定知道先進(jìn)的人工智能技術(shù)蘊含一些危險。 正因如此,伊隆·馬斯克(Elon Musk)、史蒂芬·霍金(Stephen Hawking)才連同另外數百名研究人員、科技領(lǐng)袖和科學(xué)家聯(lián)名支持人工智能應該在生產(chǎn)力、道德和安全領(lǐng)域遵守的23條基本原則。 在未來(lái)生活研究院(Future of Life Institute)組織數十名專(zhuān)家共同參加Beneficial A.I. 2017大會(huì )之后,便正式發(fā)布了《艾斯羅馬人工智能23定律》(Asilomar A.I. Principles)。這些專(zhuān)家包括機器人學(xué)家、物理學(xué)家、經(jīng)濟學(xué)家、哲學(xué)家,他們對人工智能在安全、經(jīng)濟和道德等領(lǐng)域產(chǎn)生的影響展開(kāi)了激烈辯論。要讓這套定律最終獲得通過(guò),必須獲得多達90%的與會(huì )專(zhuān)家認可。 “我們起草了23條定律,范圍從研究戰略到數字權益,再到可能出現的超級智能等未來(lái)的各種問(wèn)題。認可這些定律的專(zhuān)家已經(jīng)在上面簽下自己的名字!蔽磥(lái)生活研究院網(wǎng)站寫(xiě)道,“這些定律并不全面,顯然也可以有不同的解讀,但它也凸顯出一個(gè)問(wèn)題:目前圍繞許多相關(guān)問(wèn)題開(kāi)展的很多‘默認’行為,可能會(huì )破壞在多數與會(huì )人員看來(lái)十分重要的原則! 共有892名人工智能或機器人研究人員以及另外1445名專(zhuān)家在這份定律上簽字,包括特斯拉CEO馬斯克和著(zhù)名物理學(xué)家霍金。 其中一些定律(例如透明度和共享研究成果)實(shí)現的可能性較低。即便這些定律無(wú)法得到全面落實(shí),但這23條定律仍然可以改進(jìn)人工智能開(kāi)發(fā)過(guò)程,確保這些技術(shù)符合道德標準,避免邪惡勢力崛起。 以下是《艾斯羅馬人工智能23定律》的全部?jì)热荩?br /> 1、研究目標: 人工智能研究目標不能不受約束,必須發(fā)展有益的人工智能。 2、研究資金: 人工智能投資應該附帶一部分專(zhuān)項研究基金,確保其得到有益的使用,解決計算機科學(xué)、經(jīng)濟、法律、倫理道德和社會(huì )研究方面的棘手問(wèn)題: ——如何確保未來(lái)的人工智能系統健康發(fā)展,使之符合我們的意愿,避免發(fā)生故障或遭到黑客入侵? ——如何通過(guò)自動(dòng)化實(shí)現繁榮,同時(shí)保護人類(lèi)的資源,落實(shí)人類(lèi)的目標? ——如何更新法律制度,使之更加公平、效率更高,從而跟上人工智能的發(fā)展步伐,控制與人工智能有關(guān)的風(fēng)險? ——人工智能應該符合哪些價(jià)值觀(guān),還應該具備哪些法律和道德地位? 3、科學(xué)政策聯(lián)系: 人工智能研究人員應該與政策制定者展開(kāi)有建設性的良性交流。 4、研究文化: 人工智能研究人員和開(kāi)發(fā)者之間應該形成合作、互信、透明的文化。 5、避免競賽: 人工智能系統開(kāi)發(fā)團隊應該主動(dòng)合作,避免在安全標準上出現妥協(xié)。 6、安全性: 人工智能系統應當在整個(gè)生命周期內確保安全性,還要針對這項技術(shù)的可行性以及適用的領(lǐng)域進(jìn)行驗證。 7、故障透明度: 如果人工智能系統引發(fā)破壞,應該可以確定原因。 8、司法透明度: 在司法決策系統中使用任何形式的自動(dòng)化系統,都應該提供令人滿(mǎn)意的解釋?zhuān)倚枰捎心芰Φ娜藛T進(jìn)行審查。 9、責任: 對于先進(jìn)的人工智能系統在使用、濫用和應用過(guò)程中蘊含的道德意義,設計者和開(kāi)發(fā)者都是利益相關(guān)者,他們有責任也有機會(huì )塑造由此產(chǎn)生的影響。 10、價(jià)值觀(guān)一致性: 需要確保高度自動(dòng)化的人工智能系統在運行過(guò)程中秉承的目標和采取的行動(dòng),都符合人類(lèi)的價(jià)值觀(guān)。 11、人類(lèi)價(jià)值觀(guān): 人工智能系統的設計和運行都必須符合人類(lèi)的尊嚴、權利、自由以及文化多樣性。 12、個(gè)人隱私: 人類(lèi)應該有權使用、管理和控制自己生成的數據,為人工智能賦予數據的分析權和使用權。 13、自由和隱私: 人工智能在個(gè)人數據上的應用決不能不合理地限制人類(lèi)擁有或理應擁有的自由。 14、共享利益: 人工智能技術(shù)應當讓盡可能多的人使用和獲益。 15、共享繁榮: 人工智能創(chuàng )造的經(jīng)濟繁榮應當廣泛共享,為全人類(lèi)造福。 16、由人類(lèi)控制: 人類(lèi)應當有權選擇是否及如何由人工智能系統制定決策,以便完成人類(lèi)選擇的目標。 17、非破壞性: 通過(guò)控制高度先進(jìn)的人工智能系統獲得的權力,應當尊重和提升一個(gè)健康的社會(huì )賴(lài)以維繼的社會(huì )和公民進(jìn)程,而不是破壞這些進(jìn)程。 18、人工智能軍備競賽: 應該避免在自動(dòng)化致命武器上開(kāi)展軍備競賽。 19、能力警告: 目前還沒(méi)有達成共識,我們應該避免對未來(lái)人工智能技術(shù)的能力上限做出強假定。 20、重要性: 先進(jìn)的人工智能代表了地球生命歷史上的一次深遠變革,應當以與之相稱(chēng)的認真態(tài)度和充足資源對其進(jìn)行規劃和管理。 21、風(fēng)險: 針對人工智能系統的風(fēng)險,尤其是災難性風(fēng)險和存在主義風(fēng)險,必須針對其預期影響制定相應的規劃和緩解措施。 22、不斷自我完善: 對于能夠通過(guò)自我完善或自我復制的方式,快速提升質(zhì)量或增加數量的人工智能系統,必須輔以嚴格的安全和控制措施。 23、共同利益: 超級人工智能只能服務(wù)于普世價(jià)值,應該考慮全人類(lèi)的利益,而不是一個(gè)國家或一個(gè)組織的利益。 |