人工智能的23條“軍規”,馬斯克、霍金等聯(lián)合背書(shū)

發(fā)布時(shí)間:2017-2-8 09:57    發(fā)布者:eechina
關(guān)鍵詞: 人工智能 , 機器人
來(lái)源:AI世代

人工智能是一項了不起的技術(shù),它正在以不可思議的方式改變世界。如果你看過(guò)電影《終結者》,肯定知道先進(jìn)的人工智能技術(shù)蘊含一些危險。

正因如此,伊隆·馬斯克(Elon Musk)、史蒂芬·霍金(Stephen Hawking)才連同另外數百名研究人員、科技領(lǐng)袖和科學(xué)家聯(lián)名支持人工智能應該在生產(chǎn)力、道德和安全領(lǐng)域遵守的23條基本原則。

在未來(lái)生活研究院(Future of Life Institute)組織數十名專(zhuān)家共同參加Beneficial A.I. 2017大會(huì )之后,便正式發(fā)布了《艾斯羅馬人工智能23定律》(Asilomar A.I. Principles)。這些專(zhuān)家包括機器人學(xué)家、物理學(xué)家、經(jīng)濟學(xué)家、哲學(xué)家,他們對人工智能在安全、經(jīng)濟和道德等領(lǐng)域產(chǎn)生的影響展開(kāi)了激烈辯論。要讓這套定律最終獲得通過(guò),必須獲得多達90%的與會(huì )專(zhuān)家認可。

“我們起草了23條定律,范圍從研究戰略到數字權益,再到可能出現的超級智能等未來(lái)的各種問(wèn)題。認可這些定律的專(zhuān)家已經(jīng)在上面簽下自己的名字!蔽磥(lái)生活研究院網(wǎng)站寫(xiě)道,“這些定律并不全面,顯然也可以有不同的解讀,但它也凸顯出一個(gè)問(wèn)題:目前圍繞許多相關(guān)問(wèn)題開(kāi)展的很多‘默認’行為,可能會(huì )破壞在多數與會(huì )人員看來(lái)十分重要的原則!

共有892名人工智能或機器人研究人員以及另外1445名專(zhuān)家在這份定律上簽字,包括特斯拉CEO馬斯克和著(zhù)名物理學(xué)家霍金。

其中一些定律(例如透明度和共享研究成果)實(shí)現的可能性較低。即便這些定律無(wú)法得到全面落實(shí),但這23條定律仍然可以改進(jìn)人工智能開(kāi)發(fā)過(guò)程,確保這些技術(shù)符合道德標準,避免邪惡勢力崛起。

以下是《艾斯羅馬人工智能23定律》的全部?jì)热荩?br />
1、研究目標:

人工智能研究目標不能不受約束,必須發(fā)展有益的人工智能。

2、研究資金:

人工智能投資應該附帶一部分專(zhuān)項研究基金,確保其得到有益的使用,解決計算機科學(xué)、經(jīng)濟、法律、倫理道德和社會(huì )研究方面的棘手問(wèn)題:

——如何確保未來(lái)的人工智能系統健康發(fā)展,使之符合我們的意愿,避免發(fā)生故障或遭到黑客入侵?

——如何通過(guò)自動(dòng)化實(shí)現繁榮,同時(shí)保護人類(lèi)的資源,落實(shí)人類(lèi)的目標?

——如何更新法律制度,使之更加公平、效率更高,從而跟上人工智能的發(fā)展步伐,控制與人工智能有關(guān)的風(fēng)險?

——人工智能應該符合哪些價(jià)值觀(guān),還應該具備哪些法律和道德地位?

3、科學(xué)政策聯(lián)系:

人工智能研究人員應該與政策制定者展開(kāi)有建設性的良性交流。

4、研究文化:

人工智能研究人員和開(kāi)發(fā)者之間應該形成合作、互信、透明的文化。

5、避免競賽:

人工智能系統開(kāi)發(fā)團隊應該主動(dòng)合作,避免在安全標準上出現妥協(xié)。

6、安全性:

人工智能系統應當在整個(gè)生命周期內確保安全性,還要針對這項技術(shù)的可行性以及適用的領(lǐng)域進(jìn)行驗證。

7、故障透明度:

如果人工智能系統引發(fā)破壞,應該可以確定原因。

8、司法透明度:

在司法決策系統中使用任何形式的自動(dòng)化系統,都應該提供令人滿(mǎn)意的解釋?zhuān)倚枰捎心芰Φ娜藛T進(jìn)行審查。

9、責任:

對于先進(jìn)的人工智能系統在使用、濫用和應用過(guò)程中蘊含的道德意義,設計者和開(kāi)發(fā)者都是利益相關(guān)者,他們有責任也有機會(huì )塑造由此產(chǎn)生的影響。

10、價(jià)值觀(guān)一致性:

需要確保高度自動(dòng)化的人工智能系統在運行過(guò)程中秉承的目標和采取的行動(dòng),都符合人類(lèi)的價(jià)值觀(guān)。

11、人類(lèi)價(jià)值觀(guān):

人工智能系統的設計和運行都必須符合人類(lèi)的尊嚴、權利、自由以及文化多樣性。

12、個(gè)人隱私:

人類(lèi)應該有權使用、管理和控制自己生成的數據,為人工智能賦予數據的分析權和使用權。

13、自由和隱私:

人工智能在個(gè)人數據上的應用決不能不合理地限制人類(lèi)擁有或理應擁有的自由。

14、共享利益:

人工智能技術(shù)應當讓盡可能多的人使用和獲益。

15、共享繁榮:

人工智能創(chuàng )造的經(jīng)濟繁榮應當廣泛共享,為全人類(lèi)造福。

16、由人類(lèi)控制:

人類(lèi)應當有權選擇是否及如何由人工智能系統制定決策,以便完成人類(lèi)選擇的目標。

17、非破壞性:

通過(guò)控制高度先進(jìn)的人工智能系統獲得的權力,應當尊重和提升一個(gè)健康的社會(huì )賴(lài)以維繼的社會(huì )和公民進(jìn)程,而不是破壞這些進(jìn)程。

18、人工智能軍備競賽:

應該避免在自動(dòng)化致命武器上開(kāi)展軍備競賽。

19、能力警告:

目前還沒(méi)有達成共識,我們應該避免對未來(lái)人工智能技術(shù)的能力上限做出強假定。

20、重要性:

先進(jìn)的人工智能代表了地球生命歷史上的一次深遠變革,應當以與之相稱(chēng)的認真態(tài)度和充足資源對其進(jìn)行規劃和管理。

21、風(fēng)險:

針對人工智能系統的風(fēng)險,尤其是災難性風(fēng)險和存在主義風(fēng)險,必須針對其預期影響制定相應的規劃和緩解措施。

22、不斷自我完善:

對于能夠通過(guò)自我完善或自我復制的方式,快速提升質(zhì)量或增加數量的人工智能系統,必須輔以嚴格的安全和控制措施。

23、共同利益:

超級人工智能只能服務(wù)于普世價(jià)值,應該考慮全人類(lèi)的利益,而不是一個(gè)國家或一個(gè)組織的利益。
本文地址:http://selenalain.com/thread-352700-1-1.html     【打印本頁(yè)】

本站部分文章為轉載或網(wǎng)友發(fā)布,目的在于傳遞和分享信息,并不代表本網(wǎng)贊同其觀(guān)點(diǎn)和對其真實(shí)性負責;文章版權歸原作者及原出處所有,如涉及作品內容、版權和其它問(wèn)題,我們將根據著(zhù)作權人的要求,第一時(shí)間更正或刪除。
您需要登錄后才可以發(fā)表評論 登錄 | 立即注冊

相關(guān)視頻

關(guān)于我們  -  服務(wù)條款  -  使用指南  -  站點(diǎn)地圖  -  友情鏈接  -  聯(lián)系我們
電子工程網(wǎng) © 版權所有   京ICP備16069177號 | 京公網(wǎng)安備11010502021702
快速回復 返回頂部 返回列表
午夜高清国产拍精品福利|亚洲色精品88色婷婷七月丁香|91久久精品无码一区|99久久国语露脸精品|动漫卡通亚洲综合专区48页