霍金再發(fā)警告:機器人100年內將控制人類(lèi)

發(fā)布時(shí)間:2015-5-14 09:52    發(fā)布者:eechina
關(guān)鍵詞: 機器人 , 人工智能
在倫敦舉行的2015年Zeitgeist大會(huì )上,著(zhù)名科學(xué)家史蒂芬·霍金(Stephen Hawking)再次發(fā)出警告——未來(lái)100年內,人工智能將比人類(lèi)更為聰明,機器人將控制人類(lèi)。

霍金宣稱(chēng),現在不是擔心誰(shuí)控制人工智能的時(shí)候,而應該擔心人工智能是否能被完全控制住。未來(lái)100年中,人類(lèi)將面臨比人類(lèi)更聰明的人工智能的挑戰;艚鸫饲耙苍l(fā)出警告,他稱(chēng)人工智能可能終結人類(lèi)。

霍金說(shuō):“在未來(lái)100年內,結合人工智能的計算機將會(huì )變得比人類(lèi)更聰明。屆時(shí),我們需要確保計算機與我們的目標相一致。我們的未來(lái)取決于技術(shù)不斷增強的力量和我們使用技術(shù)的智慧之間的賽跑!

今年年初,霍金曾與特斯拉CEO伊隆·馬斯克(Elon Musk)共同發(fā)表公開(kāi)信,他們認為人工智能的發(fā)展應該受到控制。信中稱(chēng),如果智能機器無(wú)法保障安全,人類(lèi)可能陷入黑暗的未來(lái)。

信中警告科學(xué)家們警惕人工智能將抹殺人類(lèi)?茖W(xué)家們稱(chēng):“我們已經(jīng)達成共識,人工智能研究正取得很大進(jìn)展,將對社會(huì )產(chǎn)生越來(lái)越大的影響。潛在好處十分巨大,因為文明提供的一切都是人類(lèi)智慧的產(chǎn)物。但是當這種智慧放大到人工智能工具都可提供的程度,我們無(wú)法預測結果,疾病和貧苦的消除并非不可能!

但科學(xué)家們也提出更嚴肅警告,人工智能研究必須避免潛在威脅。比如,從短期來(lái)看,人工智能可能導致數百萬(wàn)人失業(yè)。從長(cháng)期來(lái)看,人工智能可能像科幻電影中一樣,比人類(lèi)更聰明時(shí)違反自己的程序設定。為此,必須確保人工智能系統按照人類(lèi)的意圖行事。

11月份,馬斯克也提出警告,最少只需5年,智能機器可能就會(huì )帶來(lái)極端危險。他認為,人工智能就像“召喚惡魔”。馬斯克在麻省理工學(xué)院發(fā)表演講時(shí),將人工智能描述為人類(lèi)“最大的生存威脅”。他說(shuō):“我認為我們對人工智能應該保持高度警惕。如果讓我猜測人類(lèi)生存的最大威脅,那可能就是人工智能!

--騰訊科技
本文地址:http://selenalain.com/thread-149359-1-1.html     【打印本頁(yè)】

本站部分文章為轉載或網(wǎng)友發(fā)布,目的在于傳遞和分享信息,并不代表本網(wǎng)贊同其觀(guān)點(diǎn)和對其真實(shí)性負責;文章版權歸原作者及原出處所有,如涉及作品內容、版權和其它問(wèn)題,我們將根據著(zhù)作權人的要求,第一時(shí)間更正或刪除。
您需要登錄后才可以發(fā)表評論 登錄 | 立即注冊

相關(guān)視頻

關(guān)于我們  -  服務(wù)條款  -  使用指南  -  站點(diǎn)地圖  -  友情鏈接  -  聯(lián)系我們
電子工程網(wǎng) © 版權所有   京ICP備16069177號 | 京公網(wǎng)安備11010502021702
快速回復 返回頂部 返回列表
午夜高清国产拍精品福利|亚洲色精品88色婷婷七月丁香|91久久精品无码一区|99久久国语露脸精品|动漫卡通亚洲综合专区48页