來(lái)源:IT之家 埃隆・馬斯克 (Elon Musk) 在早些時(shí)候舉辦的 Abundance 峰會(huì ) “人工智能辯論” 研討會(huì )上表示,即使人工智能技術(shù)有 1/5 的可能性會(huì )對人類(lèi)構成威脅,但其利大于弊,我們仍然值得冒險進(jìn)行研發(fā)。 馬斯克重新評估了之前他對人工智能的風(fēng)險評估,他在研討會(huì )上表示:“我認為人工智能有可能終結人類(lèi)文明。我可能同意 Geoffrey Hinton 的觀(guān)點(diǎn),這個(gè)概率大約是 10% 到 20% 左右!钡a充說(shuō):“我認為積極的可能性場(chǎng)景要大于消極的可能性場(chǎng)景!瘪R斯克并沒(méi)有提到他是如何計算該風(fēng)險的。 IT之家注意到,去年 11 月,馬斯克表示這項技術(shù)失控的可能性 “并非零”,但當時(shí)他并未斷言失控的人工智能會(huì )毀滅人類(lèi)。 盡管馬斯克一直倡導監管人工智能,但去年他創(chuàng )辦了一家名為 xAI 的公司,致力于進(jìn)一步拓展人工智能的強大功能。xAI 是 OpenAI 的競爭對手,OpenAI 是馬斯克與薩姆・阿爾特曼 (Sam Altman) 共同創(chuàng )立的公司,但馬斯克在 2018 年辭去了 OpenAI 董事會(huì )職務(wù)。 在峰會(huì )上,馬斯克估計到 2030 年,數字智能將超過(guò)所有人類(lèi)智能的總和。雖然他仍然堅持潛在的正面影響大于負面影響,但馬斯克用他在公開(kāi)場(chǎng)合使用過(guò)的一些最直接的措辭承認了人工智能繼續按當前軌跡發(fā)展將給世界帶來(lái)的風(fēng)險。 “你培育了一個(gè)人工智能,這幾乎就像養一個(gè)孩子,但它卻是一個(gè)超級天才,一個(gè)神一般的孩子 —— 教養它的方式至關(guān)重要,” 馬斯克在 3 月 19 日的硅谷活動(dòng)上談到人工通用智能時(shí)說(shuō)道,“我認為對人工智能安全來(lái)說(shuō)非常重要的一點(diǎn)是,讓它盡可能地追求真理和保持好奇心! 馬斯克表示,他關(guān)于實(shí)現人工智能安全最佳方式的“最終結論”是讓人工智能以一種迫使其誠實(shí)的方式成長(cháng)。 “不要強迫它撒謊,即使真相令人不快,” 馬斯克談到讓人工智能安全的方式時(shí)說(shuō)道, “這非常重要。不要讓它撒謊! 據《獨立報》報道,研究人員發(fā)現,一旦人工智能學(xué)會(huì )對人類(lèi)撒謊,就無(wú)法使用當前的人工智能安全措施來(lái)扭轉這種欺騙行為。更令人不安的是,研究人員還補充說(shuō),人工智能有可能學(xué)會(huì )自己欺騙,而不是被特意教導撒謊。 |