機器人發(fā)展或令人類(lèi)感到恐怖:我們依賴(lài)它愛(ài)它

發(fā)布時(shí)間:2010-2-25 14:33    發(fā)布者:嵌入式公社
關(guān)鍵詞: 發(fā)展 , 機器人 , 恐怖 , 人類(lèi)
自從機器人第一次出現在科幻小說(shuō)中,人類(lèi)就開(kāi)始擔心機器人會(huì )舉行“起義”。但是今天,專(zhuān)家提醒人們的是一個(gè)更不易察覺(jué)的的威脅:我們可能會(huì )過(guò)于喜歡(或依賴(lài))與他們生活在一起。

要感受到機器人帶來(lái)的驚駭并不需要很多的硬件設備。我們不需要戴著(zhù)虛擬現實(shí)的護目鏡或鑲嵌著(zhù)許多電極的無(wú)邊便帽,也不需要大量的電纜或可植入人的大腦象頭發(fā)那樣細的納米線(xiàn)。僅憑機器人那雙警惕的不斷閃爍的眼睛就足以做到。

媒體實(shí)驗室(Media Lab)

該實(shí)驗室座落在馬薩諸塞州劍橋園麻省理工學(xué)院校園內,其中屬于個(gè)人機器人小組的實(shí)驗室看起來(lái)更像一個(gè)十幾歲男孩的臥室,到處是纏在一起的電纜,已放了一段時(shí)間的比薩餅盒子和不知是被拆開(kāi)的玩具還是被肢解的機器人。在一堆雜物中,一個(gè)5英尺高、有三個(gè)輪子的仿人機器人啟動(dòng)并開(kāi)始環(huán)顧房間四周。它確實(shí)是在看,它的大大的深藍色的眼睛轉到那邊,它的白色的、玩具娃娃似的大頭就跟著(zhù)轉向那邊,而且不時(shí)停下來(lái),好象在打量著(zhù)每個(gè)研究人員。它的名字叫奈克西 (Nexi),它的一雙眼睛閃爍著(zhù)。對視著(zhù)它就象對視著(zhù)新生兒的眼睛,激發(fā)起人們本能的愛(ài),讓人們心里忍不住想問(wèn):“你想要什么?你需要什么?”很少有人能以一種無(wú)動(dòng)于衷的態(tài)度與它接觸。

“現在它做的動(dòng)作是環(huán)顧四周,這是一個(gè)非;镜膭(dòng)作!睂(shí)驗室的研究人員馬特·柏林說(shuō),“我認為它很高興,因為它有一張臉,可以觀(guān)察外面!痹诹硗庖粋(gè)實(shí)驗室里,另一種類(lèi)型的仿人形機器人動(dòng)作的目標比較具體:從房間的一邊走到另一邊,保證不會(huì )摔倒,找到指定的彩球,并輕而快地踢它一下。 而奈克西的功能更具有深遠的意義,它是社交機器人。它的唯一目的是與人類(lèi)互動(dòng),它的使命是被人類(lèi)接受。

這是一個(gè)任何具有真正自我意識的機器人可能會(huì )拒絕的使命。為了得到廣泛的接受,可能意味著(zhù)與人類(lèi)幾十年形成的對機器人的恐懼和厭惡作斗爭。機器人的這種壞名聲范圍很廣,從機器人最終不可避免地對人類(lèi)宣戰的末日預言到那種認為人形機器人將永遠是絕對令人不安的和不宜相處的同伴的信念。

至于奈克西,可以說(shuō)是人機交互技術(shù)研究(the human–robot interaction ,HRI)領(lǐng)域中的一顆最耀眼的明星,但在出名的同時(shí),也引起了恐懼。在YouTube上有一段奈克西的視頻,已有數千人點(diǎn)擊觀(guān)看。在這段視頻中,奈克西靠輪子移動(dòng)進(jìn)入視野,緩慢地轉向鏡頭,用令人愉快的完美的女性聲音介紹自己。如果這段視頻的目的是讓奈克西得到大家的喜歡,那就適得其反了。它的眼睛大而富有表現力,臉龐長(cháng)得幼稚可愛(ài),但這一切都有點(diǎn)不正常,就象是一個(gè)玩具娃娃偽裝成一個(gè)巨型的小孩;蛘,對于存在主義者來(lái)說(shuō),更令人深感不安的是:一個(gè)具有真正情感的機器人,它能夠愛(ài)你,也同樣能夠輕視你。結果,觀(guān)眾稱(chēng)它的表現為“毛骨悚然”。

但是機器人的辯護者反對這樣的評價(jià)。認為人機交互技術(shù)的未來(lái)是光明的。老年人沒(méi)有辦法拒絕那些輕言細語(yǔ)、眼睛眨動(dòng)的并與他們朝夕相處的護士機器人遞來(lái)的藥物。毫無(wú)疑問(wèn)兒童會(huì )愛(ài)上日托機器人,即使機器人有時(shí)沒(méi)有安慰他們,也有時(shí)會(huì )因軟件錯誤或電池組的故障而沒(méi)法作出反應。把今天面無(wú)表情的 Roombas機器人變成明天的積極主動(dòng)的機器人伙伴,社交機器人只需要以奈克西為榜樣,開(kāi)發(fā)利用強大的、甚至無(wú)法控制的人類(lèi)本能。

這就是為什么奈克西的金屬手臂和雙手以小幅的、逼真的動(dòng)作左右移動(dòng)。這就是為什么奈克西在尋找面孔,似乎用眼睛在看你。當它的眼睛隨著(zhù)小型發(fā)動(dòng)機嗡嗡的叫聲再次閃爍,你會(huì )不由自主地對它微笑。你會(huì )把它當作與你一樣的一個(gè)具有社會(huì )性的生物。即使 奈克西沒(méi)有說(shuō)一句話(huà),你已經(jīng)想成為它的朋友。

事實(shí)證明,即使你知道使你感到驚駭的是機器人,并不能使你更容易對它產(chǎn)生抵制。也許這才是社交機器人真正的危險。雖然人類(lèi)已經(jīng)對惡意計算機和橡膠肌肉體作出種種猜測,機器人專(zhuān)家可能已經(jīng)制造了一個(gè)更真實(shí)的威脅。當面對實(shí)際機器人,人們可能變得過(guò)于依戀。就像人與人間的關(guān)系,這種依戀可能充滿(mǎn)著(zhù)陷阱:一個(gè)老奶奶會(huì )如何想,例如,當她的機器人同伴被送去的升級,然后回來(lái)時(shí)是一個(gè)完全陌生的機器人?

機器人曾令人感到害怕:擔心它會(huì )消滅人類(lèi)

當一臺機器人可以輕易地按下我們進(jìn)化的按鈕,適時(shí)地眨動(dòng)其人工眼瞼就能解除我們內心深處的保留意見(jiàn),也許這種擔心根本不是愚蠢的反應。也許我們只是害怕這種本不該出現的東西。

機器人在它們存在之前就開(kāi)始讓我們感到害怕。1921年,捷克的科幻劇作《羅素姆萬(wàn)能機器人》(Rossum’s Universal Robots)中同時(shí)首次引進(jìn)“機器人”一詞和機器人大災難的威脅。在劇中第一幕發(fā)表的宣言中,作為廉價(jià)的、可支配勞動(dòng)者而制造的機器人使他們的意圖很清楚:“全世界的機器人,我們責成你要消滅人類(lèi)。不要留下一個(gè)男人。不要留下一個(gè)婦女!毙皭簷C器人的起源可以追溯到更遠,但《羅素姆萬(wàn)能機器人》創(chuàng )造的那種惡魔般的機器人類(lèi)型在上世紀四、五十年代的科幻小說(shuō)中風(fēng)行一時(shí),而這時(shí)對機器人的實(shí)際研究還沒(méi)有開(kāi)始。事實(shí)上,《我,機器人》(I,Robot)的作者艾薩克·阿西莫夫在創(chuàng )造了 “機器人學(xué)(robotics)”一詞的同時(shí),他開(kāi)始在他的短篇小說(shuō)中建立機器人的規范和道德準則。

在1984年的電影《終結者》中,阿諾德·施瓦辛格扮演的人型機械人T – 800對警察局進(jìn)行了大屠殺,終結者,這個(gè)機器人叛亂者,已經(jīng)成為流行文化中最根深蒂固的陳詞濫調之一。這部電影已經(jīng)成為一種特定恐懼的符號:即人工智能(AI)將成為太聰明、太沉迷于自我保護。終結者影響了我們對機器人、人工智能甚至正在發(fā)展的機器人戰爭的認識。其中,美國海軍研究所正研究將來(lái)是否需要對軍事機器人制定道德規范,并在2008年一份初步研究報告中提出最凄慘的結局:“象《終結者》中的情景,機器人反過(guò)來(lái)對付我們處于劣勢的人類(lèi)!

但據加州州立理工大學(xué)哲學(xué)助理教授兼美國海軍學(xué)院倫理學(xué)研究員帕特里克·林的觀(guān)點(diǎn),對機器人道德規范的需要不僅限于戰場(chǎng)!芭c軍事機器人相比,社會(huì )機器人對一般人可能構成的更大威脅!彼f(shuō)!半m然它們沒(méi)有武器,但我們會(huì )很快地與它們面對面!

這當然也正是記者努力報道的言論。媒體向來(lái)是大肆渲染具有自我組織能力的人工智的可能的危險,以及武裝機器人射殺平民的前景。但是,機器人可能構成的真正威脅與《終結者》的情景無(wú)關(guān),因為即使與最笨的武裝叛亂分子相比,機器人的大腦實(shí)際上也是死的。

以奈克西為例,奈克西被認為是世界上最先進(jìn)的社交機器人之一,但它僅僅能理解最基本的聲音指令,F在它正處于半退休狀態(tài),它的電機已搖搖欲墜。麻省理工學(xué)院為它的另一個(gè)機器人里奧納多(Leonardo)開(kāi)發(fā)了新的行為軟件。里奧納多是一個(gè)毛茸茸的、長(cháng)著(zhù)大耳朵的機器人,它可以向人類(lèi)學(xué)習,如判斷那些方塊可以拼成一幅指定的拼圖,或那些填充玩具是“好的”,哪些它應該感到害怕。這是一種讓我們感到震動(dòng)的機器人類(lèi)型:這種機器人能聽(tīng)懂我們說(shuō)話(huà)的內容,并知道我們告訴它應該喜歡的或害怕的東西。奈克西已裝上與萊昂納一樣的軟件,麻省理工學(xué)院的柏林(Berlin)說(shuō):“也許不用一年,奈克西將能和你交談,雖然交談可能很乏味!

社交機器人帶來(lái)機器人的技術(shù)飛躍

如果漢森機器人(Hanson Robotics)公司的創(chuàng )始人大衛·漢森一切進(jìn)展順利,在今年年底,這家總部設在德克薩斯州的公司的最新社會(huì )機器人芝諾(Zeno)可能在說(shuō)話(huà)能力上超過(guò)奈克西。這種23英寸高的機器人售價(jià)為2500美元,可以說(shuō)是物超所值,不僅因為它的硬件,而是因為裝在其卡通造型的頭部里的軟件!斑@種智能軟件可以使芝諾認識到在一個(gè)房間里有多人!睗h森說(shuō),“它建立了一種有關(guān)“你是誰(shuí),你喜歡什么,你說(shuō)了什么”的思維模式,F在我們已經(jīng)達到這種程度,它可以進(jìn)行一次自由回答的、不限主題的交談!睗h森計劃在2011年或2012年推出一種售價(jià)為250美元的大眾市場(chǎng)版的機器人,它具有與芝諾相同的臉部和聲音識別能力。他的目標是為研究人員提供一個(gè)功能強大的試驗平臺,同時(shí)還利用人工智能算法,生產(chǎn)一種機器人玩具,可以與人實(shí)實(shí)在在的玩耍15分鐘以上。

但是就奈克西和芝諾的社交技能和艱苦仿真的情感生活來(lái)說(shuō),機器人是本能的,而不會(huì )反省。跟蹤軟件發(fā)現,人說(shuō)出一個(gè)關(guān)鍵詞,然后引發(fā)了機器人預設的反應,而當你離開(kāi)房間,他們不會(huì )想你去那里,剛才的談話(huà)是幫助還是傷害你,或者如何擺脫你的控制!耙斯ぶ悄茏鞒鲎匀唤缫饬x上的預測是非常困難,”英國雷丁大學(xué)控制論教授凱文·沃里克(Kevin Warwick)說(shuō),“機器人能夠考慮各種可能性事件,但它甚至不能領(lǐng)先一步考慮到它作的決定會(huì )產(chǎn)生的后果!

還有,當然,研究人員預見(jiàn)計算神經(jīng)科學(xué)上的快速進(jìn)展將不可避免的導致“強大的人工智能(strong AI)”,這種人工智能不是在谷歌搜索框里完成你的句子,而是模仿人類(lèi)思維。IBM公司的藍色大腦計劃(Blue Brain Project)就是其中之一,它的目標是可能最快在2019年制造出虛擬大腦,這使災難預言家們更喋喋不休。不過(guò),沒(méi)有一個(gè)能描繪我們自己的預感或道德感的神經(jīng)網(wǎng)絡(luò )圖,要能夠創(chuàng )造出一個(gè)真正有權力欲或邪惡的機器人仍是遙遙無(wú)期?紤]它們就有點(diǎn)象辯論缺乏管制的超距傳輸(teleportation)上的倫理隱患。沒(méi)有人建造企業(yè)(Enterprise)號太空飛船,為什么要擔心斯科蒂(Scotty,《星際旅行:企業(yè)號》中的角色)會(huì )喝醉?yè)芴柕侥愕募抑校?br />
機器人不會(huì )很快大批起義。奈克西不會(huì )發(fā)送電子郵件給芝諾,傳播來(lái)自于《羅素姆萬(wàn)能機器人》中的 “消滅所有人類(lèi)”的信息。這則信息也不會(huì )在全世界的Roombas 機器人、鐵血戰士和和“裝配線(xiàn)焊接機”中傳播的。這是一個(gè)幻想,或者充其量是下一個(gè)世紀討論的話(huà)題。就象很多機器人擔心,這有可能淹沒(méi)一個(gè)更理性產(chǎn)生于現實(shí)的辯論,這個(gè)現實(shí)就是幾乎每個(gè)機器人都是在法律和道德的縫隙中降臨的!叭绻粋(gè)孤獨癥患者控訴一個(gè)機器人,并試圖毀滅它,機器人應如何應對?”帕特里克·林問(wèn),她正計劃制定社交醫療機器人道德規范。

“難道把它關(guān)閉?這是一個(gè)昂貴的設備——它應該擋回去?”當機器人大規模地出現,我們是否已準備好它們同時(shí)可能造成的對人身體和心理上的損害?

當我們的眼睛盯著(zhù)一個(gè)我們認為具有自主性的機器人——它能根據自身的意志移動(dòng)、行動(dòng)和工作——我們的鏡像神經(jīng)元(mirror neuron)會(huì )被激發(fā)。當我們看到其他動(dòng)物在走動(dòng)時(shí),同樣是這些神經(jīng)細胞在活動(dòng),神經(jīng)學(xué)家懷疑它們與學(xué)習有關(guān),這種學(xué)習通過(guò)模仿的方式。鏡像神經(jīng)元才不管是一個(gè)蠟像,還是一個(gè)遙控靶機。具有自主性的機器人激發(fā)這些神經(jīng)元,欺騙人的大腦把一個(gè)機械設備當作活的東西。

然而,就像人與機器人互動(dòng)的許多方面,這種全面影響尚不清楚?苹米骷铱赡芑艘粋(gè)半世紀的從理論上說(shuō)明人與機器人生活的長(cháng)期影響,但科學(xué)研究只是剛剛開(kāi)始。雖然人機交互技術(shù)的領(lǐng)域正在做有關(guān)的數據收集工作和探究其原則,要得出堅實(shí)的結論還是不可能的,或者至少是不負責任的。就以這些鏡像神經(jīng)元為例,神經(jīng)科學(xué)家可以看到它們的運動(dòng),但是這些神經(jīng)元的確切目仍然在爭論中。

有關(guān)大腦對機器人的神秘反應的另一個(gè)更經(jīng)常被引用的的例子是通常被稱(chēng)為“詭異谷(the uncanny valley)”的假說(shuō),換一種說(shuō)法。就是“機器人令人毛骨悚然”!霸幃惞取崩碚撌窃1970由日本著(zhù)名機器人專(zhuān)家森政弘(Masahiro Mori)在一篇論文中提出的,“詭異谷”描繪了一個(gè)圖表,顯示人類(lèi)對人形機器人感覺(jué)比較熟悉且可能比較舒適。直到這個(gè)機器人變得與人類(lèi)太相像,引發(fā)與看到死亡或不健康的人時(shí)會(huì )產(chǎn)生的同樣的心理警報;在這一點(diǎn),圖表直線(xiàn)下降,然后會(huì )再次上升,與看到一個(gè)真人的反應一樣,或者從理論上講,一個(gè)完美的機器人。這是否是我們“戰斗或逃跑”本能的一種變形,或者是一種更復雜的東西,森政弘的用很重要——“詭異谷”不是赤裸裸的恐懼,而是一種混雜著(zhù)熟悉和恐懼、吸引和排斥的情感。這是一個(gè)認知失調的時(shí)刻,原因是大腦不能一時(shí)反應不過(guò)來(lái),就像人遇到了會(huì )說(shuō)話(huà)的圣誕樹(shù)或一具發(fā)笑的尸體。

以學(xué)術(shù)標準,這是令人回味、令人興奮的東西,它描述的似乎是一種普遍現象。奈克西令人不安的YouTube視頻,看起來(lái)就是活生生的例子,并且奈克西還有大量令人感到不安的同伴。日本制造的社交機器人CB2(Child-robot with Biomimetic Body,兒童仿生機器人)具有真實(shí)感很強的眼睛,兒童的身材比例和灰色皮膚,幾乎所有的博客和記者都認為對它感到恐懼。而另一個(gè)日本機器人科比安(KOBIAN),具有豐富的臉部表情、突出的眉毛,一對寶石紅的完整的嘴唇。它也被立即被西方媒體打上“毛骨悚然”的標記。這些社交機器人的設計者原本是想避免“詭異谷”效應——亞洲實(shí)驗室堆滿(mǎn)了逼真的機器人,都深陷于森政弘永恒的“詭異谷”中。

但正如經(jīng)嚴格分析,《終結者》的情景并不可能出現,“詭異谷“理論也并非完美無(wú)暇。如果僅僅憑那些YouTube上的機器人的視頻,你會(huì )以為當你真的見(jiàn)到奈克西時(shí),會(huì )讓你毛發(fā)豎起。但實(shí)際上大多數人見(jiàn)到奈克西,都會(huì )喜歡上它。柏林介紹說(shuō):“我們做了一些非常實(shí)際的事情,使我們的機器人不會(huì )那么可怕!蹦慰宋鞒晒Φ拿卦E,很明顯對于其它機器人來(lái)說(shuō)也不是很難做到。這個(gè)秘決在于一本書(shū)名為《迪斯尼動(dòng)畫(huà)原則》的略微有點(diǎn)破損的精裝書(shū),這是個(gè)人機器人小組人員的必讀書(shū)目。柏林說(shuō):“我們是創(chuàng )造現實(shí)中的動(dòng)畫(huà)人物!毕裨S多動(dòng)畫(huà)人物,奈克西的外表和動(dòng)作是對人類(lèi)的進(jìn)行了夸大。當它伸手去拿一個(gè)物體時(shí),它的手臂不是非常精確地直直地伸向目標。它會(huì )浪費時(shí)間和資源,所先調整好其眼睛、頭部和身體,然后手慢騰騰地以弧形運動(dòng)的方式伸向目標。奈克西在物理上是低效的,但確深諳社會(huì )學(xué)。

機器人小組是如何做到這一點(diǎn)的?在與數百名人群互動(dòng)中,包括大波士頓區三個(gè)老人中心的居民,研究人員聲稱(chēng),沒(méi)有人尖叫著(zhù)逃離奈克西。恰恰相反:許多老年人試圖與這個(gè)機器人握手,或擁抱它。至少有1人還吻了它!八赃@種非常社交化的方式與人們互動(dòng),所以人們以人際交往的方式與其交往,把它視為一個(gè)社會(huì )個(gè)體,而不是把它當作一個(gè)機械。個(gè)人機器小組的主管辛西婭·布雷西亞(Cynthia Breazeal)說(shuō)!霸谀慰宋鞯难芯恐,我們已經(jīng)顯示,如果你讓機器人以已知的加強信任和了解的方式表現和移動(dòng),人們就會(huì )以同樣的方式進(jìn)行反應。你在按下同樣的按鈕!

這一原則也被證明同樣適用于CB2和科比安。這兩個(gè)項目的研究負責人稱(chēng),網(wǎng)絡(luò )和媒體上對他們機器人的擔憂(yōu)在現實(shí)中從來(lái)沒(méi)有出現,根據大阪大學(xué)教授溙镲?∕inoru Asada)教授的說(shuō)法,實(shí)際中每個(gè)人見(jiàn)到CB2都喜歡它,除了一位泰國公主。一家日本報社組織一群老年人訪(fǎng)問(wèn)科比安。他們“非常高興和感動(dòng)! 早稻田大學(xué)機械工程教授高西(Atsuo Takanishi)說(shuō),“好像機器人真的有感情!

即使“詭異谷”的曲線(xiàn)最終變得更為平滑,這很容易通過(guò)與機器人的接觸來(lái)實(shí)現,奈克西和其它機器人的成功提出了一個(gè)更深刻的問(wèn)題:為什么我們會(huì )在本能上如此討厭機器人?

“事實(shí)證明,人類(lèi)在精神上很容易產(chǎn)生依賴(lài)性。我們特別渴望交往!甭槭±砉W(xué)院技術(shù)與人格研究項目主管謝里·特克爾說(shuō),“難道我們真的想對此加以利用?”特克爾對人與機器人之間能夠形成的強有力的關(guān)系進(jìn)行了研究,例如帕羅(Paro),是日本研制的安撫型機器人,這是一只非?蓯(ài)的機器小海豹,它會(huì )在你的懷里耍嬌,被撫摸時(shí)會(huì )發(fā)出咕咕的叫聲,通過(guò)吮吸一個(gè)帶電線(xiàn)的安撫奶嘴對它充電。她還記錄了帕羅的智力甚至是情感,這些來(lái)自于與帕羅一起玩的小朋友的報告。這個(gè)安撫型機器人,充其量不過(guò)是一只電子填充動(dòng)物玩具,但它對老年人的影響進(jìn)一步引起了特克爾的關(guān)注!罢埜嬖V我一下,為什么我需要一個(gè)機器人嬰兒保姆?”特克爾問(wèn)道:“我們怎樣回答孩子這個(gè)問(wèn)題?我們怎樣回答老年人這個(gè)問(wèn)題?我們正在忙于發(fā)電子郵件而沒(méi)時(shí)間去照顧那些需要照顧的人?”

在特克爾這樣的研究人員看來(lái),社交機器人的廣泛使用不可避免地存在風(fēng)險。當一些分析家估計到2015年將出現一個(gè)150億美元的個(gè)人機器人市場(chǎng),對情感機器人(expressive machines)的需求預計將更驚人。特克爾辯論的核心——本質(zhì)上是呼吁謹慎行事——是害怕將人類(lèi)交往完全托付于機器人。更令人值得警惕的是機器人可能陪伴的對象,從人手不足的學(xué)校的兒童,到患有老年癡呆癥的老人。用大量的機器人來(lái)監督青少年和看護老人,與雇用數千名教師和同住護工相比,可能在費用上要節省許多。但是第一代在機器人作為權威人物和朋友之下長(cháng)大的青少年會(huì )怎樣處理不可預知的人際間的關(guān)系?沒(méi)有更多的數據,一個(gè)本意良好的應對人力短缺的方法就會(huì )變成用發(fā)放新的和未經(jīng)考驗的抗抑郁藥來(lái)解決倫理和法律范圍內的問(wèn)題。

一個(gè)可行的辦法是讓人重新處于主動(dòng)地位,而把社交機器人作為木偶來(lái)使用。麻省理工學(xué)院個(gè)人機器人小組的另一個(gè)機器人 Huggable是一個(gè)泰迪玩具熊機器人,它的動(dòng)作可以通過(guò)網(wǎng)絡(luò )瀏覽器來(lái)控制。研究人員計劃用它來(lái)安慰住院兒童,家庭成員或醫生將對它進(jìn)行遙控操作。它實(shí)際上有一個(gè)泰迪玩具熊的骨架,而原來(lái)泰迪玩具熊毛茸茸的皮毛,被一個(gè)布滿(mǎn)壓力和觸摸感應器的表皮取代。用一操作的電腦上有一個(gè)簡(jiǎn)單的命令菜單,可以命令其抬起或放一手臂,或者轉動(dòng)其頭部。Huggable上面的攝影機可以將周?chē)那樾蝹魉偷诫娔X上,讓操作者進(jìn)行觀(guān)察。

目前Huggable并沒(méi)有自己的個(gè)性。它是一個(gè)高科技的傳聲器,傳送操縱者的聲音,而不是一個(gè)完全的社交機器人。在最近發(fā)表的一份研究報告,描述了日本機器人玩具的“父母”模式的危險和用機器人作保姆的誘惑。英國謝菲爾德大學(xué)機器人技術(shù)和人工智能教授諾埃爾·夏基把Huggable的缺乏自主性作為其賣(mài)點(diǎn)!斑@樣的機器人,沒(méi)有引起對具有自主性的機器人提供的專(zhuān)有的或接近專(zhuān)有的護理那樣的道德上的關(guān)注!彼c合著(zhù)者寫(xiě)道。 半自主性的機器人可能不會(huì )減少支出,但它比起社交機器人可能更為安全。

人類(lèi)是否要為機器人制定道德規范?

人類(lèi)對機器人一直存在的恐懼感尚未消除,現在又增加了夏基和特克爾的悲觀(guān)論調。然而,幾乎每個(gè)研究員都同意這樣一個(gè)觀(guān)點(diǎn):我們需要為機器人制定道德規范,我們現在就需要它們。并不是因為機器人缺乏道德指南,而是因為它們的創(chuàng )造者現在是在道德和法律真空中操作!爱斠粋(gè)橋梁倒下,我們有一套早已準備好的大致分攤責任的指導方針!辈剪斀鹚箤W(xué)會(huì )的高級研究員和《網(wǎng)絡(luò )戰爭》的作者P.W. 辛格說(shuō),“現在我們有一個(gè)等同于橋梁的東西,它可以在全世界站立、移動(dòng)和運行,但當它倒下來(lái)時(shí),我們沒(méi)有辦法搞清楚誰(shuí)應該對此負責任!

比起充滿(mǎn)了猜測和缺少試驗數據的辯論,一套高明的道德準則可能更能起保險作用!拔谊P(guān)心的并不是機器人明顯令人討厭的因素,而是如果這個(gè)機器人出錯呢?”克里斯·埃利奧特(Chris Elliott)說(shuō),他是一個(gè)系統工程師和審判律師,最近促成了英國皇家科學(xué)院起草一份關(guān)于自治系統的報告,“這是人們將會(huì )犯錯的地方!鄙踔良词股缃粰C器人大規模的心理影響機器人結果是零,埃利奧特擔心一步出錯以及相應的反彈,可能會(huì )使數年的進(jìn)步反轉。想象一下近年有關(guān)的媒體報道,首次出現病人被一個(gè)機器人外科醫生殺死,一輛自動(dòng)駕駛的汽車(chē)迎頭撞上一輛校車(chē),及機器人有板有眼地與老年癡呆癥患者扭打的視頻。埃利奧特說(shuō):“法律是遠遠落后的。因為法律的不確定性,我們將達到這樣的地步,我們會(huì )害怕部署新的有益的機器人!

這些準則的確切性質(zhì)仍然是一個(gè)猜測。有一個(gè)觀(guān)點(diǎn)是每個(gè)機器人類(lèi)或模型只限定于一個(gè)特定的任務(wù)——機器人護士可以訪(fǎng)問(wèn)與一定年齡范圍的病人,或者老年人看護機器人可以提防危險的摔跤,但是不能私下里談話(huà)和讓人依偎。從長(cháng)遠來(lái)看,大衛·漢森認為應明確規定智能機器人與人合作的程序,所以當機器人能自我發(fā)展,具有他所謂的“智慧”后,能保證它們不傷害我們。辛西婭·布雷齊爾的立場(chǎng)更強硬:“現在絕對是作出決定的時(shí)候!彼f(shuō),“在這些機器人與脆弱人群接觸前,人類(lèi)應該進(jìn)行一次認真的對話(huà)!

哲學(xué)家、倫理學(xué)家、律師和機器人專(zhuān)家也僅僅是開(kāi)始了豐富阿西莫夫的早期機器人倫理規則的艱苦工作。同時(shí),如果有一種方法化解我們對機器人長(cháng)期的、不合理的恐懼和阻止任何勒德分子強烈反對的風(fēng)險,就可能要依靠象奈克西這樣的機器人。

譯自美《大眾科學(xué)》
本文地址:http://selenalain.com/thread-8510-1-1.html     【打印本頁(yè)】

本站部分文章為轉載或網(wǎng)友發(fā)布,目的在于傳遞和分享信息,并不代表本網(wǎng)贊同其觀(guān)點(diǎn)和對其真實(shí)性負責;文章版權歸原作者及原出處所有,如涉及作品內容、版權和其它問(wèn)題,我們將根據著(zhù)作權人的要求,第一時(shí)間更正或刪除。
您需要登錄后才可以發(fā)表評論 登錄 | 立即注冊

相關(guān)視頻

關(guān)于我們  -  服務(wù)條款  -  使用指南  -  站點(diǎn)地圖  -  友情鏈接  -  聯(lián)系我們
電子工程網(wǎng) © 版權所有   京ICP備16069177號 | 京公網(wǎng)安備11010502021702
快速回復 返回頂部 返回列表
午夜高清国产拍精品福利|亚洲色精品88色婷婷七月丁香|91久久精品无码一区|99久久国语露脸精品|动漫卡通亚洲综合专区48页