“機(jī)器人”越來越能干,并已進(jìn)入人們的生活。法新社18日說,2008年,全球共出售550萬臺機(jī)器人,估計(jì)今后兩年銷量將翻一番,達(dá)到1150萬臺。
19日,英國謝菲爾德大學(xué)教授、人工智能專家諾埃爾·夏基在美國《科學(xué)》雜志上發(fā)表《機(jī)器人的道德前沿》一文,呼吁各國政府應(yīng)該盡快聯(lián)手出臺機(jī)器人道德規(guī)范。
-機(jī)器人保姆
給你貼心服務(wù)的保姆
如今,機(jī)器人在家政、護(hù)理、醫(yī)療等方面的作用越來越大。
英國《每日電訊報(bào)》10日報(bào)道,33歲的加拿大人勒忠,設(shè)計(jì)制造了一個叫“愛子”的“機(jī)器人女友”,可以照顧家庭、24小時不休息地干家務(wù),照料主人生活的各方面,還能與主人的朋友交流。
在日本、韓國等一些國家和地區(qū),機(jī)器人被用于充當(dāng)人類日常生活的幫手,至少有14家公司已經(jīng)可以提供“機(jī)器人保姆”服務(wù)。這些機(jī)器人,會認(rèn)人,會和孩童玩耍,替老人解悶,甚至?xí)皨故臁钡亟o老年人或殘疾人喂飯。
在中國香港中文大學(xué)醫(yī)學(xué)院,有機(jī)器人會給人做微創(chuàng)技術(shù)的手術(shù)。韓國政府的一份最新報(bào)告預(yù)測,機(jī)器人在2018年將可以為病人施行普通手術(shù)。
這些保姆是有危險(xiǎn)的
目前機(jī)器人的價(jià)格,比1990年已下降了近80%。韓國科學(xué)家預(yù)測,到2015年至2020年,每個韓國家庭將擁有一個機(jī)器人。有專家估計(jì),到2020年日本將有25%的人口年齡超過65歲,護(hù)理型機(jī)器人將供不應(yīng)求。
但諾埃爾·夏基認(rèn)為這些“保姆”會威脅到主人。
他在《機(jī)器人的道德前沿》一文中說,機(jī)器人進(jìn)入人類家庭,給一些“較虛弱的群體”帶來很大的威脅,如老人和孩童。這很危險(xiǎn),可能會出現(xiàn)道德危機(jī)。
很多父母因?yàn)槊?,可能選擇“機(jī)器人保姆”來照顧孩子。問題是,如果一個孩子長期與機(jī)器人接觸,缺乏父母的情感呵護(hù)和悉心照顧,可能會變得“冷漠、麻木,與社會接觸少,有被隔離的感覺”。
夏基在猴子身上做過實(shí)驗(yàn)。結(jié)果發(fā)現(xiàn),被機(jī)器人照顧長大的幼猴,“無法與其他同類交流或交配”。
夏基的擔(dān)心是多方面的。比如,人類對機(jī)器人的長時間使用;機(jī)器人出現(xiàn)問題時可能出現(xiàn)對它的“毆打”,或者破壞零件;對機(jī)器人產(chǎn)生情感依賴時對它的軟件改寫與破壞等等。
有這種擔(dān)心的不僅夏基一個人。韓國信息通訊部機(jī)器人研發(fā)小組負(fù)責(zé)人說:“一些人可能對與機(jī)器人交談感興趣,甚至還會上癮,就像很多人對上網(wǎng)上癮一樣?!?/p>
-機(jī)器人道德規(guī)范
擔(dān)心的倫理道德問題
夏基針對的實(shí)際上是制造和使用機(jī)器人的人。他認(rèn)為,像影片《我是機(jī)器人》和《終結(jié)者》中出現(xiàn)人類與機(jī)器人對峙的局面,現(xiàn)實(shí)生活中不一定會發(fā)生。
他說:“我不認(rèn)為機(jī)器人會控制人類。它們只是電腦零件組裝的機(jī)器而已,并沒有思維。只有科幻電影才會這么寫。”
夏基擔(dān)心的是人類在使用機(jī)器人時遇到的倫理道德問題。他強(qiáng)烈建議,各國政府聯(lián)手制定一套道德規(guī)范,而不是“各自為陣,互不通氣”。
他說,如果各國政府不盡快出臺機(jī)器人道德規(guī)范,那么老人和孩童的安全得不到保證,他們的生活,可能只能由機(jī)器人制造商和忙碌的父母掌握。
“不能等到機(jī)器人已經(jīng)開始大規(guī)模使用,才后悔,這應(yīng)該在機(jī)器人批量生產(chǎn)前,就出臺規(guī)范機(jī)器人的行為,給他們規(guī)范道德守則?!?/p>
機(jī)器人三原則
其實(shí)人們早就提出過機(jī)器人道德規(guī)范問題。
1940年,美國科幻作家伊薩克·阿西莫夫提出著名的“機(jī)器人三原則”:
一、“機(jī)器人不得危害人類”;
二、“必須服從人類的命令”;
三、“在不違反第一條和第二條的情況下必須保護(hù)自己”。
日本為了保護(hù)人類在使用機(jī)器人過程中不被傷害,起草過一份60多頁的文件,名為《下一代機(jī)器人安全問題指導(dǎo)方針(草案)》,起草的是包括企業(yè)界人士、科學(xué)家、政府官員以及律師在內(nèi)的一個專業(yè)團(tuán)隊(duì)。
文件說:“生產(chǎn)廠家必須在機(jī)器人身上裝上足夠多的傳感器,防止失足撞上人類;機(jī)器人應(yīng)該使用更軟、更輕的材料,從而減少對人類的可能傷害;在機(jī)器人身上裝按鈕,一旦機(jī)器人發(fā)狂,人類可以通過觸按這些按鈕及時將它們馴服,各種與機(jī)器人有關(guān)的法規(guī)已經(jīng)出現(xiàn)?!?/p>
韓國也起草過《機(jī)器人道德憲章》,主要內(nèi)容是:確保人類對機(jī)器人的控制、保護(hù)機(jī)器人獲得的數(shù)據(jù),并防止違法使用機(jī)器人,并準(zhǔn)備將道德標(biāo)準(zhǔn)裝入計(jì)算機(jī)程序,以防止人類虐待機(jī)器人。
這些文件,從某種意義上來說,是對阿西莫夫“機(jī)器人三原則”的細(xì)化。
打造有道德的軍事機(jī)器人?
鑒于軍事機(jī)器人的特殊性,韓國起草文件時,將軍事機(jī)器人排除在外。
上月底英國《每日電訊報(bào)》報(bào)道,美國國防部斥巨資開發(fā)戰(zhàn)爭機(jī)器人時,雇用了道德規(guī)范領(lǐng)域的英國專家,協(xié)助研制不會違反《日內(nèi)瓦公約》的新型戰(zhàn)爭機(jī)器人。這種機(jī)器人能夠自主辨別何時、向誰開槍,能夠識別救護(hù)車和平民。
不過夏基教授說:“聽到這個設(shè)想我不禁打了個寒戰(zhàn)。我已經(jīng)在人工智能領(lǐng)域工作多年,但讓機(jī)器人來決定人類的終結(jié),這種想法太可怕了?!?br />
在這篇文章中,小編將為大家?guī)碥嚶?lián)網(wǎng)的相關(guān)報(bào)道。如果你對本文即將要講解的內(nèi)容存在一定興趣,不妨繼續(xù)往下閱讀哦。
關(guān)鍵字: 車聯(lián)網(wǎng) 傳感器 智能終端Semtech LoRa?設(shè)備和LoRaWAN?通訊協(xié)議助力實(shí)現(xiàn)更及時、高效、智能的智慧校園室內(nèi)空氣質(zhì)量監(jiān)測。
關(guān)鍵字: 物聯(lián)網(wǎng) 人工智能