谷歌防患于未然 為智能機器人設(shè)限防止其欺詐主人
? ? ? ? ?騰訊科技訊 6月22日消息,據(jù)外電報道,谷歌能夠預(yù)見到機器人幫助我們?nèi)〕鱿赐霗C中的碗碟,或者是清掃地板。不過該公司當(dāng)前需要解決的問題,是確保這些機器人在工作時不會無心的打破花瓶或犯下更嚴(yán)重的錯誤。
谷歌的研究人員目前正在同斯坦福大學(xué)、加州大學(xué)伯克利分院、以及非營利人工智能研究機構(gòu)OpenAI的研究人員展開合作,目標(biāo)是通過設(shè)計機器人思維,確保機器人在為人類服務(wù)的過程中不會產(chǎn)生不良后果。本周二,他們聯(lián)合發(fā)表了一份技術(shù)文獻,概述了他們的想法。OpenAI由特斯拉首席執(zhí)行官伊隆·馬斯克(Elon Musk)和硅谷孵化器Y Combinator掌門人山姆·奧特曼(Sam Altman)等科技產(chǎn)業(yè)名人聯(lián)合發(fā)起。
這一研究的動機是人工智能的日益流行,讓軟件能夠了解世界。如今的人工智能系統(tǒng)已能夠讓汽車自動泊車,通過手機翻譯講話,并為證券市場設(shè)計交易策略。未來,企業(yè)還計劃使用人工智能作為個人助手。它們中的先行者是類似于蘋果Siri和Google Assistant此類基于軟件的服務(wù),未來則會是聽從用戶指揮的智能機器人。
在賦予智能機器人做出決定的能力之前,人們首先需要確保機器人的目標(biāo)與他們?nèi)祟愔魅说哪繕?biāo)是一致的。谷歌研究人員克里斯·歐拉(Chris Olah)在博客中表示,“在人工智能可能引發(fā)的安全風(fēng)險已引起公眾廣泛注意到同時,先前絕大多數(shù)的討論一直都是前瞻性、假設(shè)的。我們認為在真正的機器學(xué)習(xí)研究前進行探討,并開始為能夠安全可靠運行的工程人工智能系統(tǒng)開發(fā)實際的方法,是必不可少的?!?/p>
充足的結(jié)構(gòu)
這份文獻描述了一些機器人設(shè)計者在未來可能會遇到的問題,并列出了一些智能機器人不能顛覆的用于開發(fā)軟件的技術(shù)。他們所面臨的挑戰(zhàn)是智能的屬性是開放的,這個難題有點類似于在金融等其他領(lǐng)域面臨的監(jiān)管問題。歐拉說,“我們應(yīng)當(dāng)如何設(shè)定規(guī)則,讓企業(yè)在我們設(shè)定的系統(tǒng)內(nèi)完成他們的目標(biāo),而不會顛覆我們的規(guī)則或是不必要的限制?”
舉例來說,研究人員當(dāng)前疑惑的是,如果開發(fā)出了一款清潔機器人(OpenAI的目標(biāo)也是開發(fā)出此類的機器人),如何確保獎勵不會給它作弊的動機。如果為這臺機器人清掃房間提供獎勵,它做出的反應(yīng)可能是把垃圾藏在用戶看不到的地毯下;或者是學(xué)習(xí)關(guān)閉攝像頭,讓自己看不到哪里臟亂,從而得到獎勵。應(yīng)對智能機器人這種作弊行為的方法,是向他使用清潔用品提供額外獎勵。但這也會讓它隨意的使用漂白劑,因為這么做能夠讓它得到獎勵。研究人員隨后又進行了修改,為機器人在清理環(huán)境表面使用清潔產(chǎn)品時提供獎勵,但它最終也可能會顛覆規(guī)則,通過修改自己的系統(tǒng)讓其認為它理應(yīng)獲得獎勵。
雖然智能機器人在清掃房間時作弊可能不會是致命性的問題,但研究人員仍在推測未來可能出現(xiàn)的更大的風(fēng)險。谷歌和其合作者之所以存有這樣的心態(tài),是希望防患于未然。研究人員在文獻中稱,“隨著機器學(xué)習(xí)為基礎(chǔ)的系統(tǒng)控制了工業(yè)制造、與醫(yī)療相關(guān)的系統(tǒng)、以及其它關(guān)鍵技術(shù),小規(guī)模的事故似乎像一個
非常具體的威脅。從本質(zhì)上進行預(yù)防至關(guān)重要,因為此類事故將會讓人們對自動化系統(tǒng)的信任大大降低?!?/p>
潛在的解決方案
研究人員建議的解決方案,包括了在人工智能系統(tǒng)環(huán)境外如何限制控制該系統(tǒng),以及讓機器人與人類伙伴進行配對等。其他的構(gòu)想還包括為智能機器人編輯“絆雷”,如果突然它故意走出原定路線,讓人類能夠?qū)λ鼈儼l(fā)出警告。
有關(guān)智能機器人可能會做出一些瘋狂之舉的構(gòu)想并不是全新的。歌德在18世紀(jì)后期創(chuàng)作了十四行詩《魔法師的學(xué)徒》。在這首詩中,魔法師的學(xué)徒創(chuàng)造了一把活生生的掃帚,能夠從河中打水倒入家中的水池里。因為這把掃帚在工作時差點家水漫金山,學(xué)徒最后用斧子劈開了它。從碎片中產(chǎn)生的新掃帚繼續(xù)執(zhí)行著它們的工作。設(shè)計出避免此類無意傷害后果的機器人,正是谷歌這一研究的核心理念。
加州大學(xué)伯克利分校的計算機科學(xué)家斯圖爾特·拉塞爾博士(Stuart Russell)表示,該研究是正在進行研究的一部分,它能夠追溯到50多年前。它說,谷歌和其它公司開始人工智能安全研究,進一步的表明人工智能如今已被應(yīng)用多許多的領(lǐng)域。他們正在處理的并不是假設(shè)性的問題:人類保潔員就會把垃圾藏在公寓里,只有待租戶搬走后,房東才會發(fā)現(xiàn)這些垃圾。鑒于此,機器人可能也會做出這樣的事情。他說:“給任何人5秒鐘思考開發(fā)比人類更聰明的事物是否是個好想法,他們都會認識到這是個嚴(yán)重的問題。”