91儀器信息使用人工智能的算法正在嘗試以意想不到的技巧來解決問題,這讓它們的開發(fā)者感到驚訝。但與此同時,這也引發(fā)了人們對如何控制人工智能的擔(dān)憂。
當(dāng)人工智能在設(shè)備中被放任自流時,很可能就會發(fā)生這樣的事情。與傳統(tǒng)的計算機(jī)程序不同,人工智能的設(shè)計目的就是探索和開發(fā)新的方法,以完成人類工程師沒有明確告訴它們的任務(wù)。
然而,在學(xué)習(xí)如何完成這些任務(wù)的同時,人工智能有時會想出一種極富創(chuàng)造力的方法,甚至?xí)屢恢笔褂眠@種系統(tǒng)的人大吃一驚。這可能是一件好事,但同時也可能使人工智能控制的一切變得不可預(yù)測,甚至可能帶來危險。例如,機(jī)器人和自動駕駛汽車最終可能做出將人類置于危險境地的決定。
人工智能系統(tǒng)怎么可能“智勝”它的人類主人呢?我們能否以某種方式約束機(jī)器智能,以確保不致某些不可預(yù)見的災(zāi)難?
在人工智能研究界,有一個關(guān)于人工智能創(chuàng)造力的例子似乎被引用得最多。真正讓人們對人工智能的能力感到興奮的時刻,是DeepMind的人工智能機(jī)器學(xué)習(xí)系統(tǒng)AlphaGo如何掌握圍棋這一古老的游戲,然后擊敗了世界上優(yōu)秀的人類棋手之一。DeepMind是一家創(chuàng)立于2010年的人工智能公司,在2014年被谷歌收購。
事實證明,它們可以用一些以往從未有人用過——或者至少很多人不知道——的新策略或新技巧,來對付人類棋手。
我們需要記住的重要一點是,人工智能并不真正像人類那樣思考。它們的神經(jīng)網(wǎng)絡(luò)確實是受到了動物大腦的啟發(fā),但更確切地說,它們是所謂的“探索設(shè)備”。當(dāng)它們試圖解決一個任務(wù)或問題時,并不會帶有很多(如果有的話)對更廣闊世界的先入之見。它們只是嘗試——有時是數(shù)百萬次——去找到一個解決方案。
我們?nèi)祟愑泻芏嗨枷肷系陌ぃ覀儠紤]規(guī)則,人工智能系統(tǒng)甚至不理解規(guī)則,因此它們可以隨意地?fù)芘挛铩?br /> 人工智能讓我們感到驚奇的方式之一,是它們能夠使用相同的基本系統(tǒng)來解決根本不同的問題。最近,一款機(jī)器學(xué)習(xí)工具就被要求執(zhí)行一項非常不同的功能:下國際象棋。
該系統(tǒng)被稱為“GPT-2”,由非營利的人工智能研究組織OpenAI開發(fā)。GPT-2利用數(shù)以百萬計的在線新聞文章和網(wǎng)頁信息進(jìn)行訓(xùn)練,可以根據(jù)句子中前面的單詞預(yù)測下一個單詞。開發(fā)者肖恩·普萊瑟認(rèn)為,國際象棋的走法可以用字母和數(shù)字的組合來表示,因此如果根據(jù)國際象棋比賽的記錄來訓(xùn)練算法,這一工具就可以通過計算理想的走法序列來學(xué)習(xí)如何下棋。
長期以來,人工智能給人們留下的深刻印象主要來自電子游戲領(lǐng)域。在人工智能研究界,有無數(shù)例子揭示了算法在虛擬環(huán)境中所做到的事情有多么令人驚訝。研究者經(jīng)常在諸如電子游戲等空間中對算法進(jìn)行測試和磨練,以了解它們到底有多強(qiáng)大。
2019年,OpenAI因為一段視頻登上了新聞頭條。視頻中,一個由機(jī)器學(xué)習(xí)控制的角色正在玩捉迷藏游戲。令研究人員驚訝的是,游戲中的“尋找者”最終發(fā)現(xiàn),它們可以跳到物品上方進(jìn)行“沖浪”,從而進(jìn)入“躲藏者”所在的圍欄。換言之,“尋找者”學(xué)會了為了自己的利益而改變游戲規(guī)則。
研究人員發(fā)現(xiàn),當(dāng)人工智能系統(tǒng)在特殊條件下接受測試時,這種目標(biāo)導(dǎo)向的偏見會暴露出來。在最近的一項實驗中,被要求在銀行進(jìn)行投資的游戲人工智能角色會跑到虛擬銀行大廳附近的一個角落,等待獲得投資回報,這個算法已經(jīng)學(xué)會了將跑到拐角處與獲得金錢回報聯(lián)系起來,盡管這種運動與得到多少回報之間并沒有實際的關(guān)系。
這有點像人工智能在發(fā)展迷信,在得到了某種獎勵或懲罰之后,它們開始思考為什么會得到這些。
這是“強(qiáng)化學(xué)習(xí)”的陷阱之一。所謂“強(qiáng)化學(xué)習(xí)”,是指人工智能最終會根據(jù)它在環(huán)境中遇到的情況設(shè)計出判斷錯誤的策略。人工智能不知道自己為什么會成功,它只能將自己的行動建立習(xí)得聯(lián)想的基礎(chǔ)上。這有點像人類文化早期階段時,將祈禱儀式與天氣變化聯(lián)系起來的行為。
測試的游戲人工智能與心理學(xué)家所使用的活體動物之間有著巨大的差異,但其中起作用的似乎是相同的基本機(jī)制,即獎勵與特定行為錯誤地聯(lián)系在一起。
使用人工智能的產(chǎn)品,比如自動駕駛汽車,可以經(jīng)過嚴(yán)格測試,以確保任何不可預(yù)測性都在一定的可接受范圍內(nèi)。在這一點上,只有時間才能證明所有銷售人工智能產(chǎn)品的公司是否都如此小心謹(jǐn)慎。但與此同時,值得注意的是,人工智能表現(xiàn)出的意外行為絕不僅僅局限于研究環(huán)境,而是已經(jīng)進(jìn)入了商業(yè)產(chǎn)品領(lǐng)域。
人工智能的探索性是其未來成功的基礎(chǔ)。隨著我們不斷擴(kuò)展這些人工智能系統(tǒng)的規(guī)模,可以看到,它們正在做著一些富有創(chuàng)造性且令人印象深刻的事情,而不只是表現(xiàn)出學(xué)術(shù)上的好奇心。
如果人工智能系統(tǒng)能找到更好的方法來診斷疾病,或者向有需要的人群運送緊急物資,它們就可以挽救更多的生命。人工智能有能力找到解決老問題的新方法。但開發(fā)這類系統(tǒng)的人需要對其不可預(yù)測的本質(zhì)保持開放和誠實,以幫助公眾了解人工智能的工作機(jī)制。
人工智能的承諾和威脅一直同時存在,它們接下來會想到什么?這是耐人尋味的問題。
資料來源:新浪科技、百科
當(dāng)人工智能在設(shè)備中被放任自流時,很可能就會發(fā)生這樣的事情。與傳統(tǒng)的計算機(jī)程序不同,人工智能的設(shè)計目的就是探索和開發(fā)新的方法,以完成人類工程師沒有明確告訴它們的任務(wù)。
然而,在學(xué)習(xí)如何完成這些任務(wù)的同時,人工智能有時會想出一種極富創(chuàng)造力的方法,甚至?xí)屢恢笔褂眠@種系統(tǒng)的人大吃一驚。這可能是一件好事,但同時也可能使人工智能控制的一切變得不可預(yù)測,甚至可能帶來危險。例如,機(jī)器人和自動駕駛汽車最終可能做出將人類置于危險境地的決定。
人工智能系統(tǒng)怎么可能“智勝”它的人類主人呢?我們能否以某種方式約束機(jī)器智能,以確保不致某些不可預(yù)見的災(zāi)難?
在人工智能研究界,有一個關(guān)于人工智能創(chuàng)造力的例子似乎被引用得最多。真正讓人們對人工智能的能力感到興奮的時刻,是DeepMind的人工智能機(jī)器學(xué)習(xí)系統(tǒng)AlphaGo如何掌握圍棋這一古老的游戲,然后擊敗了世界上優(yōu)秀的人類棋手之一。DeepMind是一家創(chuàng)立于2010年的人工智能公司,在2014年被谷歌收購。
事實證明,它們可以用一些以往從未有人用過——或者至少很多人不知道——的新策略或新技巧,來對付人類棋手。
我們需要記住的重要一點是,人工智能并不真正像人類那樣思考。它們的神經(jīng)網(wǎng)絡(luò)確實是受到了動物大腦的啟發(fā),但更確切地說,它們是所謂的“探索設(shè)備”。當(dāng)它們試圖解決一個任務(wù)或問題時,并不會帶有很多(如果有的話)對更廣闊世界的先入之見。它們只是嘗試——有時是數(shù)百萬次——去找到一個解決方案。
我們?nèi)祟愑泻芏嗨枷肷系陌ぃ覀儠紤]規(guī)則,人工智能系統(tǒng)甚至不理解規(guī)則,因此它們可以隨意地?fù)芘挛铩?br /> 人工智能讓我們感到驚奇的方式之一,是它們能夠使用相同的基本系統(tǒng)來解決根本不同的問題。最近,一款機(jī)器學(xué)習(xí)工具就被要求執(zhí)行一項非常不同的功能:下國際象棋。
該系統(tǒng)被稱為“GPT-2”,由非營利的人工智能研究組織OpenAI開發(fā)。GPT-2利用數(shù)以百萬計的在線新聞文章和網(wǎng)頁信息進(jìn)行訓(xùn)練,可以根據(jù)句子中前面的單詞預(yù)測下一個單詞。開發(fā)者肖恩·普萊瑟認(rèn)為,國際象棋的走法可以用字母和數(shù)字的組合來表示,因此如果根據(jù)國際象棋比賽的記錄來訓(xùn)練算法,這一工具就可以通過計算理想的走法序列來學(xué)習(xí)如何下棋。
長期以來,人工智能給人們留下的深刻印象主要來自電子游戲領(lǐng)域。在人工智能研究界,有無數(shù)例子揭示了算法在虛擬環(huán)境中所做到的事情有多么令人驚訝。研究者經(jīng)常在諸如電子游戲等空間中對算法進(jìn)行測試和磨練,以了解它們到底有多強(qiáng)大。
2019年,OpenAI因為一段視頻登上了新聞頭條。視頻中,一個由機(jī)器學(xué)習(xí)控制的角色正在玩捉迷藏游戲。令研究人員驚訝的是,游戲中的“尋找者”最終發(fā)現(xiàn),它們可以跳到物品上方進(jìn)行“沖浪”,從而進(jìn)入“躲藏者”所在的圍欄。換言之,“尋找者”學(xué)會了為了自己的利益而改變游戲規(guī)則。
研究人員發(fā)現(xiàn),當(dāng)人工智能系統(tǒng)在特殊條件下接受測試時,這種目標(biāo)導(dǎo)向的偏見會暴露出來。在最近的一項實驗中,被要求在銀行進(jìn)行投資的游戲人工智能角色會跑到虛擬銀行大廳附近的一個角落,等待獲得投資回報,這個算法已經(jīng)學(xué)會了將跑到拐角處與獲得金錢回報聯(lián)系起來,盡管這種運動與得到多少回報之間并沒有實際的關(guān)系。
這有點像人工智能在發(fā)展迷信,在得到了某種獎勵或懲罰之后,它們開始思考為什么會得到這些。
這是“強(qiáng)化學(xué)習(xí)”的陷阱之一。所謂“強(qiáng)化學(xué)習(xí)”,是指人工智能最終會根據(jù)它在環(huán)境中遇到的情況設(shè)計出判斷錯誤的策略。人工智能不知道自己為什么會成功,它只能將自己的行動建立習(xí)得聯(lián)想的基礎(chǔ)上。這有點像人類文化早期階段時,將祈禱儀式與天氣變化聯(lián)系起來的行為。
測試的游戲人工智能與心理學(xué)家所使用的活體動物之間有著巨大的差異,但其中起作用的似乎是相同的基本機(jī)制,即獎勵與特定行為錯誤地聯(lián)系在一起。
使用人工智能的產(chǎn)品,比如自動駕駛汽車,可以經(jīng)過嚴(yán)格測試,以確保任何不可預(yù)測性都在一定的可接受范圍內(nèi)。在這一點上,只有時間才能證明所有銷售人工智能產(chǎn)品的公司是否都如此小心謹(jǐn)慎。但與此同時,值得注意的是,人工智能表現(xiàn)出的意外行為絕不僅僅局限于研究環(huán)境,而是已經(jīng)進(jìn)入了商業(yè)產(chǎn)品領(lǐng)域。
人工智能的探索性是其未來成功的基礎(chǔ)。隨著我們不斷擴(kuò)展這些人工智能系統(tǒng)的規(guī)模,可以看到,它們正在做著一些富有創(chuàng)造性且令人印象深刻的事情,而不只是表現(xiàn)出學(xué)術(shù)上的好奇心。
如果人工智能系統(tǒng)能找到更好的方法來診斷疾病,或者向有需要的人群運送緊急物資,它們就可以挽救更多的生命。人工智能有能力找到解決老問題的新方法。但開發(fā)這類系統(tǒng)的人需要對其不可預(yù)測的本質(zhì)保持開放和誠實,以幫助公眾了解人工智能的工作機(jī)制。
人工智能的承諾和威脅一直同時存在,它們接下來會想到什么?這是耐人尋味的問題。
資料來源:新浪科技、百科