毋庸置疑,人工智能已成為當(dāng)下全球的關(guān)鍵詞之一,言必談人工智能甚至變成一些行業(yè)領(lǐng)域的時(shí)髦之舉。
人工智能可以下棋、開(kāi)車(chē)和診斷醫(yī)療問(wèn)題。例如,谷歌DeepMind團(tuán)隊(duì)的AlphaGo、特斯拉的自動(dòng)駕駛汽車(chē)以及IBM的沃森等。
這種類(lèi)型的人工智能被稱(chēng)為窄域人工智能(ANI),即能夠執(zhí)行某種特定任務(wù)的非人工系統(tǒng)。我們每天都能遇到這種類(lèi)型的應(yīng)用,并且它的使用正在迅速增長(zhǎng)。
盡管窄域人工智能已經(jīng)展示了許多令人印象深刻的能力,但是隨之而來(lái)的問(wèn)題也日益浮出水面。去年7月,IBM的沃森為癌癥患者提供了不安全的治療建議遭到曝光,惹來(lái)一眾批評(píng)與質(zhì)疑,曾經(jīng)是公眾心目中“人工智能”代名詞的沃森甚至被美國(guó)媒體稱(chēng)為“一無(wú)是處”。
最糟糕的案例發(fā)生在2018年3月18日,一輛正在進(jìn)行自動(dòng)駕駛測(cè)試的沃爾沃XC90與一名行人相撞,行人送往醫(yī)院搶救無(wú)效死亡。這項(xiàng)測(cè)試是由Uber組織,車(chē)輛也由其進(jìn)行了專(zhuān)門(mén)的改裝,事故發(fā)生時(shí),車(chē)輛正處于自動(dòng)駕駛模式開(kāi)啟狀態(tài)。事故發(fā)生后,Uber負(fù)責(zé)人宣布將暫停在舊金山、多倫多等多地的自動(dòng)駕駛測(cè)試項(xiàng)目,而事故仍在調(diào)查中。
下一代人工智能
基于當(dāng)前人工智能引發(fā)的眾多問(wèn)題與質(zhì)疑,人們對(duì)下一代人工智能寄予了極高的期待。
通用人工智能(AGI)將擁有先進(jìn)的計(jì)算能力和人類(lèi)智能。AGI系統(tǒng)將能夠?qū)W習(xí)、解決問(wèn)題、適應(yīng)和自我改進(jìn),它們甚至?xí)龀鲎陨碓O(shè)計(jì)范圍的任務(wù)。
重要的是,它們的進(jìn)步速度可能是指數(shù)級(jí)的,因?yàn)樗鼈儽热祟?lèi)創(chuàng)造者先進(jìn)得多。而且,AGI的引入可以迅速帶來(lái)超級(jí)人工智能(ASI)。
雖然功能完備的AGI系統(tǒng)尚未建立,但幾乎可以肯定的是,它們最終會(huì)實(shí)現(xiàn)。到那時(shí),我們會(huì)不可避免地心生擔(dān)憂,擔(dān)心自己無(wú)法控制它們。
毫無(wú)疑問(wèn),能夠完成各種任務(wù)的AGI系統(tǒng)可以為世界帶來(lái)翻天覆地的變化。其中也包括了一些更強(qiáng)大的應(yīng)用,比如治療疾病,解決諸如氣候變化和糧食安全等復(fù)雜的全球挑戰(zhàn),以及在全球范圍內(nèi)掀起一場(chǎng)技術(shù)熱潮。
這樣的前景無(wú)不讓人向往。但如果不能實(shí)施適當(dāng)?shù)目刂,可能?huì)導(dǎo)致災(zāi)難性的后果,類(lèi)似的場(chǎng)景早已在好萊塢科幻電影里預(yù)先演繹。
事實(shí)上,“我們真正應(yīng)該擔(dān)心的不是人工智能的惡意,而是它的能力。”麻省理工學(xué)院教授Max Tegmark曾在2017年出版的《生活3.0:人工智能時(shí)代的人類(lèi)》一書(shū)中如是指出。
基于此,以人類(lèi)因素和人體工程學(xué)著稱(chēng)的人機(jī)系統(tǒng)的科學(xué)將脫穎而出。不過(guò),我們不能忽視這樣的風(fēng)險(xiǎn),即超級(jí)智能系統(tǒng)將識(shí)別出更有效的做事方式,為實(shí)現(xiàn)目標(biāo)制定自己的策略,甚至制定自己的目標(biāo)。
想象一下這些情況一旦發(fā)生,將會(huì)帶來(lái)怎樣的可怕后果。
情況一:一個(gè)AGI系統(tǒng)的任務(wù)是預(yù)防艾滋病病毒,它決定通過(guò)殺死所有攜帶這種病毒的人來(lái)根除這個(gè)問(wèn)題,或者一個(gè)AGI系統(tǒng)的任務(wù)是治愈癌癥,它決定殺死所有具有這種疾病遺傳易感性的人。
情況二:一架自主的AGI軍用無(wú)人機(jī)決定,確保敵人目標(biāo)被摧毀的唯一方法是消滅整個(gè)地區(qū)。
情況三:致力于環(huán)境保護(hù)的AGI決定減緩或逆轉(zhuǎn)氣候變化的唯一方法是消除導(dǎo)致氣候變化的技術(shù)和人類(lèi)。
這些假想中的場(chǎng)景無(wú)疑讓我們倒吸一口冷氣,其中的這些人工智能系統(tǒng)都沒(méi)有將人類(lèi)的關(guān)注作為它們的核心任務(wù)。
值得注意的是,一些不那么極端但仍具有重大影響的干擾,比如惡意使用AGI進(jìn)行恐怖主義和網(wǎng)絡(luò)攻擊、大規(guī)模監(jiān)控等同樣令人擔(dān)憂。
因此,有必要采用以人為本的方式,對(duì)設(shè)計(jì)和管理AGI的最安全方式進(jìn)行調(diào)查,以最大限度地降低風(fēng)險(xiǎn),并將效益最大化。
控制AGI
控制AGI并不像應(yīng)用同樣的控制方法來(lái)控制人類(lèi)那樣簡(jiǎn)單。
對(duì)人類(lèi)行為的許多控制依賴(lài)于我們的意識(shí)、情感和道德價(jià)值的應(yīng)用。而AGI系統(tǒng)則不需要這些。不過(guò),目前控制AGI的形式顯然是不夠的。
科研人員指出,目前有三組控件需要立即進(jìn)行開(kāi)發(fā)和測(cè)試:一是確保AGI系統(tǒng)的設(shè)計(jì)人員和開(kāi)發(fā)人員創(chuàng)建安全AGI系統(tǒng)所需的控件;二是需要構(gòu)建到AGI系統(tǒng)自身中的控件,如“常識(shí)”、道德、操作流程、決策規(guī)則等等;三是需要添加到AGI將運(yùn)行的更廣泛的系統(tǒng)中的控件,如法規(guī)、操作規(guī)范、標(biāo)準(zhǔn)操作程序、監(jiān)控系統(tǒng)和基礎(chǔ)設(shè)施。
在AGI系統(tǒng)出現(xiàn)之前,人類(lèi)因素和人體工程學(xué)提供了可以用來(lái)識(shí)別、設(shè)計(jì)和測(cè)試這些控件的方法。例如,可以對(duì)特定系統(tǒng)中存在的控件進(jìn)行建模,對(duì)該控制結(jié)構(gòu)中AGI系統(tǒng)的可能行為進(jìn)行建模,并識(shí)別安全風(fēng)險(xiǎn)。這將讓我們得以識(shí)別哪些地方需要新的控制,設(shè)計(jì)它們,然后重新建模,以查看是否因此消除了風(fēng)險(xiǎn)。
此外,我們的認(rèn)知和決策模型可以用來(lái)確保AGI系統(tǒng)行為表現(xiàn)得當(dāng),并具有人文價(jià)值。
實(shí)際上,這類(lèi)研究正在進(jìn)行中,但還遠(yuǎn)遠(yuǎn)不夠,涉及的學(xué)科也不夠。
就連備受矚目的科技企業(yè)家Elon Musk也對(duì)人類(lèi)面臨著來(lái)自高級(jí)人工智能的“生存危機(jī)”發(fā)出了警告,并表示有必要在一切還來(lái)得及之前對(duì)人工智能進(jìn)行監(jiān)管。
眼下,球在人類(lèi)這邊,但并不會(huì)持續(xù)太久。對(duì)人工智能而言,未來(lái)十年左右將是一個(gè)關(guān)鍵期。人類(lèi)有機(jī)會(huì)創(chuàng)建安全高效的AGI系統(tǒng),為社會(huì)和人類(lèi)帶來(lái)深遠(yuǎn)的利益!