還記得科幻電影《2001:太空漫游》《銀翼殺手》和《終結(jié)者》嗎?在這些電影中,機(jī)器人和計(jì)算機(jī)系統(tǒng)以別樣的形式(“殺手機(jī)器人”)呈現(xiàn)在電影熒幕上,給我們帶來(lái)了全方位的視覺(jué)沖擊。但如今,這種經(jīng)典的科幻場(chǎng)景似乎與現(xiàn)實(shí)相去甚遠(yuǎn)。
現(xiàn)在,我們?cè)絹?lái)越多地使用自主和智能的計(jì)算技術(shù)來(lái)生活、工作和娛樂(lè)。這些系統(tǒng)包括具有獨(dú)立推理和決策能力的軟件和硬件。因此,它們既可以在工廠里為我們工作,也能決定我們是否可以獲得房屋按揭貸款;它們不僅能追蹤并測(cè)量我們的活動(dòng)和健康水平,還能清潔我們的客廳地板,修剪我們的草坪,它們已然成為人們生活中須臾不可缺少的重要部分。
顯然,自主和智能系統(tǒng)已開始影響到我們的社會(huì)、經(jīng)濟(jì)、政治和私人生活的方方面面,包括平凡的日常生活。這其中不可避免地引發(fā)了一個(gè)令人擔(dān)憂的問(wèn)題:計(jì)算技術(shù)影響到每個(gè)人的人權(quán),從生命權(quán)到隱私權(quán)、從言論自由到社會(huì)和經(jīng)濟(jì)權(quán)利。那么,在機(jī)器人技術(shù)和人工智能(AI)日益塑造的技術(shù)領(lǐng)域里,人們?cè)撊绾魏葱l(wèi)人權(quán)呢?
AI軍備競(jìng)賽與人權(quán)
首先,人們真正擔(dān)心的是,機(jī)器自主性的不斷增加會(huì)危害人類的地位。因?yàn)楫?dāng)智能機(jī)器造成危害時(shí),無(wú)論是在法律意義上還是在道德意義上,誰(shuí)將被追究責(zé)任的問(wèn)題還不明確,這無(wú)疑加劇了人們的擔(dān)憂。
雖然還不能確定人們對(duì)人權(quán)問(wèn)題的關(guān)注是否真的與“殺手機(jī)器人”有關(guān),但是將智能機(jī)器投入到軍事戰(zhàn)爭(zhēng)中的確引起了人們的無(wú)限擔(dān)憂。
2017年,美國(guó)空軍四星上將Paul Selva在回答關(guān)于美國(guó)國(guó)防部一道指令的相關(guān)問(wèn)題時(shí),就指出不要給軍隊(duì)配備人類可能無(wú)法控制的自動(dòng)武器系統(tǒng),并主張?jiān)谇‘?dāng)?shù)奈恢镁S持“戰(zhàn)爭(zhēng)道德規(guī)則”。
國(guó)防部這道指令要求,當(dāng)自動(dòng)機(jī)器能夠殺死敵軍士兵時(shí),人類操控者必須介入這一決策過(guò)程。Selva表示,在戰(zhàn)爭(zhēng)中,軍隊(duì)在恰當(dāng)?shù)奈恢脠?jiān)守道德準(zhǔn)則非常重要,否則我們可能會(huì)向同胞放出一群自己都控制不了的機(jī)器人。
表達(dá)過(guò)類似擔(dān)憂的還有SpaceX及特斯拉CEO Elon Musk和已故的著名天體物理學(xué)家Stephen Hawking。他們?cè)谝环夤_信中發(fā)出警告,不要讓武器開發(fā)商使用人工智能。
他們?cè)谛胖袑懙溃?ldquo;發(fā)動(dòng)一場(chǎng)人工智能軍備競(jìng)賽是一個(gè)糟糕的主意,應(yīng)該禁止人類無(wú)法控制的攻擊性自主武器。”
“我們需要主動(dòng)、提前去監(jiān)管,而不是被動(dòng)地去反應(yīng)。在我們需要對(duì)AI的監(jiān)管進(jìn)行反應(yīng)時(shí),已經(jīng)太晚了,”Selva說(shuō)。
不難看出,人們真正應(yīng)該擔(dān)憂的其實(shí)是,人類如何使用機(jī)器人和人工智能,以及它們?cè)诓还筒黄降鹊恼、軍事、?jīng)濟(jì)和社會(huì)背景下的部署。這在致命的自主武器系統(tǒng)(LAWS)方面尤為突出。
LAWS是能夠在沒(méi)有人的情況下,自主完成尋找目標(biāo)、定位、擊殺敵人這一整套工作的AI系統(tǒng)。只要將其派上戰(zhàn)場(chǎng),它們將自主辨別敵人并完成殺戮。這不禁引發(fā)眾人的擔(dān)心:如果LAWS發(fā)生故障失控,或是受到某些人的惡意操縱,可能會(huì)導(dǎo)致無(wú)法控制的災(zāi)難性后果。
很快,一些AI、科學(xué)界領(lǐng)袖加入到反對(duì)研發(fā)LAWS的隊(duì)列中。
今年7月18日,在瑞典斯德哥爾摩舉辦的2018國(guó)際人工智能聯(lián)合會(huì)議上,包括Elon Musk、谷歌DeepMind創(chuàng)始人在內(nèi)的超過(guò)2000名AI學(xué)者共同簽署《致命性自主武器宣言》,宣誓不參與LAWS的開發(fā)、研制工作。這是學(xué)界針對(duì)“殺人機(jī)器人”最大規(guī)模的一次集體發(fā)聲。
在多方呼吁下,各國(guó)政府也開始認(rèn)真考慮LAWS的威脅。2016年12月,在聯(lián)合國(guó)的《常規(guī)武器公約》審議大會(huì)上,LAWS首次被納入討論范圍。不過(guò),正式的LAWS國(guó)際公約誕生仍需時(shí)日。
今年8月,LAWS將再次成為聯(lián)合國(guó)各國(guó)討論的議題。宣言簽署者們希望,他們的行動(dòng)能促進(jìn)立法者頒布正式的國(guó)際協(xié)議。
AI監(jiān)控與人權(quán)
另外,人工智能還徹底改變了戰(zhàn)爭(zhēng)與監(jiān)視行為之間的聯(lián)系。
最近,機(jī)器人軍備控制國(guó)際委員會(huì)(ICRAC)等組織對(duì)谷歌參與軍事項(xiàng)目——“Maven項(xiàng)目”,表示了強(qiáng)烈的反對(duì)。
據(jù)美國(guó)國(guó)防部網(wǎng)站介紹,“Maven項(xiàng)目”于2017年4月由時(shí)任國(guó)防部副部長(zhǎng)鮑勃·沃克發(fā)起,主要是將大數(shù)據(jù)、人工智能和機(jī)器學(xué)習(xí)等人工智能技術(shù)用于軍事用途,首要任務(wù)是研發(fā)整合計(jì)算機(jī)視覺(jué)算法,幫助情報(bào)分析人員將海量全動(dòng)態(tài)視頻數(shù)據(jù)轉(zhuǎn)變成具體作戰(zhàn)所需的情報(bào)和決策建議,更好地利用數(shù)據(jù)支持作戰(zhàn)。
按照美國(guó)國(guó)防部的計(jì)劃,“Maven項(xiàng)目”成立六個(gè)月就可以運(yùn)行。為了滿足該項(xiàng)目的迫切時(shí)間要求,國(guó)防部依靠自身顯然并不足夠。于是,它轉(zhuǎn)而尋求與學(xué)界和業(yè)界的人工智能專家合作,以彌補(bǔ)軍方和硅谷之間的技術(shù)差距。就這樣,谷歌公司成為合作隊(duì)伍中的一員。
然而,今年3月,當(dāng)谷歌公司與“Maven項(xiàng)目”簽署合同的消息爆出之后,超過(guò)3000名谷歌員工于4月初簽署致谷歌首席執(zhí)行官Sundar Pichai的公開信,建議谷歌退出“Maven項(xiàng)目”,信中寫道:“谷歌不應(yīng)該參與戰(zhàn)爭(zhēng)。”
4月19日,就在谷歌員工發(fā)出公開信半個(gè)月之后,來(lái)自谷歌、亞馬遜、微軟和IBM等科技公司的員工又發(fā)布了一封聯(lián)合請(qǐng)?jiān)感,聲明稱科技公司不應(yīng)該參與到與戰(zhàn)爭(zhēng)有關(guān)的商業(yè)中去,因此谷歌應(yīng)該中止與美國(guó)國(guó)防部的合作。
谷歌員工的抗議和多家科技公司員工的請(qǐng)?jiān)赣值玫搅藖?lái)自人工智能學(xué)界、計(jì)算機(jī)學(xué)界和倫理學(xué)界專家學(xué)者的支持。機(jī)器人軍備控制國(guó)際委員會(huì)呼吁谷歌承諾其收集的用戶數(shù)據(jù)不會(huì)用于軍事目的,隨后又加入了谷歌員工對(duì)該公司參與該項(xiàng)目的抗議。如今,迫于內(nèi)外壓力,谷歌公司終于決定于2019年合同到期后,不再續(xù)約。
2013年,Edward Snowden的爆料凸顯了監(jiān)控行為的覆蓋范圍及其深度。這次事件讓人們認(rèn)識(shí)到隱私權(quán)受到的可怕威脅,以及情報(bào)機(jī)構(gòu)、政府機(jī)構(gòu)和私營(yíng)企業(yè)之間肆意的數(shù)據(jù)共享。然而,侵犯人權(quán)的類似事件并未就此停止。
最近,圍繞劍橋分析公司利用Facebook等社交媒體平臺(tái)獲取個(gè)人數(shù)據(jù)的爭(zhēng)議,繼續(xù)引發(fā)嚴(yán)重的擔(dān)憂,而這一次則是由于操縱和干預(yù)民主選舉,從而損害了言論自由的權(quán)利。
與此同時(shí),關(guān)鍵數(shù)據(jù)分析人士質(zhì)疑與人工智能“白人問(wèn)題”(white guy problem)相關(guān)的歧視性做法。因?yàn)樵谟?xùn)練數(shù)據(jù)中,人工智能系統(tǒng)復(fù)制了現(xiàn)有的種族和性別成見,從而使在諸如警察、司法決策或就業(yè)等領(lǐng)域的歧視性做法根深蒂固。
模糊的界限
人工智能對(duì)人權(quán)的種種影響還在日益擴(kuò)大。
2018年2月,26位來(lái)自牛津大學(xué)、劍橋大學(xué)、OpenAI、電子前沿基金會(huì)(一個(gè)非營(yíng)利數(shù)字版權(quán)組織)、新美國(guó)安全中心(一家美國(guó)智庫(kù))等多個(gè)研究機(jī)構(gòu)的研究人員發(fā)布了一份人工智能預(yù)警報(bào)告——《人工智能的惡意使用:預(yù)測(cè)、預(yù)防和緩解》,強(qiáng)調(diào)了計(jì)算技術(shù)對(duì)人權(quán)、物理安全、政治安全和數(shù)字安全的潛在威脅。
該報(bào)告預(yù)測(cè)了未來(lái)十年網(wǎng)絡(luò)犯罪的快速增長(zhǎng)、無(wú)人機(jī)的濫用、使用“機(jī)器人(bots)”操縱從選舉到社交媒體等惡意利用人工智能的場(chǎng)景,號(hào)召政府及企業(yè)重視當(dāng)前人工智能應(yīng)用中的危險(xiǎn)。
但是人們應(yīng)該如何應(yīng)對(duì)這些威脅呢?人權(quán)是否已經(jīng)為機(jī)器人和人工智能時(shí)代做好了準(zhǔn)備?
實(shí)際上,更新當(dāng)今時(shí)代現(xiàn)有人權(quán)原則的努力正在持續(xù)之中。包括《聯(lián)合國(guó)工商業(yè)與人權(quán)的框架和指導(dǎo)原則》在內(nèi)的努力,試圖為數(shù)字時(shí)代和生命的未來(lái)研究所(FLI)制定的“阿西洛馬人工智能原則”(Asilomar AI Principles)撰寫一部《大憲章》,以確定道德研究的準(zhǔn)則,堅(jiān)持價(jià)值觀并致力于人工智能長(zhǎng)期而有益的發(fā)展。
毫無(wú)疑問(wèn),這些努力值得贊揚(yáng),但還遠(yuǎn)遠(yuǎn)不夠。政府及其相關(guān)機(jī)構(gòu)、政黨以及私人公司,尤其是技術(shù)領(lǐng)先的科技公司,必須承諾在合乎道德倫理的情況下謹(jǐn)慎地使用人工智能。此外,還需要有效和可執(zhí)行的立法控制。
當(dāng)然,無(wú)論人們采取什么新措施,重要的是要承認(rèn)我們的生活越來(lái)越多地與自動(dòng)機(jī)器和智能系統(tǒng)緊密“糾纏”在一起。這種“糾纏”在醫(yī)學(xué)研究和治療、交通系統(tǒng)、社會(huì)醫(yī)療保健和保護(hù)環(huán)境的努力等方面增進(jìn)了人類的福祉。
但是在其他領(lǐng)域,這種“糾纏”會(huì)引發(fā)令人擔(dān)憂的前景。計(jì)算技術(shù)用于監(jiān)視和跟蹤人們的動(dòng)作和運(yùn)動(dòng)狀況,追蹤人們的步伐、位置、健康、口味甚至人們的友誼。這一系列塑造了人們的行為并促使人們采取自我監(jiān)督的做法,無(wú)形中削弱了人們的自由,并破壞了人權(quán)的理念。
這就是關(guān)鍵所在:計(jì)算技術(shù)的雙重使用能力模糊了善意與惡意行為之間的界限。更重要的是,計(jì)算技術(shù)與個(gè)體公民、國(guó)家及其機(jī)構(gòu)以及私營(yíng)企業(yè)之間不平等的權(quán)力關(guān)系有著密切而深刻的關(guān)聯(lián)。如果脫離有效的國(guó)家與國(guó)際之間的相互制衡,它們將對(duì)人們的人權(quán)構(gòu)成真正且令人擔(dān)憂的威脅!