作者:記者 倪偉波綜合報(bào)道 來(lái)源: 發(fā)布時(shí)間:2018-3-8 14:0:17
人工智能的信任危機(jī)

 
隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展與成熟,人工智能(AI)正逐步從尖端技術(shù)變得普及。自語(yǔ)音識(shí)別、視覺(jué)識(shí)別、機(jī)器學(xué)習(xí)等相關(guān)技術(shù)相繼走出實(shí)驗(yàn)室,人工智能在金融、零售、醫(yī)療、汽車等多個(gè)領(lǐng)域落地應(yīng)用。
 
當(dāng)然,人工智能的本領(lǐng)并不限于此,它還能夠預(yù)測(cè)未來(lái)。比方說(shuō),警方正在利用它來(lái)預(yù)判犯罪可能的發(fā)生的時(shí)間和地點(diǎn);醫(yī)生則可以用它來(lái)預(yù)測(cè)病人什么時(shí)候最有可能發(fā)作心臟病或者中風(fēng);研究人員甚至試圖賦予人工智能想象的能力,期待其能規(guī)劃出人類意想不到的結(jié)果。
 
其實(shí),我們生活中的許多決定都需要事先預(yù)測(cè)才能做出,而隨著技術(shù)的發(fā)展,人工智能的預(yù)測(cè)能力幾乎總是比人類優(yōu)秀。然而,盡管在技術(shù)上前進(jìn)了一大步,但是人們似乎仍然對(duì)人工智能的預(yù)測(cè)缺乏信心。最近有研究表明,人們不喜歡依賴人工智能,而更傾向于相信人類專家,即使這些專家的預(yù)測(cè)是錯(cuò)誤的。
 
如果想讓人工智能真正造福人類,那就必須找到一種方法讓人們相信它。為此,我們首先要弄懂為什么人們不愿意相信人工智能。
 
AI醫(yī)生
 
毫無(wú)疑問(wèn),IBM公司的超級(jí)計(jì)算機(jī)Watson是人工智能界的明星,并被認(rèn)為潛力無(wú)限。
 
2013年,Watson與世界頂級(jí)癌癥研究機(jī)構(gòu)MD安德森癌癥中心合作,打算通過(guò)“使用IBM Watson認(rèn)知計(jì)算系統(tǒng)消滅癌癥”項(xiàng)目讓W(xué)atson變身成為“癌癥醫(yī)生”。然而事與愿違,這次合作最終以失敗收?qǐng)觥?/font>
 
Watson承諾將提供治療12種癌癥(包括乳腺癌、直腸癌、結(jié)腸癌、胃癌、宮頸癌等)的高質(zhì)量咨詢服務(wù),這些癌癥占世界病例總數(shù)的80%。截至目前,全世界已有超過(guò)1.4萬(wàn)名患者接受了基于其計(jì)算結(jié)果提供的治療意見(jiàn)。
 
“我們現(xiàn)在可以看到很多真實(shí)的案例,患者們告訴我們‘聽了Watson的建議我現(xiàn)在感覺(jué)舒服多了’。他們的這番話讓我感覺(jué)從事這項(xiàng)事業(yè)是非常值得的,因?yàn)樗诮o患者和醫(yī)生帶去更好的體驗(yàn)。”IBM全球Watson健康總經(jīng)理Deborah DiSanzo表示。
 
聽了這樣的描述,你或許對(duì)Watson充滿期待。然而根據(jù)美國(guó)醫(yī)學(xué)媒體STAT對(duì)Watson在世界各地醫(yī)院提供的服務(wù)的調(diào)查顯示,超級(jí)計(jì)算機(jī)并沒(méi)有達(dá)到IBM對(duì)它的期望,它仍在努力學(xué)習(xí)不同形式的癌癥治療的基本步驟。
 
兩難境地
 
不僅如此,當(dāng)醫(yī)生們第一次與Watson互動(dòng)時(shí),他們發(fā)現(xiàn)自己陷入了一個(gè)兩難之境。
 
一方面,如果Watson提供了與他們一致的治療指導(dǎo)意見(jiàn),那么醫(yī)生們便無(wú)法看出Watson的建議有多大的價(jià)值。因?yàn)槌?jí)計(jì)算機(jī)只是簡(jiǎn)單地重復(fù)醫(yī)生已經(jīng)知道的東西,這些建議并沒(méi)有改變實(shí)際的治療方案。但換一個(gè)角度思考,這也許讓醫(yī)生對(duì)自己的判斷更有信心。
 
另一方面,如果Watson提出的建議與專家的意見(jiàn)相矛盾,那么醫(yī)生們通常會(huì)得出結(jié)論:Watson無(wú)法勝任。當(dāng)然,機(jī)器無(wú)法解釋為什么它的治療方案是合理的,因?yàn)樗臋C(jī)器學(xué)習(xí)算法太過(guò)復(fù)雜,無(wú)法被人類完全理解。這樣的結(jié)果導(dǎo)致了更多的不信任和懷疑,也使許多醫(yī)生選擇忽視人工智能提出的建議,堅(jiān)持自己的判斷。
 
如今,MD安德森癌癥中心已宣布暫停與IBM Watson針對(duì)腫瘤治療推出的“Watson for Oncology”項(xiàng)目。當(dāng)然,中止與人工智能合作的并非這一家。從一份來(lái)自丹麥的未發(fā)表調(diào)查中可以看到,人機(jī)診斷的一致度只有大約33%——所以醫(yī)院決定不購(gòu)買這套系統(tǒng)。
 
實(shí)際上,Watson的問(wèn)題在于醫(yī)生根本不相信它。人類的信任通常是建立在對(duì)他人如何思考及其可靠性的理解之上,這有助于營(yíng)造一種安全的心理感受。另一方面,人工智能對(duì)大多數(shù)人來(lái)說(shuō)仍然是相當(dāng)新穎且陌生的,它使用復(fù)雜的分析系統(tǒng)進(jìn)行決策,以識(shí)別潛在的隱藏模式和來(lái)自大量數(shù)據(jù)的“微弱信號(hào)”。
 
即使可以從技術(shù)上進(jìn)行解釋(事實(shí)并非總是如此),對(duì)于大多數(shù)人而言,人工智能的決策過(guò)程通常是難以理解的。而人們與其不理解的事物進(jìn)行互動(dòng),往往會(huì)產(chǎn)生焦慮,并讓人有失控的感覺(jué)。當(dāng)然,很多人也不太熟悉人工智能實(shí)際工作的諸多案例,畢竟它經(jīng)常在后臺(tái)運(yùn)作。
 
相反,人們對(duì)人工智能的出錯(cuò)卻很“敏感”。比如,堪稱人工智能和機(jī)器學(xué)習(xí)領(lǐng)域的領(lǐng)導(dǎo)廠商——谷歌發(fā)布的“Photos”應(yīng)用曾犯下只看顏色不看臉的錯(cuò)誤,誤將兩位黑人用戶照片標(biāo)記為“大猩猩”;微軟推出的名為“Tay”的人工智能機(jī)器人在上線不到一天的時(shí)間里就成為了“種族主義者”;而一輛特斯拉汽車在自動(dòng)駕駛模式下與一輛卡車相撞,導(dǎo)致了一場(chǎng)致命的意外事故發(fā)生……
 
這些不幸的案例受到了媒體的大量關(guān)注,進(jìn)一步突出了“我們不能依賴科技”這樣一種訊息。機(jī)器學(xué)習(xí)并不是萬(wàn)無(wú)一失的,畢竟設(shè)計(jì)它的人也會(huì)犯錯(cuò)。
 
人工智能鴻溝
 
科研人員曾經(jīng)做過(guò)這樣的一個(gè)測(cè)試:讓來(lái)自不同背景的人觀看關(guān)于人工智能的各種科幻電影,然后詢問(wèn)他們關(guān)于日常生活中自動(dòng)化的問(wèn)題。
 
結(jié)果研究人員發(fā)現(xiàn),不管他們觀看的電影描繪人工智能的方式是積極的還是消極的,只要看到的是對(duì)技術(shù)未來(lái)的展望,就會(huì)讓受試者產(chǎn)生兩極分化的態(tài)度:樂(lè)觀主義者對(duì)人工智能的熱情會(huì)變得更加極端,而懷疑者則變得更加謹(jǐn)慎。
 
這表明人們是以一種帶有偏見(jiàn)的方式使用有關(guān)人工智能的相關(guān)證據(jù)來(lái)支持他們現(xiàn)有的態(tài)度的。事實(shí)上,這是一種根深蒂固的傾向,又被稱為“驗(yàn)證性偏見(jiàn)”。
 
隨著有關(guān)人工智能的報(bào)道越來(lái)越多,它可能會(huì)引發(fā)嚴(yán)重的社會(huì)分化——即在那些受益于人工智能和拒絕人工智能的人之間產(chǎn)生分歧。更有針對(duì)性的是,拒絕接受人工智能帶來(lái)的好處,可能會(huì)讓一大群人處于嚴(yán)重的不利地位。
 
幸運(yùn)的是,關(guān)于如何提高人們對(duì)人工智能的信任度,研究人員已經(jīng)有了一些想法。正如在研究中發(fā)現(xiàn)的那樣,簡(jiǎn)單地使用人工智能就能顯著改善人們對(duì)這項(xiàng)技術(shù)的態(tài)度。這就正如互聯(lián)網(wǎng)甫一出現(xiàn)時(shí),人們同樣秉持懷疑與謹(jǐn)慎的態(tài)度,然而隨著互聯(lián)網(wǎng)的日益普及,人們便逐漸毫無(wú)戒心地使用并信任它們。
 
另一種解決方案可能是打開機(jī)器學(xué)習(xí)算法的“黑匣子”,更加透明地展示人工智能是如何工作的。目前,谷歌、推特等公司已經(jīng)發(fā)布了政府要求提供的數(shù)據(jù)請(qǐng)求和監(jiān)控信息透明度報(bào)告,類似做法可以幫助人們更好地理解人工智能基于算法所作出的各種決策。
 
研究表明,讓人們更多地參與人工智能的決策過(guò)程也可以提高人們的信任度,并能讓人工智能學(xué)習(xí)人類的經(jīng)驗(yàn)。例如,一項(xiàng)研究表明,人們可以自由地稍微修改一種算法,這樣做可以使他們對(duì)自己的決定更為滿意,更有可能相信它更優(yōu)越,并且更有可能在未來(lái)使用它!
 
《科學(xué)新聞》 (科學(xué)新聞2018年2月刊 AI)
發(fā)E-mail給:      
| 打印 | 評(píng)論 |