作者:周彧綜合報道 來源: 發(fā)布時間:2018-7-3 11:42:43
| ||||
隨著互聯(lián)網(wǎng)技術的飛速發(fā)展,社交媒體顛覆了傳統(tǒng)紙媒在新聞傳播中無可取代的地位,成為當下新聞分享的主要平臺。
據(jù)美國皮尤研究中心的報告統(tǒng)計,約有62%的美國人從社交媒體上獲取新聞。盡管新聞與消息的來源獲得了無限的放大,但是當讀者在閱讀、分享這些新聞信息時,很難辨識這些內(nèi)容的真假。
在2016年美國大選中,不同利益集團相互指責和控訴對方制造和傳播虛假信息的事件至今仍讓人記憶猶新。梳理美國大選背后的假新聞甚至可以發(fā)現(xiàn),制造、傳播虛假新聞已成為一條“灰色”產(chǎn)業(yè)鏈。
皮尤研究中心曾做過調(diào)查,約24%的受訪者承認曾轉發(fā)過社交媒體上的假新聞,約82%的人認為自己經(jīng)常在網(wǎng)絡上看到虛假消息,約64%的人覺得虛假新聞已擾亂了社會的基本秩序。
確實,網(wǎng)絡虛假新聞比真實新聞傳播得更快、更廣。比如,與擁有準確醫(yī)療內(nèi)容的帖子相比,那些關于虛假醫(yī)療信息的網(wǎng)絡帖子常常能獲得更多的閱讀量和評論。在一個觀眾關注度有限、內(nèi)容選擇飽和的網(wǎng)絡世界里,虛假信息似乎對觀眾更有吸引力或更吸引人。
而且這一問題正變得越來越嚴重:到2022年,發(fā)達經(jīng)濟體的人們可能會遇到比真實信息更多的虛假新聞。這可能會導致一種被研究者稱之為“現(xiàn)實眩暈”的現(xiàn)象——在這種現(xiàn)象中,電腦可以產(chǎn)生如此令人信服的內(nèi)容,以至于普通人可能很難弄清楚什么才是真實的。
怎樣才能讓人類逃脫虛假新聞的陷阱呢?如今,借助人工智能新技術,或許能幫助人類走出黑暗。
檢測謊言
機器學習算法是人工智能的一種類型。其涉及概率論、統(tǒng)計學、算法復雜度理論等多門學科。幾十年來,通過分析信息的文本并確定某條特定信息是來自真實的個人交流,或者是大規(guī)模分發(fā)的藥品招標,抑或是遺失已久的財產(chǎn)索賠的可能性,機器學習算法已經(jīng)取得了成功。
在過濾垃圾郵件中,基于文本分析,人工智能系統(tǒng)可以評估一個帖子的文本或標題與某人在網(wǎng)上共享文章的實際內(nèi)容的對比情況。同時,借助人工智能系統(tǒng),可以檢查類似的文章,看看其他新聞媒體是否有不同的事實。類似的人工智能系統(tǒng)還可以識別出散布虛假新聞的特定賬戶和源網(wǎng)站。
不過,這些方法的使用基于這樣的假設,即傳播假新聞的人不會改變他們的方式。然而事實是,他們經(jīng)常改變策略,操縱虛假帖子的內(nèi)容,以使其看起來更真實,更可信。
當然,信息的上下文也很關鍵。詞語的含義會隨著時間的變化而改變。而且同樣的詞在自由網(wǎng)站和保守網(wǎng)站上也可能具有不同的含義。例如,在一個更自由的網(wǎng)站上,一個帶有“維基解密(WikiLeaks)”和“民主黨全國委員會(DNC)”字樣的帖子更有可能是新聞,而在一個保守的網(wǎng)站上,這樣的帖子則可能另有它意?梢,利用人工智能檢測虛假新聞仍面臨很多挑戰(zhàn)。
盡管如此,目前已有不少網(wǎng)絡公司加入到新聞打假行動中。社交網(wǎng)站Facebook正在調(diào)整其算法,以消除其新聞傳播中的虛假新聞。谷歌與事實檢查網(wǎng)站開展合作,到目前為止,取得的結果還參差不齊。2016年,由AI團體的志愿者舉辦的“虛假新聞挑戰(zhàn)賽”,旨在鼓勵開發(fā)有助于打擊惡意報道的工具。
利用人工智能造假
然而,利用人工智能檢測虛假新聞的最大挑戰(zhàn)在于,人工智能打假遇上人工智能造假。
2017年12月,一段出自國外Reddit論壇的視頻迅速躥紅網(wǎng)絡。視頻中的藝人的臉其實是人工智能技術輔助合成的,但是看起來幾乎毫無破綻。在該視頻中,一種稱之為“deepfakes”的技術的運用充分證明了機器學習系統(tǒng)令人驚嘆的創(chuàng)造能力。所謂deepfakes,簡單來說就是一種人臉交換技術,即在圖像或視頻中把一張臉替換成另一張臉。
通過人工智能新技術,不僅人臉可以實現(xiàn)“移花接木”,口型也可以實現(xiàn)輕松對應。
2017年7月,華盛頓大學的研究人員利用人工智能技術,制作了一段時長1分55秒的美國前總統(tǒng)奧巴馬演講的假視頻,其圖像和聲音都達到以假亂真的水平。研究團隊設計了一個人工智能程序,讓其分析互聯(lián)網(wǎng)上奧巴馬的各種音頻和視頻,經(jīng)過17個小時的“自主學習”后,人工智能就能通過奧巴馬的聲音,判斷出對應的面部細節(jié),從而模擬出匹配的數(shù)字圖像。
新技術的突破讓眾人驚嘆的同時,引起了人們對該技術的恐懼和擔憂。比方說,“換臉術”“對口型”會給很多無辜清白的公眾人物造成困擾;“假視頻”會加劇虛假新聞的散播,從而大大降低視頻作為證據(jù)的可信度。
一旦這些技術被濫用,由其引發(fā)的道德、倫理、版權等諸多問題,都將對個人、社會造成難以想象的影響,而且隨著直播、短視頻等平臺生產(chǎn)出大量內(nèi)容,手機的面部識別功能也開始日益普及,如果這些數(shù)據(jù)被人惡意利用,其后果將無法估量。
如今,研究人員已經(jīng)在準備使用人工智能來識別這些由人工智能制造出來的“假貨”。例如,視頻放大技術可以檢測人類脈搏的變化,從而確定視頻中的人是真實的還是由計算機生成的。
但是,隨著技術的發(fā)展,造假者和打假者都會變得更先進。有些“假貨”可能會變得非常復雜,以至于很難被揭穿——不像前幾代“假貨”,它們使用簡單的語言,并且很容易被反駁。
人類的智慧才是關鍵
事實上,打擊虛假新聞傳播的最好辦法可能還得依靠人類。
虛假新聞帶來的社會后果——政治兩極分化加劇,黨派紛爭加劇,以及侵蝕主流媒體和政府的信任度——是非常嚴重的。如果有越來越多的人知道虛假新聞的風險如此之高,他們可能會對這些信息更加謹慎小心,特別是如果這些信息是基于情感的尤為值得警惕,因為這是吸引人們注意力的有效方式。
當有人看到一個令人憤怒的帖子,那么這個人最好調(diào)查一下這些信息內(nèi)容,而不是馬上分享。分享的行為也為一個帖子增加了可信度:當其他人看到這個帖子時,他們覺得這個帖子是由其認識的人分享的,而且他們對這個人至少還有點信任,所以不太可能會注意到最初的消息來源是否有問題。
現(xiàn)在,像YouTube和Facebook這樣的社交媒體網(wǎng)站,可以自主決定給其網(wǎng)站的內(nèi)容貼上標簽,清楚地顯示出新聞欄目是否是由有信譽的消息來源進行證實的。不僅如此,F(xiàn)acebook創(chuàng)始人馬克·扎克伯格希望動員Facebook用戶的“社區(qū)”來指導其公司的算法,并且Facebook可能會向眾源驗證的方向努力。維基百科也提供了一個模型,由專門跟蹤和驗證信息的志愿者組成。
扎克伯格認為,F(xiàn)acebook可以利用與新聞機構和志愿者的合作來訓練人工智能,不斷調(diào)整系統(tǒng),以應對宣傳者在主題和策略上的變化。盡管如此,人工智能并不能抓住網(wǎng)上發(fā)布的每一條新聞,但是它會讓很多人更容易從虛假信息中獲知事實。
魔高一尺,道高一丈。無論怎樣,這場真假之戰(zhàn)仍將繼續(xù)!
《科學新聞》 (科學新聞2018年6月刊 AI)
|
||||
| ||||
| 打印 | 評論 |
| ||||