AI 既能看出 92% 的假新聞,也能寫高品質假新聞

作者 | 發布日期 2019 年 08 月 20 日 8:15 | 分類 AI 人工智慧 , 網路趣聞 follow us in feedly


你對假新聞司空見慣了嗎?一張真假難辨的圖片,一個在現實和虛假間游離的故事,這會讓你難以分辨事實的真相。久而久之,在習慣用質疑的眼光看一切的你看來,真新聞也像假新聞,假新聞也有真事實。

而在今天,假新聞不僅由人類產生,機器也可以生產出令人信服的假新聞。隨著時間的推移和技術的發展,這種情況只會變得越來越普遍,並且可能更有破壞性。

真真假假分不清,不如「以毒攻毒」,用 AI 來檢測 AI 寫的假新聞,這個檢測假新聞的 AI 就是 Grover

我們對 Grover 的研究表明,檢測虛假消息的最佳模型就是產生它的最佳模型。

(Source:華盛頓大學

Grover 從 Google 新聞上 5,000 個不同媒體撰寫的新聞中進行學習。在這過程中,它接收了 120 千兆位元的真實新聞文章,並用這些文章進行訓練,最終 Grover 分辨人和 AI 寫的故事的正確率是 92%。在此之前,最好的假新聞辨識器的正確率是 73%。

Grover 之所以能如此有效地發現虛假內容,是因為它也非常善於自己製作內容。畢竟造假大師和鑑假大師之間只有一線之隔。

華盛頓大學教授和論文的共同作者 Yejin Choi 在一份新聞稿中表示,辨別假新聞的 Grover 在假新聞撰寫編造上也遠比他人得心應手。「在我們的研究中,我們發現 Grover 的假新聞內容遠比我們人類同胞寫的新聞更可信,這個事實說明了自然語言生成的發展程度──以及為什麼我們需要努力克服這種威脅。」

▲ Grover 研究團隊。(Source:華盛頓大學

這個擅長打假也擅長造假的 AI 還有能力模仿特定媒體的風格,甚至是特定作家的風格。之前,Grover 生成的一篇假新聞就模仿了《紐約時報》專欄作家 Paul Krugman 的文章風格。不過研究人員也表示,即使是最好的人工智慧假新聞,所做的一切依然基於學習得來的風格和語調,而不是對語言和世界的真正理解。因此,只要我們有耐心,我們可以從原作者浩如煙海的文章中找到 Grover 模仿的痕跡。

研究者們將 Grover 的展示結果放在網路上,每一個人都可以用它寫些天馬行空的假新聞。Fastcompany 的編輯就用它寫了一個《為什麼川普一天要做 100 個伏地挺身》的怪誕文章。面對這種專業編輯都有點束手無策的文章,Grover 的表現也蠻出色:

當你想到伏地挺身,第一個想到的形象絕對並不是美國總統。

身為一名三軍統帥,川普的健康狀況不為人知,雖然他承諾一旦當選總統就會鍛鍊身體。在《名人學徒》節目中,他大肆嘲諷阿諾‧史瓦辛格,沒有什麼能阻止川普不做「川普式的伏地挺身」。

不過就連川普自己也承認,不管你的工作多麼適合你,要想駕馭自己的身體都是極其困難的。那麼,是什麼讓三軍統帥走上正軌呢?答案是 100 個伏地挺身。

(Source:Unsplash

雖然只有短短兩段內容,但我們也可以看出 Grover 對川普性格和言論的掌握和本人性格非常相似。撇開令人啼笑皆非的新聞主題,可能真的會有不少人相信這條新聞。

Grover 論文的第一作者 Zellers 表示:「儘管書寫看起來很流暢,但 Grover 和其他神經語言生成器所寫的文章包含了機器獨有的語言怪癖,這暴露了它們的機器起源。」這些語言不暢之處類似於神經文本生成器的簽名或浮水印。Grover 知道去尋找這些「浮水印」,這使得它在挑選人工智慧創造的故事時更為高效。

Grover 依然需要進化,雖然它已經比同行做得更加出色了,但它依然還有無法辨識的 8% 假新聞。

隨著人工智慧變得越來越複雜,用 AI 抵禦 AI「製造」可能是我們能夠採取的最佳手段。

(本文由 愛范兒 授權轉載;首圖來源:Flickr/Mike MacKenzie CC BY 2.0)

延伸閱讀:

關鍵字: , ,