視頻電話那頭,出差在外的“伴侶”焦急地索要轉(zhuǎn)賬;班級(jí)群里,“班主任”用熟悉的聲音發(fā)布緊急繳費(fèi)通知……如今,在人工智能(AI)的加持下,普通人也能在幾分鐘內(nèi)生成足以以假亂真的內(nèi)容。AI學(xué)會(huì)了模仿人的筆跡、復(fù)刻人的聲音、合成人的面容,這類技術(shù)一旦被惡意利用,會(huì)令人“眼睜睜”地被騙。這不禁讓人懷疑,AI時(shí)代,眼見(jiàn)還為實(shí)嗎?
AI造假侵入公共記憶
近期,一段“以色列士兵躲在墻后痛哭”的視頻在社交媒體平臺(tái)X上廣泛傳播。發(fā)布者稱以軍在伊朗火箭彈和無(wú)人機(jī)襲擊下遭受重創(chuàng),該視頻播放量迅速突破160萬(wàn)。德國(guó)電視二臺(tái)調(diào)查發(fā)現(xiàn),該視頻系典型的AI生成產(chǎn)物。視頻中士兵佩戴的徽章時(shí)隱時(shí)現(xiàn),上面的文字更是一串毫無(wú)意義的亂碼。多名網(wǎng)友也指出,視頻中制服樣式、哭聲音效和槍械細(xì)節(jié)都與真實(shí)場(chǎng)景存在明顯偏差。
生成式工具進(jìn)入新聞報(bào)道流程后,專業(yè)新聞機(jī)構(gòu)的把關(guān)機(jī)制同樣面臨考驗(yàn)。2月,德國(guó)電視二臺(tái)緊急召回并解職了該機(jī)構(gòu)一名駐紐約記者,因?yàn)槠浒l(fā)回的一則關(guān)于美國(guó)移民與海關(guān)執(zhí)法局執(zhí)法行動(dòng)的報(bào)道中,混入了一段由視頻生成模型Sora生成的虛假視頻,畫面角落清晰可見(jiàn)Sora水印。事件發(fā)生后,德國(guó)電視二臺(tái)宣布為員工開(kāi)設(shè)強(qiáng)制性培訓(xùn)課程,規(guī)范AI工具在新聞報(bào)道中的使用。“漠視新聞準(zhǔn)則造成的損害是巨大的。這關(guān)乎報(bào)道的公信力?!钡聡?guó)電視二臺(tái)總編輯貝蒂娜·紹斯滕說(shuō)。
AI造假甚至侵入歷史記憶。今年年初,達(dá)豪、布痕瓦爾德等約30家德國(guó)集中營(yíng)紀(jì)念機(jī)構(gòu)和博物館聯(lián)合簽署一封公開(kāi)信,敦促社交媒體平臺(tái)嚴(yán)厲打擊利用AI生成大屠殺相關(guān)內(nèi)容的行為。德國(guó)歷史學(xué)家伊麗絲·格羅舍克說(shuō),利用AI生成的圖像和視頻看起來(lái)像極了歷史照片——黑白底色,骨瘦如柴的人,鐵絲網(wǎng)后呼號(hào)的孩子……但仔細(xì)看就會(huì)發(fā)現(xiàn)異常,這類圖像和視頻中的人長(zhǎng)相相似,身高相仿,而且都非常漂亮。
“AI讓納粹受害者變得更年輕漂亮,這種美化扭曲了歷史,卻利用公眾同情心獲得廣泛傳播?!备窳_舍克說(shuō),這類偽造的帖子會(huì)削弱紀(jì)念館、檔案館、博物館和研究機(jī)構(gòu)工作的權(quán)威性,損害它們的公信力。
操縱制造“社會(huì)共識(shí)”
比偽造內(nèi)容更危險(xiǎn)的,是AI可以偽造“多數(shù)人的意見(jiàn)”。一個(gè)國(guó)際團(tuán)隊(duì)近期在美國(guó)《科學(xué)》雜志“政策論壇”欄目發(fā)表文章說(shuō),數(shù)字操控正進(jìn)入新階段。散布虛假信息的不再只是單個(gè)賬號(hào),而是偽裝成真實(shí)用戶的AI集群。這類集群能夠彼此互動(dòng)、回應(yīng)真人、適應(yīng)情緒變化,并在不斷相互附和和強(qiáng)化中制造出一種并不存在的“社會(huì)共識(shí)”。
德國(guó)康斯坦茨大學(xué)研究人員達(dá)維德·加西亞解釋說(shuō),這類AI集群由一組可被個(gè)人或組織控制的AI智能體構(gòu)成。它們擁有相對(duì)穩(wěn)定的身份和記憶,能夠模擬人類行為,既可以圍繞特定目標(biāo)協(xié)同行動(dòng),也能夠根據(jù)實(shí)時(shí)事件和用戶反饋調(diào)整表達(dá)方式。這類AI集群與早期的僵尸網(wǎng)絡(luò)有著顯著區(qū)別,后者通常行為機(jī)械,較容易識(shí)別;而前者可以跨平臺(tái)運(yùn)行,并通過(guò)彼此呼應(yīng)不斷放大影響。
加西亞認(rèn)為,真正的風(fēng)險(xiǎn)將不再局限于個(gè)別虛假信息,而是“操縱者”可能借助大模型虛擬出“另一種社會(huì)”。他說(shuō):“AI集群可以通過(guò)緩慢而持續(xù)的過(guò)程,制造某種立場(chǎng)已獲廣泛支持的假象,進(jìn)而影響人們的觀點(diǎn)甚至改變社會(huì)規(guī)范。當(dāng)許多看似彼此獨(dú)立的聲音不斷表達(dá)相同立場(chǎng)時(shí),多數(shù)派的錯(cuò)覺(jué)就會(huì)形成,即使這種多數(shù)原本并不存在。”
從被動(dòng)辟謠到主動(dòng)識(shí)別
面對(duì)這種可以偽造“社會(huì)共識(shí)”的新威脅,研究人員和機(jī)構(gòu)已經(jīng)開(kāi)始行動(dòng),利用技術(shù)手段予以識(shí)別,并通過(guò)健全監(jiān)督機(jī)制,及時(shí)鑒別和揭露虛假信息和內(nèi)容。
加西亞認(rèn)為,應(yīng)利用模式識(shí)別等技術(shù)手段,檢測(cè)內(nèi)容傳播中是否存在異常同步、相互呼應(yīng)和跨平臺(tái)聯(lián)動(dòng),以更快發(fā)現(xiàn)由AI驅(qū)動(dòng)的群體性操縱。
除了技術(shù)識(shí)別,研究人員還主張建立獨(dú)立監(jiān)督機(jī)制,持續(xù)觀察AI智能體如何在不同平臺(tái)上影響公共討論,及時(shí)揭露虛假內(nèi)容。加西亞說(shuō),這類網(wǎng)絡(luò)越早被揭露出來(lái),就越難侵蝕公眾信任,也越難把原本多樣的社會(huì)意見(jiàn)偽裝成單一共識(shí)。
德國(guó)人工智能研究中心(DFKI)和萊茵蘭-普法爾茨州政治教育中心等機(jī)構(gòu)日前推出尚處于測(cè)試階段的深度防偽檢測(cè)工具,以提高公眾對(duì)可疑內(nèi)容的識(shí)別能力。與僅依賴像素異常識(shí)別偽造痕跡的傳統(tǒng)方法不同,該工具不僅會(huì)對(duì)圖像和音頻進(jìn)行取證分析,還會(huì)結(jié)合上下文展開(kāi)交叉核驗(yàn)。后臺(tái)的AI智能體會(huì)并行檢索網(wǎng)絡(luò)信息,并調(diào)用經(jīng)過(guò)核實(shí)的事實(shí)資源庫(kù)輔助判斷,包括德新社事實(shí)核查團(tuán)隊(duì)提供的數(shù)據(jù)。
DFKI在新聞公報(bào)中說(shuō),用戶只需點(diǎn)擊兩下,就能將社交媒體上的可疑圖片轉(zhuǎn)發(fā)給檢測(cè)系統(tǒng),系統(tǒng)隨后會(huì)分析相關(guān)材料是否由AI生成或經(jīng)過(guò)篡改,并向用戶反饋其為虛假內(nèi)容的可能性以及相應(yīng)線索。
萊茵蘭-普法爾茨州政治教育中心主任伯恩哈德·庫(kù)卡茨基說(shuō),虛假信息已成為當(dāng)前信息傳播中的突出問(wèn)題,公民每天都可能接觸到被操縱的內(nèi)容,因此辨別和核驗(yàn)信息的能力尤為重要。

