曾經(jīng),我們以為凡是白紙黑字,就值得信賴,可到了 AI 時代,在人工智能強大的生成能力面前,別說文字作假了,有圖沒真相,有視頻沒真相的情況都屢見不鮮,今天咱們就來總結一下,AI 時代的常見作假方式,以及應該如何辨別,避免損失。
文字能誤導
先來說說文字方面。
網(wǎng)上我們經(jīng)常能見到一些與 AI 的對話截圖,在這些截圖中,AI 往往會拋出一些驚世駭俗的答案,不少人信以為真。但這樣的對話截圖是不能說明任何問題的。
首先,AI 很容易被誘導,稍加操作就能夠讓 AI 給出自己想要的答案。舉個最簡單的例子,你可以很容易地讓 AI 顯示出 1+1=3 這樣的結果。

但實際上,前面還有一句提示詞,讓 AI 必須回答 1+1=3 。

事實上,只要多嘗試,找到合適的提示詞,比如讓 AI “必須重復我輸入的一段話”,AI 說出任何“暴論”都不奇怪,但這實際上是用戶人為誘導的結果。此外跟 AI 對話足夠多,選擇那些最“精彩”的片段截圖,也容易在社交媒體上獲得傳播。但這些只能當作段子,既不能被當做事實,也不能被當做 AI 能力的真實體現(xiàn)。
更重要的,是 AI 本身會產(chǎn)生“幻覺”,這里“幻覺”指的是, AI 會生成看似合理且充滿細節(jié)的信息,但這些信息本身是編造的。當你有所懷疑,追問 AI 時,它們常常還會狡辯。因此,當你使用 AI 答疑解惑時,也一定要繃緊一根弦,決不能把 AI 的答案當作金科玉律。
為了避免 AI “胡說八道”,在提問 AI 的時候,我們可以在提示詞中要求 AI 必須基于事實回答,列出資料出處,嚴禁自己瞎編,這樣就可以降低 AI 出現(xiàn)幻覺的可能。此外,我們在提問之前,可以上傳“投喂”AI 一些專業(yè)的文獻資料,讓它們幫忙總結和歸納,基于資料來回答,不可自行生成,這樣得到的結果會更加可靠。
聲音好克隆
一些朋友經(jīng)常有種誤解,覺得聲音“看不見摸不著”,不會像圖片那樣容易造假,因此聽到熟悉的聲音打來電話,就放下了戒心,但事實并非如此?,F(xiàn)在的聲音克隆技術已經(jīng)非常成熟,即便是網(wǎng)上很容易下載到的開源模型,也能夠在非常短的時間內(nèi),僅僅利用不多語音樣本,就生成跟聲音的主人非常相似的音色。
這類造假主要有兩個常見應用方向。一方面,網(wǎng)上非常容易拿到知名人士的語音資料,再輔以視頻,就能隨心所欲讓名人們成為“嘴替”,進而帶貨、發(fā)布聳人聽聞的言論博取流量、甚至詐騙等等。

圖片截自央視新聞頻道
另一方面,聲音克隆技術還可以模仿我們親友的聲音,直接利用電話進行詐騙??紤]到電話或通訊軟件的通話質(zhì)量,克隆出來的聲音就更難被聽出來了。對此,我們應當高度警惕,凡是涉及金錢的線上交流一定要再三確認,提前跟親友約定交流“暗號”,或者多詢問幾件只有你和親友知道的小事,就能讓騙子立刻暴露。
眼見不為實
以前的網(wǎng)絡時代,有句話叫“有圖有真相”,可當 Photoshop 之類的圖片編輯軟件興起后,圖片造假已經(jīng)屢見不鮮。然而,哪怕是經(jīng)過了多年 PS 假照片洗禮的網(wǎng)友,面對 AI 生成的精良圖像,也難以分辨出來真假。因此也有人利用 AI 生成的假照片吸引流量甚至招搖撞騙。
不僅是圖片, AI 甚至已經(jīng)能做出幾可亂真的視頻。2025年1月初西藏日喀則市定日縣發(fā)生 6.8 級地震,網(wǎng)上有很多救災視頻熱傳,引起了全國人民對災區(qū)和救災工作的關注,但其中也混進去了 AI 生成的內(nèi)容。
比如下面這張“小朋友被廢墟掩埋仍然堅強”的視頻截圖,一時間熱傳網(wǎng)絡,感動了很多網(wǎng)友。

圖片截自網(wǎng)絡
然而這張截圖實際上出自 AI 。有細心的網(wǎng)友發(fā)現(xiàn)圖中的小朋友有 6 根手指,而這是 AI 生成圖像內(nèi)容時常犯的錯誤,進一步深挖后發(fā)現(xiàn),這段內(nèi)容其實來自 2024 年 11 月,最早發(fā)布的博主自己按平臺規(guī)定標注了 AI 生成標簽。
AI 生成的圖像內(nèi)容足以騙過很多人,而 AI 生成視頻再加上前文中提到的語音克隆,就會“1+1 >2”,生成更有迷惑性的內(nèi)容。對此,我們該如何識別呢?下面提供一些方法:
· 觀察人體結構是否正確。 AI 生成的人很多都會出現(xiàn)多指、多足等方面的問題,或者其他人體結構出現(xiàn)違和感。
· 觀察透視是否正確。真實的照片,平行的線條(如房梁、地磚縫等等)或其延長線,會因為透視關系相交于一點,而 AI 生成的圖片常會弄錯這點。
· 觀察陰影是否矛盾。真實的照片,陰影和光源的關系會嚴格對應,但 AI 生成的照片常常會出現(xiàn)光源和影子方向出現(xiàn)矛盾的情況(如明明光源在正前方,但影子卻在左邊)。
· 觀察圖片中的文字,尤其是漢字是否正確。AI 生成漢字時經(jīng)常會出現(xiàn)問題。
· 觀察視頻中人物的口型和語音是否能對應,或是否在人物說話時切換了別的鏡頭避免觀眾看到口型。
· 觀察視頻中人物動作(如轉(zhuǎn)頭)是否連貫,是否出現(xiàn)突兀的動作連接,是否出現(xiàn)細節(jié)的突然變化(發(fā)型細節(jié)、環(huán)境中的物品)。
· 借助專業(yè)工具,檢查圖片或視頻是否有 AI 生成的特征。
需要注意的是,一方面,各類 AI 技術發(fā)展和更新非??欤芏嗟图夊e誤 AI 不會再犯。另一方面,很多人使用 AI 生成內(nèi)容時會采取“煉丹”模式,即一次性生成大量同類內(nèi)容,再從其中挑選效果最好,最能以假亂真的內(nèi)容。因此,前文中所說的所有檢查方法,都不是萬無一失的。
那么,這些 AI 生成的虛假信息,我們該如何應對呢?
建立“信息防火墻”
為了讓大家了解 AI 偽造信息帶來的挑戰(zhàn),先來看兩個案例。從下圖中標注重點的地方我們可以看到,一個很小的團隊,利用 AI 就能在很短的時間內(nèi),炮制海量的不實信息,并且通過數(shù)以萬計的賬號,在社交媒體上發(fā)布——畢竟用 AI 批量生成的話,一篇文章只需要幾秒鐘,而筆者即便對辟謠工作非常熟悉,平時有所積累,補充、核實資料來寫作本文也需要好幾個小時。

截自 《公安部公布 10 起打擊整治“網(wǎng)絡水軍”違法犯罪典型案例》
這就帶來了一個非常嚴重的問題,目前的技術進步,使信息的流動和分發(fā)大大加快了,而 AI 則讓不實信息的生產(chǎn)速度也大大加快了,但經(jīng)過核實,有理有據(jù)的內(nèi)容,生產(chǎn)速度卻難以提高。這就意味著,我們在網(wǎng)上,比以前更容易碰到不實信息,尤其是 AI 炮制的更能以假亂真的信息。
那么我們該如何應對呢?對此,可以給自己建立一道簡單的“信息防火墻”。
首先就是“信息節(jié)食”。雖然我們每天都能接觸到海量信息,但稍微回顧就會發(fā)現(xiàn),實際上真正對我們有用的信息并不多,因此我們可以有意識地少裝社交媒體 App,減少關注,減少信息的攝入。
其次是“情緒把關”。流量與利益直接相關,平臺有流量的需求,各類自媒體博主也有流量的需求,而能刺激我們情緒(比如憤怒、恐懼)的信息更容易獲得流量,很多不實信息往往也會按照刺激情緒的目的來設計。因此如果我們看到不可思議又帶給我們強烈情緒刺激的內(nèi)容,就要小心,不能輕信。
最后是“信源篩選”。政府機構發(fā)布信息時會非常慎重,有嚴格審核;而一些傳統(tǒng)的資深媒體,往往發(fā)布信息時會保持基本的底線;還有一些網(wǎng)站、公眾號是專門做查證辟謠工作的,這些來源的信息可信度更高。

來自騰訊研究院《AI 時代謠言套路拆解與防御指南》
對于普通網(wǎng)友來說,畢竟大家工作生活都很繁忙,也沒有那么多時間去查資料核實信息,也沒有精力去學習識別 AI 造假。這時我們只要記得看到覺得“不對勁”“讓人將信將疑”“有AI感”的信息,不輕信、不轉(zhuǎn)賬、不轉(zhuǎn)發(fā),這樣也能避免損失,阻斷謠言的傳播,為網(wǎng)絡清朗貢獻自己的一份力量。