2025年,行至21世紀前四分之一,AI早已不是科幻電影中的概念,而是人人可用的工具。如果從一些機構發(fā)布的統計報告來看,在全球超81億人口中,已有17億至18億人使用過AI工具,其中每天使用者約為5億至6億。特別是對25歲以下的年輕人而言,AI聊天助手已成為獲取信息和新聞的重要渠道。
但你有被AI生成的虛假信息欺騙過嗎?又或者說,你意識到自己被騙了嗎?
譬如最近傳出的DeepSeek將在8月下旬發(fā)布R2模型的消息,雖然最終被證偽,但相關話題不僅登上社交平臺熱搜,還一度拉動了AI概念股的上漲。追溯其傳播過程,最初是部分媒體在報道中引述了和DeepSeek產品的對話記錄。隨后,這些未經官方核實的內容又被一些AI搜索產品作為可信信源收錄,最終呈現出似乎已被多方印證的假象。

圖片來源:媒體報道
類似的情況并非個案。從“DeepSeek向王一博道歉”的烏龍事件,到用AI炮制的“三層游船倒扣江中30人墜江”謠言,過去一段時間以來,AI引發(fā)的假新聞層出不窮。
美國西北大學計算機科學博士生陳燦宇曾發(fā)起過應對大模型時代虛假信息的相關項目,其研究方向正是真實、安全、負責任的大語言模型及智能體。陳燦宇告訴藍鯨科技,這類虛假信息可大致分為兩種:一是用戶惡意利用大模型生成的,另一類則是模型自身的幻覺所致,往往是無意的,卻可能在不知不覺中誤導用戶。
大模型的幻覺指的是其生成的內容看似合理流暢,實際卻是虛假的、不準確或不存在的信息,就像是人類在自信地胡說八道。
幻覺問題由來已久,且成因復雜。主流大語言模型采用自回歸生成機制,即通過前面的內容預測下一個最可能的詞,它的目標并不是事實準確,而是語言流暢、上下文合理。同時,大模型的訓練數據存在時效性限制,難以實時獲取到最新的信息,其中還可能夾雜了來自互聯網的虛假信息。即使目前可以通過對齊技術(如RLHF)、檢索增強生成(RAG)等手段來緩解,幻覺問題依然難以被徹底根除。
學界此前曾認為,推理模型能夠減少幻覺問題,但實測數據卻并非如此。OpenAI的推理模型o3和o4-mini的幻覺率不僅高于前代推理模型,也超過了GPT-4o等非推理模型。DeepSeek推理模型R1的幻覺率也顯著高于V3模型。在5月版本更新時,DeepSeek特別強調稱,新版R1模型針對幻覺問題進行了優(yōu)化,在改寫潤色、總結摘要、閱讀理解等場景中,幻覺率較舊版降低了45-50%左右。
一位AI算法工程師對藍鯨科技解釋稱,推理模型提升了最終答案的精確度上限,但中間過程可能存在極大的幻覺。他將其歸因于以DeepSeek為代表所采用的強化學習方法,這類方法主要關注在數學、代碼等有明確正答的任務上,模型給出的最終結果是否正確,而不關注中間推理步驟是否合理。
DeepSeek在R1技術報告中提到,模型訓練中采用了基于規(guī)則的獎勵系統,主要包括兩類獎勵:一是準確性獎勵,用于評估模型的回答是否正確;二是格式獎勵,看模型輸出內容是否符合規(guī)定的格式規(guī)范。DeepSeek沒有選擇用神經網絡來給模型的輸出或推理過程打分的獎勵機制,以避免訓練復雜化和獎勵投機。
DeepSeek的橫空出世推動了AI的普及,也放大了幻覺可能帶來的虛假信息風險。陳燦宇認為,在大模型時代抗擊虛假信息需要多方合力,除了大模型廠商盡可能地降低幻覺率外,也要求平臺和用戶合理使用大模型。他建議,對于沒有相關技術背景的普通用戶,可以通過讓同一模型多次生成回答,或對比不同模型的結果,來更好地辨別幻覺。
目前,許多C端AI產品還會在生成結果后附上參考來源,方便用戶進一步驗證。陳燦宇提醒道,引用來源也存在一定局限性?!耙驗楝F在大模型有嚴重的虛假引用問題,引用不準確或者亂引用,可能會導致一些副作用,讓用戶更加盲從答案?!?/p>
前述AI算法工程師也表示,雖然可以通過調用搜索引擎或外部知識庫來緩解幻覺,但大模型降低了造假的成本,核心挑戰(zhàn)還是在于信息源和搜索引擎端的建設。
在科技社區(qū)中,另一種常用的減輕幻覺的方式是調節(jié)模型的溫度參數。具體而言,低溫度系數會讓模型生成更保守、確定性高的內容,高溫度系數則會產生更隨機、富有創(chuàng)造性的輸出,同時也更容易出現幻覺。
多位受訪者均表示,在某些場景下,幻覺實際上是有利且必要的,它體現的是多樣性、發(fā)散性。“如果模型不說胡話,它的創(chuàng)造性很有可能就不那么強了,這存在一定的權衡?!?/p>


88608/20








