AI答案也會出錯?明略科技如何用事實性數據反AI幻覺
2025-02-25
前段時間,一組關于80后死亡率的數據在網上引發廣泛關注。不少自媒體為追逐流量熱度,不斷渲染炒作,助長了這些離譜數據的傳播。近日,央視新聞等權威媒體以及相關專家紛紛辟謠,指出這一數據與事實嚴重不符。
專家表示,第七次全國人口普查的時間是2020年,其結果顯然無法預測2024年的死亡率。此外,人口普查數據只會公布對應時期的死亡率,例如2020年的第七次全國人口普查,反映的是2019年11月1日至2020年10月31日的死亡率,并不存在針對特定群體(如“80后”)的累積死亡狀況統計。對于網絡上出現的“5.2%”的死亡率數據,錯誤非常明顯。因為專業統計數據中,死亡率通常以千分率表示,而不是百分率,此外相關內容,還存在其他定義混淆等專業常識上的明顯錯誤。
隨著中國網民突破11億,其中約2.5億人已成為生成式AI用戶。AI在帶來紅利的同時,也帶來了風險與挑戰。
科普中國曾指出,就像我們在考試時遇到不會的題目,我們會試圖用已知知識去推測答案一樣,AI在遇到信息缺失或不確定的情況時,會基于自己的“經驗”(訓練數據)進行填補和推理。這不是因為AI想要欺騙我們,而是它在試圖用自己的理解的模式來完成這個任務。
大模型的認知來源于數據,這些數據來自公開數據集、互聯網爬取的數據,以及自有或第三方數據。
然而,由于訓練語料、數據來源不足等多重因素,AI大模型也存在認知上的不足,難免生成錯誤或虛假信息,也就是業內常說的“幻覺”。
“最主要的原因在于,大模型的根本原理是對下一個token的預測。既然是預測,那么就是選擇概率相對最大的路徑進行推理,而這條路徑并不包含“事實”和“邏輯推理”。”明略科技相關專家指出。
隨著新進國民頂流DeepSeek的爆火,AI已在全民范圍實現了破圈,而企業對AI賦能業務的需求也愈發迫切。然而,專業領域對AI輸出信息的真實性、準確性要求更為嚴格。那么在實際業務場景中,企業如何取其長處、避其短處,讓AI更好地為業務服務呢?
明略科技相關專家表示,AI有不同的應用場景,有的需要發散和想象,有的則需要嚴謹和收斂。企業場景大多要確保答案嚴謹、有根據,不能出錯。
01 選用特定模型
指令遵從和總結引用上表現較好的模型,在訓練時往往偏向“引用原文”回答。因此用戶在AI給出的答案中可以看到更多原文內容,而非AI自由發揮的結果。
02 給定所需材料
加入與問題相關的材料和信息,AI便可以判斷材料與問題之間的關系,并傾向于使用給定材料進行回答。
03 增加指令引導
明確約束,告訴AI要基于已有事實回答,不要進行推測;標注不確定,對于模糊信息,需標注“此處為推測內容”等。
從模型角度來看,GPT-4等模型幻覺較少的原因在于:一是增強訓練數據的質量和多樣性,相當于用高質量語料,覆蓋更多用戶場景;二是后期驗證和校正機制;三是使用更復雜的約束和規則。
其中,第一點最為關鍵,即大部分問題都有對應語料進行過訓練。但對于沒見過的場景和問題,在沒有對應語料的情況下,大模型編造依然存在。因此,從AI大模型的“養料”——數據側開始規避幻覺至關重要。
明略科技認為,對企業而言,
一方面,在特定行業場景中,企業要用事實性數據反AI幻覺,選用權威數據源,有效彌補大模型在專有知識上的缺失;
另一方面,企業要加強知識庫建設,并充分運用檢索增強生成(RAG)技術。
RAG相當于為大模型配備了一個超級外掛,用戶可以隨時從可靠資料中獲取可靠信息,從而獲得更加靠譜的答案。
目前,明略科技在RAG領域引入了多模態圖表識別、PDF表格定向增強、文檔路由、指代消解、檢索重排、元數據增強等20+技術,在細節中打磨產品,提升信息提取、信息召回、知識問答的準確率和召回率,進而提升了企業在知識檢索和問答的體驗,讓企業知識發揮出更大價值。
信息填寫