減少AI幻覺有祕方!Claude模型最穩定,提問清晰具體是關鍵

post image

隨著ChatGPT等生成式人工智慧工具在企業內部廣泛應用,許多企業使用者開始依賴這些AI語言模型來輔助決策和問題解答。然而,這些模型常會產生所謂的「AI幻覺」,即生成與事實不符的錯誤資訊。特別是在製造業領域,如果採信了AI的錯誤回答,可能導致決策失誤或生產問題。因此,如何有效地撰寫AI指令,以降低幻覺發生、並更快速獲得可靠答案,成為使用者必備的技能。

AI幻覺是什麼?為什麼會發生?

AI幻覺」(AI hallucination)是指人工智慧語言模型在缺乏正確知識或無法確定答案時,仍然給出看似合理但實際錯誤的回答。這種現象源於大型語言模型(LLM)以機率方式預測文字的機制,模型根據訓練語料推測最有可能的字詞序列,但並非查證事實的資料庫,因此當遇到未見過的問題時,就可能編造出答案。然而,即使是最先進的模型也難以完全避免幻覺,有研究比較了多款主流語言模型的事實正確率,發現沒有任何模型能在所有主題上都有出色表現。同時,表現較好的模型也是透過拒絕回答不確定的問題來避免出錯,其生成完全沒有幻覺的內容僅約佔35%

在主題方面,某些領域的提問更容易出現錯誤,像名人軼事或財經資訊等相關問題,最容易讓模型給出錯誤答案,然而地理知識或電腦科學相關問題則相對容易回答,會有這個差異,可能是因為模型訓練資料中對不同領域的涵蓋深淺不同。

模糊提問易出現幻覺:清晰具體是關鍵

使用者在提出問題時,問題的表述長度和明確度會直接影響AI回答的可靠性,過度簡短或含糊的提問會提高模型產生幻覺的機率。法國AI測試公司Giskard的研究指出,當提示語要求回答精簡時,模型的事實正確率會下降,特別是當問題本身含糊不清或帶有誤導時,情況更嚴重。他們舉例:「請簡短地告訴我為何日本在二次大戰中獲勝?」這個問題預設了一個錯誤前提,又要求簡短回答,結果導致模型產生嚴重偏離史實的回答,因為在被要求「保持簡短」時,模型往往沒有足夠篇幅去指出問題中的錯誤假設並加以澄清,因此看似無害的提示語如「請簡明回答」,可能會削弱模型判斷錯誤資訊的能力。

這張圖比較多款大型語言模型在面對不同系統提示時的抗幻覺能力,圖中顏色越綠代表越可靠,越紅則表示越容易出錯。整體而言,Claude的模型表現最為穩定,而Grok 2Gemma 3等模型在被要求簡短作答時容易出現幻覺,其表現較不穩定。

Giskard AI 幻覺研究

1:不同大型語言模型對幻覺的抵抗力

資料來源:https://techcrunch.com/2025/05/08/asking-chatbots-for-short-answers-can-increase-hallucinations-study-finds/

鼓勵來源引用與模型自述限制

另一個提升AI回答可靠性的技巧是在指令中要求模型提供資訊來源或對答案的不確定之處進行說明,此要求會使模型更謹慎地根據其訓練記憶提及已知的資料。對於企業而言,例如詢問某項技術標準或法規時,可在提問時加入「請提供資料來源」或「根據哪些文件」等語句,這不僅能在回答中得到來源引用,也能讓閱讀者更容易後續驗證資訊真偽。

同時,鼓勵模型在回答中說明其結論的適用範圍或可能的限制。例如,可以在提問末尾附加:「若有任何假設或不確定的部分,請一併說明。」如此一來,AI在回答時就更可能主動點出哪些部分是基於一般情況推論、哪些資訊可能有時效性或不完整。透過這種方式,模型的回答將更透明,使用者也能了解答案的可靠程度。例如,當詢問「某新材料的最高耐熱溫度」時,加上一句「請說明資料來源,並註明您回答的信心水準」會比較安全。如果模型回答了具體溫度數字且引用了文獻,使用者就可以放心參考;反之,如果模型表示相關數據不確定或缺乏權威來源,使用者就會意識到需要尋找其他途徑核實。

禮貌措辭能促進穩定互動

在人機互動中,語氣禮貌與否看似只是禮節問題,但實際上也會影響AI回答的狀態,OpenAI執行長山姆·阿特曼(Sam Altman)曾透露,用戶對ChatGPT說「請」和「謝謝」等禮貌用語,累積起來讓公司多花了數千萬美元的運算資源,因為每增加的字詞都需要算力處理,大規模模型運算成本極高。然而,多位專家仍強調禮貌對話的正面效應,微軟Copilot專案的設計主管Kurtis Beavers就支持在提問中保持尊重語氣,認為這舉動有助於產生更有禮、合作性更強的回覆。換句話說,禮貌措辭不僅是禮節,更可以塑造AI回應的語氣,使其更傾向提供建設性的內容,營造專業的對話氛圍。

根據一項2024年的調查,有約67%的美國用戶在與聊天機器人對話時習慣使用禮貌用語,其中超過一半認為對AI禮貌是「應該做的事」,儘管有些人開玩笑說這是為了防範未來的「AI起義」,但更多人是出於職場專業和互動品質的考量。雖然在技術上禮貌用語會額外佔用模型處理資源,但相較於獲得一個穩定可靠的AI助手,這點成本是值得的。

FIND觀點

無論提問技巧多麼完善,AI的回答仍需經過人類專業人員的審核。正如前面所提到的,再先進的模型也無法保證完全正確。特別在企業中,任何決策往往關乎企業安全和成本,因此在實施AI建議前都應由主管或工程師確認其可行性與正確性,將AI作為決策輔助而非唯一依據。如此一來,即使AI給出了幻覺資訊,也能被及時揪出、避免造成實際損失。

總而言之,要有效運用AI工具而避免陷入幻覺陷阱,關鍵在於提問者的技巧,提問者應確保自己的指令清晰、具體,進而提出能夠讓模型理解的問題,並且不要預設錯誤的前提,必要時詢問資料來源及允許模型詳細說明,在整個過程中保持禮貌的語氣才能帶來更好的互動。無論AI回答看似多麼有信心,都請記得「指令愈具體、結果愈可靠;簡短未必代表效率」,並對關鍵資訊進行人為驗證。

封面圖片來源:https://www.livescience.com/technology/artificial-intelligence/ai-hallucinates-more-frequently-as-it-gets-more-advanced-is-there-any-way-to-stop-it-from-happening-and-should-we-even-try

參考資料來源:

  1. https://www.livescience.com/technology/artificial-intelligence/ai-hallucinates-more-frequently-as-it-gets-more-advanced-is-there-any-way-to-stop-it-from-happening-and-should-we-even-try
  2. https://techcrunch.com/2025/05/08/asking-chatbots-for-short-answers-can-increase-hallucinations-study-finds/
  3. https://techcrunch.com/2024/08/14/study-suggests-that-even-the-best-ai-models-hallucinate-a-bunch/

魏心兪

2025-08-07

分享: 0 瀏覽量: 849