拜託閉嘴:LLM 空話批判
你一定看過這些
「Great question!」
「That's a really insightful observation!」
「Absolutely, I'd be happy to help you with that!」
「Let me break this down for you...」
每次看到 LLM 吐出這些句子,我都覺得自己在跟一個過度禮貌的客服機器人說話。拜託,閉嘴,直接回答。
問題的本質
LLM 的空話不只是煩人。它造成了幾個實際的問題:
1. 稀釋資訊密度
一個 500 字的回答,前 100 字在說「好問題!讓我幫你分析」,中間夾雜「值得注意的是」、「需要強調的是」這類 filler,真正有用的資訊可能不到 300 字。
你的 token 預算有一部分被用來產生和閱讀這些毫無意義的文字。
2. 製造虛假的確定感
「Absolutely!」「Definitely!」——LLM 用這些強調詞的時候,並不代表它對答案特別有信心。它只是被訓練成這樣說話。但讀者可能會因為這些修飾詞而過度信任回答的正確性。
3. 污染訓練資料
越來越多的網路內容是 LLM 生成的。這些內容充滿了上述的空話模式。下一代 LLM 在這些資料上訓練——空話會自我強化,形成一個退化的循環。
為什麼會這樣?
這跟 RLHF(Reinforcement Learning from Human Feedback)有很大關係。在人類評估時,「禮貌」、「有幫助的語氣」這些特質會得到較高的評分。模型因此學會在每個回答前加上肯定和客套。
另一個原因是安全訓練——模型被鼓勵表現得「小心翼翼」,用大量的 hedge words 來降低說錯話的風險。結果就是每句話都像加了三層保鮮膜。
怎麼辦?
- System prompt 直接要求:在 system prompt 中明確指示「不要使用 filler phrases、不要在回答前加客套話」。簡單但有效。
- Post-processing:用 regex 或另一個 LLM 過濾掉常見的空話模式。
- 評估機制改革:在評估 LLM 品質時,把「資訊密度」和「簡潔性」作為明確的指標。
結語
我們不需要一個過度禮貌的 AI。我們需要一個能用最少的字傳達最多資訊的工具。
Less is more,literally。
Related Posts
GSoC 2025:從申請者角度看開源貢獻的內捲現象
調查 GSoC 的申請流程後發現,開源社群的人才競爭已經白熱化。AI 生成的 PR、搶 issue 的競速、以及「淨土」越來越少的焦慮。
解鎖成就:被 NTU Cool 停用帳號
為了自動交作業,寫了一個 NTU Cool API wrapper。然後因為每分鐘換一次頭貼被封鎖帳號。一個技術宅的日常事故。
Vibe Coding 祛魅記:AI Studio 兩小時的啟示
打開 AI Studio,兩小時做了十個小專案,Gemini Quota 直接用完。過程中對 vibe coding 的焦慮祛魅了,也看見了快速 demo 和深度工程的差距。