本篇文章更新時間:2026/04/06
如有資訊過時或語誤之處,歡迎使用 Contact 功能通知或向一介資男的 LINE 社群反應。
如果本站內容對你有幫助,歡迎贊助支持 。
Caveman 模式:用更少字,講更準話的 LLM 技巧
編輯前言:這篇來自 GitHub 專案 caveman,它提出一個很有趣的觀點:讓 LLM 像「原始人」講話,竟然能節省超過 70% 的 token,還不會讓技術內容走樣。對任何使用 Claude Code 或 LLM 寫程式的人,都非常值得一讀。
核心觀點 (Key Takeaways)
- Caveman 模式能減少約 65%–75% 的輸出 token,提升速度並降低成本。
- 即使語句變簡短,技術內容仍完整保留,不會影響推理或準確度。
- 提供多層級的「濃度」(Lite、Full、Ultra),依照需求調整壓縮程度。
深入解析
作者的觀察很簡單:LLM 的廢話太多。像是「I'd be happy to help」或「The reason this is happening is because」之類的開場白,往往不帶技術價值,卻占據大量 token。
Caveman 插件的作法,就是刻意讓語句「壓縮」。但和一般的 prompt hack 不同,它有幾個明確的原則:
"Caveman no make brain smaller. Caveman make mouth smaller."
這句話非常精準。Caveman 模式只壓縮「輸出文字」,不壓縮推理或思考步驟,等於把重點留著、把包裝拆掉。
- 語句壓縮但技術名詞保留:例如 polymorphism、error messages、PR review 都不會被破壞。
- 刪掉所有禮貌詞與虛詞:例如 I would recommend、Sure I'd be happy to,都直接移除。
- 不同強度模式:
- Lite:有語法但沒有廢話。
- Full:真正的 caveman 風格,去掉冠詞、讓語句短促。
- Ultra:最像電報稿,只剩資訊骨架。
專案也提供了真實 benchmark,最誇張的例子(像是 explain React re-render bug),從 1180 token 直接降到 159 token,刪掉 87%。
更有趣的是文末引用一篇 2026 年論文指出,限制回應字數反而讓模型更準確,甚至「反轉模型間的表現差距」。這讓我重新思考「模型越 verbose = 越聰明」的假設,可能早就過時了。
筆者心得與啟發
讀完這篇,我最大的感想是:工程師其實需要的是高訊息密度,不是高字數。Caveman 模式其實就是在幫模型做「訊息壓縮」,避免因為冗長的自然語言讓人忽略重點。
對我來說,特別有啟發的是:
- 在 code review 或 debug 場景,越快得到正確核心訊息越好。
- 如果 LLM 因為「限制字數」而更準,那未來 prompt 設計可能會大洗牌。
- Lite、Full、Ultra 這三種強度的設計很貼近真實使用情境,不會讓簡化變成障礙,反而是一種可控的效率工具。
如果你常用 LLM 寫程式、debug、看 PR,這個插件值得試試。更少的 token,更多的清晰度,甚至還更好笑一點。
