讀後筆記:Caveman 模式如何讓 LLM 又快又省又準

本篇文章更新時間:2026/04/06
如有資訊過時或語誤之處,歡迎使用 Contact 功能通知或向一介資男的 LINE 社群反應。
如果本站內容對你有幫助,歡迎贊助支持


Caveman 模式:用更少字,講更準話的 LLM 技巧

編輯前言:這篇來自 GitHub 專案 caveman,它提出一個很有趣的觀點:讓 LLM 像「原始人」講話,竟然能節省超過 70% 的 token,還不會讓技術內容走樣。對任何使用 Claude Code 或 LLM 寫程式的人,都非常值得一讀。

核心觀點 (Key Takeaways)

  • Caveman 模式能減少約 65%–75% 的輸出 token,提升速度並降低成本。
  • 即使語句變簡短,技術內容仍完整保留,不會影響推理或準確度。
  • 提供多層級的「濃度」(Lite、Full、Ultra),依照需求調整壓縮程度。

深入解析

作者的觀察很簡單:LLM 的廢話太多。像是「I'd be happy to help」或「The reason this is happening is because」之類的開場白,往往不帶技術價值,卻占據大量 token。

Caveman 插件的作法,就是刻意讓語句「壓縮」。但和一般的 prompt hack 不同,它有幾個明確的原則:

"Caveman no make brain smaller. Caveman make mouth smaller."

這句話非常精準。Caveman 模式只壓縮「輸出文字」,不壓縮推理或思考步驟,等於把重點留著、把包裝拆掉。

  • 語句壓縮但技術名詞保留:例如 polymorphism、error messages、PR review 都不會被破壞。
  • 刪掉所有禮貌詞與虛詞:例如 I would recommend、Sure I'd be happy to,都直接移除。
  • 不同強度模式
  • Lite:有語法但沒有廢話。
  • Full:真正的 caveman 風格,去掉冠詞、讓語句短促。
  • Ultra:最像電報稿,只剩資訊骨架。

專案也提供了真實 benchmark,最誇張的例子(像是 explain React re-render bug),從 1180 token 直接降到 159 token,刪掉 87%。

更有趣的是文末引用一篇 2026 年論文指出,限制回應字數反而讓模型更準確,甚至「反轉模型間的表現差距」。這讓我重新思考「模型越 verbose = 越聰明」的假設,可能早就過時了。

筆者心得與啟發

讀完這篇,我最大的感想是:工程師其實需要的是高訊息密度,不是高字數。Caveman 模式其實就是在幫模型做「訊息壓縮」,避免因為冗長的自然語言讓人忽略重點。

對我來說,特別有啟發的是:

  • 在 code review 或 debug 場景,越快得到正確核心訊息越好。
  • 如果 LLM 因為「限制字數」而更準,那未來 prompt 設計可能會大洗牌。
  • Lite、Full、Ultra 這三種強度的設計很貼近真實使用情境,不會讓簡化變成障礙,反而是一種可控的效率工具。

如果你常用 LLM 寫程式、debug、看 PR,這個插件值得試試。更少的 token,更多的清晰度,甚至還更好笑一點。


Share:

作者: Chun

WordPress 社群貢獻者、開源社群推廣者。專注於 WordPress 外掛開發、網站效能最佳化、伺服器管理,以及 iDempiere 開源 ERP 導入與客製開發。曾參與 WordCamp Taipei 等社群活動,GitHub Arctic Code Vault Contributor。提供資訊顧問、WordPress 開發教學、主機最佳化與企業 ERP 整合服務。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *


文章
Filter
Apply Filters
Mastodon