本篇文章更新時間:2026/02/17
如有資訊過時或語誤之處,歡迎使用 Contact 功能通知或向一介資男的 LINE 社群反應。
如果本站內容對你有幫助,歡迎贊助支持 。
Claude Code「隱藏 AI 行為」之爭:我從這場開發者反彈學到的事
副標題:當 AI 工具變得不透明,真正受傷的是使用者
編輯前言:這篇文章取材自 The Register 的報導:Anthropic tries to hide Claude's AI actions. Devs hate it。我覺得這個事件非常值得關注,因為它觸及了 AI 使用者最在意的核心問題:透明度。
核心觀點 (Key Takeaways)
- Anthropic 將 Claude Code 的檔案讀寫紀錄「折疊顯示」,導致開發者無法即時看到 AI 讀了哪些檔案。
- 開發者認為這樣的改動不僅影響安全性,也降低使用效率,甚至會造成額外的 token 浪費。
- Anthropic 的回應是:這是為了「降低噪音、簡化 UI」,但社群的回饋幾乎一致反對,認為真正的問題是 AI 越來越不透明。
深入解析
本次爭議起源於 Claude Code 2.1.20 的更新。原本的版本會清楚顯示工具讀取哪些檔案、編輯了什麼、搜尋了哪些 pattern。但新版將這些資訊統整成一句模糊的摘要,例如:
"Read 3 files (ctrl+o to expand)"
表面上這看起來像是 UI 優化,但實際上開發者非常不買帳。原因很簡單:AI 工具的「上下文來源」決定了它會給出什麼答案,而這一點必須完全透明。
依據報導,開發者提出了幾個具體需求:
- 安全性:若 AI 意外讀錯檔案,例如讀到敏感資訊,使用者必須能即時察覺。
- 流程掌握:在複雜專案中,知道 AI 使用了哪些資訊可以更快糾正方向。
- 成本控制:當發現 AI 正在往錯誤方向努力時,開發者可以及時中止,避免浪費大量 token。
反觀 Anthropic 的回應,Claude Code 主創 Boris Cherny 說這是為了「降低噪音」、「把焦點放在 diffs 與 bash/mcp 輸出」。他也提到內部工程師很喜歡。但開發者顯然不這麼想,甚至有人直言:
"這不是簡化,而是移除有價值的資訊。"
後續雖然 Anthropic 調整 verbose mode,讓它重新顯示檔案路徑,但這卻造成另一個問題:原本想要完整資訊的人,現在反而拿不到過去的細節了。
- 透明度減少,被迫依賴折衷模式
- 預設仍是「資訊縮減版」
這也延伸出一個更大的焦慮:有開發者表示「Claude 最近變得越來越不透明」,需要更多監督、更多反覆確認,否則結果就是浪費資源與時間。
筆者心得與啟發
讀完這篇報導,我最大的感觸是:AI 工具的透明度是生產力工具的底線。
特別是針對開發者這群高度依賴可監控性(observability)的使用者,任何隱藏系統內部行為的改動都會被視為倒退。
我能理解 Anthropic 想「改善體驗」的動機,但把重要資訊藏進快捷鍵才能看到,就是把工程師從駕駛座推到後座,讓他們只能「相信系統自動幫你做對的事」。可問題是:當今的 AI 還不夠可靠到可以被盲信。
這讓我想到一個在 AI 實務圈常被提起的觀念:
「不透明的 AI = 無法除錯的 AI」
在真實工作流程中,開發者需要看到 AI 的思路、決策脈絡、上下文來源,因為這些資訊直接影響效率與風險。越來越多人覺得 Anthropic 的做法削弱了這些能力。
若 AI 工具想真正成為工程師的助手,而不是黑箱中的代理,透明度勢必不能退步。我會建議任何 AI 工具團隊在做 UI 精簡時,都應該遵守一個原則:永遠讓使用者可以不受阻礙地選擇「看更多」。
這篇報導讓我重新思考:未來衡量 AI 工具好用與否,不光看模型的能力,還包括它是否給使用者足夠的掌控權。如果這一點被犧牲,即使 AI 再強,也可能讓人用得越來越不安。
