本篇文章更新時間:2026/01/24
如有資訊過時或語誤之處,歡迎使用 Contact 功能通知。
一介資男的 LINE 社群開站囉!歡迎入群聊聊~
如果本站內容對你有幫助,歡迎使用 BFX Pay 加密貨幣 或 新台幣 贊助支持。
Ghostty 為什麼要對 AI 立規矩?讀完官方政策後,我看見的是開源專案的另一面
編輯前言:這篇筆記源自 Ghostty 官方的 AI 使用政策文件:ghostty/AI_POLICY.md。乍看之下,它像是一份「禁止事項清單」,但深入理解後,我反而覺得這是開源專案對人性、品質與責任的一種溫柔提醒。
核心觀點 (Key Takeaways)
- 所有 AI 協助都必須清楚揭露,不能隱瞞。
- AI 生成的程式碼只能協助已被接受的 issue,且必須經過使用者本人親自測試。
- AI 可以用在 issue 與討論中,但一定要「人類審稿」。不能把模型的長篇廢話直接貼上來。
- 所有多媒體形式的 AI 內容一律禁止,僅限文字與程式碼。
- 專案不是反 AI,而是反「不合格的 AI 使用者」。
深入解析
Ghostty 的這份政策,從頭到尾都圍繞著一個核心精神:維護開源專案的品質與尊重。
文件強調:
"All AI usage in any form must be disclosed."
這句話其實不只是在要求透明,而是在提醒開發者——開源協作的前提是信任,而信任需要資訊對稱。如果開發者不知道哪些內容是 AI 生成的,品質審查就會變得困難。
另一段我覺得非常值得引用:
"AI must not create hypothetically correct code that hasn't been tested."
這句話完全擊中了當前 AI 代碼生成最危險的地方:它可以寫得「看起來沒問題」,但實際上完全沒跑過。Ghostty 要求:寫程式的人一定要能夠在自己手邊的環境親自測試。這避免了很多「AI 瞎寫,但使用者也看不懂」的災難性 PR。
政策中也提到對 AI 生成內容的另一個顧慮:冗長。因為:
"AI is very good at being overly verbose and including noise that distracts…"
這也是我常在社群看到的現象——一段問題可以兩句講完,但 AI 會給你 20 句。Ghostty 的立場是:內容必須經過人類整理、濃縮、裁剪。
最後,Ghostty 特別提出他們不是反 AI:
"It's the people, not the tools, that are the problem."
這點非常重要。他們本身就大量使用 AI,但知道品質把關的重要性。
具體拆解
- 透明是最低限度的尊重:不揭露 AI 使用會導致維護者花大量時間驗證不可信的內容,這是對人力的浪費。
- AI 只能協助,不可以替代測試:開發者不能把自己不理解、不驗證的內容推給維護者檢查。
- 禁止 AI 多媒體內容:避免引發版權、品質與審查成本問題。
- 人類審稿是必要流程:AI 的「流水帳輸出」會讓 issue 與討論失焦,因此 Ghostty 要求人類負責內容整理。
筆者心得與啟發
讀完 Ghostty 的 AI 政策,我反而覺得這是一種成熟的「負責任 AI 協作」精神。
它不是在擋 AI 的路,而是在守住開源社群的互信。
我自己的反思是:
開源不是把任何東西丟進去就算貢獻,而是你願意替自己的內容負責。
這份政策提醒我,如果要用 AI 協助開發,那麼更需要做到:
- 清楚揭露自己的流程。
- 避免把「看起來正確」但未驗證的內容交給他人。
- 把 AI 當工具,而不是逃避理解的捷徑。
在實務上,我覺得這份文件也提供了指標:
在你按送出 PR 前,問自己:「如果我是維護者,看了這份 PR 會覺得被尊重嗎?」
若答案是否,那大概不是 AI 的錯,而是使用方式出了問題。
