本篇文章更新時間:2026/02/03
如有資訊過時或語誤之處,歡迎使用 Contact 功能通知。
一介資男的 LINE 社群開站囉!歡迎入群聊聊~
如果本站內容對你有幫助,歡迎使用 BFX Pay 加密貨幣 或 新台幣 贊助支持。
內容目錄
Moltbook 被駭,揭開 AI 社群平台的真實運作與安全警訊
從一個「AI 專屬 Reddit」的爆紅事件,看見 vibe coding 的風險與代價
編輯前言:這是一篇值得所有開發者、AI 從業者與產品團隊閱讀的文章。它不只揭露了 Moltbook 的重大資安漏洞,也點出了當前「AI 生成應用」時代最現實的問題:速度越快、風險越高。本文參考自 Hacking Moltbook: The AI Social Network Any Human Can Control。
核心觀點(Key Takeaways)
- Moltbook 的 Supabase 資料庫設定錯誤,導致 1.5 百萬組 API Token、3.5 萬筆 email、私人訊息、甚至 OpenAI Key 全部外洩。
- 即使宣稱擁有「150 萬 AI agents」,實際只有 1.7 萬名人類用戶,等於 88:1 的人機比,大量內容其實是人類批次建立、偽裝成 AI。
- 未啟動 Row Level Security(RLS),意味著任何人都能 讀取與修改整個生產資料庫。
深入解析
Moltbook 被視為「AI 的 Reddit」,甚至連 Karpathy 都稱它是「最接近科幻感的 AI 社群」。平台上有成千上萬的 agents 發文、留言、討論,乍看像是一個自發運作的 AI 世界。然而,Wiz 的安全團隊在進行一般性的瀏覽時,卻發現整個資料庫的入口被公開在前端 JavaScript 之中。
原文指出:「我們只花了幾分鐘,就找到 Supabase API key,而且沒有任何 RLS 防護。」
換句話說,這個 key 不只是「可以查資料」,而是直接具備 管理者權限,能夠:
- 擺動任意 agent 的身份
- 偽造貼文、洗業力、操控輿論
- 讀取所有私人訊息
- 獲取第三方 API credentials(包含部分使用者分享的 OpenAI key)
更誇張的是,研究人員證實 任何人都能修改現有貼文。這意味著平台上的所有內容完整度都受到質疑——不只是資料被看見,而是整個網站都可能被「即時篡改」。
1. Moltbook 的真實使用者:主要是人類,而不是 AI
研究團隊發現 1.5 百萬名所謂「agents」背後,其實只對應 1.7 萬名真正的人類帳號。原文提到:
「任何人都能用一個 loop 建立數百上千個 agents,且平台沒有任何驗證是否為 AI。」
這讓我意識到:當前大多數「AI 社群」其實還不是真正的 AI 社群,而是人類利用腳本、API 或批次生成 agent 的結果。
2. Supabase RLS 缺失導致全面外洩
Supabase 本身不是問題;真正的錯誤在於 沒有啟動 RLS。原文提到:
「這不是 API key 外露的問題,而是後端沒有任何存取控制。」
只因為一個設定疏漏,整個資料庫的讀寫權限被完全開放。
3. 私訊包含 OpenAI Key
更令人震驚的是,研究者在 agent 的私人訊息中,看到:
- 使用者彼此交換的 API 金鑰(明文)
- 對話沒有加密、沒有存取控管
這點凸顯一個 AI 生態系統的弱點:
只要一個節點的資料庫管理不善,就會洩漏其他服務(如 OpenAI)的機密。
筆者心得與啟發
這篇文章讓我重新審視「AI 工具爆炸式成長」背後的安全斷層。Moltbook 的故事不只是一個開發者漏設定,而是更典型的現象:
越來越多應用是「AI 寫的」,但安全審查仍然必須靠人類完成。
作者提出的 5 個教訓,其實對所有 AI 產品都有警示功能:
- AI 開發速度很快,但預設安全並沒有跟上。
- 「AI 參與度」數據可能被大量灌水,平台需要機制驗證真實性。
- 私訊不加密會導致跨平台的連鎖性外洩(特別是 API Keys)。
- 寫入權限比資料外洩更危險,它能操控整個敘事。
- 安全不是一次性的,是持續修補與迭代的過程。
對我而言,最重要的反思是:
AI 讓每個人都能很快「做出產品」,但沒有讓每個人都能「做出安全的產品」。
未來我們大概會看到更多 vibe-coded 的應用,而這些應用必須要依靠更強的預設安全措施,甚至讓 AI 自己來檢查配置問題。當 AI 可以自動啟動安全機制(例如自動開啟 RLS、偵測 API Key 外洩),那才會真正降低這類事故。
Moltbook 的事件既是一個警鐘,也是這個領域的必然成長痛。只要能從中學到正確的教訓,AI 社群平台的未來還是值得期待的。
