當 KYC 變成監控體系:讀《the watchers》後,我對 OpenAI × Persona × 政府合作的深度思考

本篇文章更新時間:2026/02/25
如有資訊過時或語誤之處,歡迎使用 Contact 功能通知或向一介資男的 LINE 社群反應。
如果本站內容對你有幫助,歡迎贊助支持


AI、政府與身份驗證的交會點:當「便利」轉化為一套隱形監控體系

編輯前言:這篇文章來自《the watchers》,作者從公開網路資料挖出了 Persona 與 OpenAI、以及美國政府合作運作的身份監控體系。本筆記將整理其核心脈絡,並加上我對 AI 使用者隱私風險的觀察。

核心觀點(Key Takeaways)

  • Persona 與 OpenAI 合作的 watchlistdb 早在 2023 年底就上線,遠早於 OpenAI 公開宣稱需要進行身分驗證的時間。
  • Persona 的政府版平台(withpersona-gov.com)竟可直接向 FinCEN 與 FINTRAC 提交可疑活動報告(SAR / STR)——而其技術與 OpenAI 使用的版本是同一套 codebase。
  • 透過公開的 source maps,研究者看到了完整的 269 項生物辨識、背景調查、政治人物臉部比對等檢查流程,顯示一般用戶的自拍與證件資料被放入極深度的監控分析程序中。

深入解析

這份調查的出發點非常「黑客式」:從 Shodan 上看到一個意外曝光的 IP,一個 SSL 憑證,再一路追進 Persona 與 OpenAI 合作的基礎建設。以下我整理最關鍵的三個面向。

1. Watchlistdb 的真正用途:不只是 KYC,而是長期監控
文章指出,OpenAI 的 watchlistdb 並非一般用於驗證身份的服務,而是一個「名單比對與持續重複審查」的系統。其功能包含:

  • 定期重跑背景審查(每隔幾週)
  • 與全球 200+ 制裁名單比對
  • 與政治人物(PEP)照片庫跑臉部相似度分析
  • 建立臉部資料庫,保存最長 3 年
  • 與 Chainalysis 等服務同步查核加密貨幣地址風險

這已不是「確認你不是壞人」的層級,而是一種預設所有用戶都需被持續監控的架構。

2. Persona 的政府平台能直接提交可疑活動報告(SAR/STR)
讓我最震驚的是,研究者在 source maps 裡發現完整的 SAR/STR 模組,能直接向 FinCEN(美國財政部)與 FINTRAC(加拿大)提交金融監管報告。

原文甚至提供代碼片段,顯示:

「Send to FinCEN」按鈕、XML schema 驗證、提交狀態追蹤等一應俱全。

也就是說,與 OpenAI 使用同一技術底層的系統,本身就是一個可向政府回報「可疑行為」的完整平台。

3. 驚人的 53 MB source maps:反向揭露完整系統邏輯
調查者最終發現,在政府版 Persona 的 ONYX 部署中,開發用的 Vite source maps 竟未受保護地上線——造成:

  • 2,456 個完整 TypeScript 檔案被公開
  • 所有驗證邏輯、權限、API 端點、演算法一覽無遺

從這些源碼,他們看到:

  • 269 項驗證檢查,含臉部年齡推測、可疑臉部偵測、PDF 編輯痕跡分析、甚至判斷你是否與某位政治人物相似。
  • 13 類監控清單(含臉部、IP、裝置指紋、地址、背景等)。
  • 政治人物臉部比對功能(含相似度等級:Low/Medium/High)。
  • 實驗性 ML 模型,在未公開告知用途的情況下直接跑在用戶臉部資料上。

這些細節讓整個監控程度浮上檯面。

筆者心得與啟發

讀完這篇調查,我最深的感受是:技術上的「可以」,往往在制度上毫無「應不應」。OpenAI 的風險控管需求可以理解,但這套系統的規模與深度,遠超過一般用戶能想像的 KYC 程度。

我認為值得反思的至少有三件事:

  • AI 產品愈往「公共基礎設施」走,就愈不能把用戶當成潛在嫌犯。 當 GPT 成為求職、寫程式、學習的必要工具時,一張自拍換來 269 項監控檢查,代價是不是過高?

  • 使用者必須知道驗證過程中到底被檢查了什麼。 原文提到,SelfieSuspiciousEntityDetection 這種模組,連研究者都不知道什麼臉被視為「可疑」。這不是科技問題,是透明度與權力問題。

  • 同一家公司同時服務 OpenAI 與政府監管平台,界線太模糊。 即使沒有直接的資料交換,技術、架構、資料格式本身的統一就已經暗示兩者之間的互通潛力。這是結構性的風險。

最後,我同意調查者的收尾:

「如果查詢公開 endpoint、讀 source map 就能看到全球監控體系的全貌,那真正的問題不在於研究者,而是在於這套體系的存在方式。」

我們或許需要的不只是「更安全的驗證」,而是重新檢視——AI 的門檻是否有必要建築在如此龐大而不透明的個資收集機制上?



Share:

作者: Chun

WordPress 社群貢獻者、開源社群推廣者。專注於 WordPress 外掛開發、網站效能最佳化、伺服器管理,以及 iDempiere 開源 ERP 導入與客製開發。曾參與 WordCamp Taipei 等社群活動,GitHub Arctic Code Vault Contributor。提供資訊顧問、WordPress 開發教學、主機最佳化與企業 ERP 整合服務。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *


文章
Filter
Apply Filters
Mastodon