OpenAI 使命中的「安全」為何消失?從非營利到巨型科技集團的轉折

本篇文章更新時間:2026/02/14
如有資訊過時或語誤之處,歡迎使用 Contact 功能通知或向一介資男的 LINE 社群反應。
如果本站內容對你有幫助,歡迎贊助支持


OpenAI 拿掉了「安全」兩字:這不只是文案調整,而是治理方向的重大移動

編輯前言:這篇來自 The Conversation 的文章,深入分析 OpenAI 從非營利走向營利的結構轉換,同時揭示一件更耐人尋味的事:它悄悄把使命宣言中的「safely」刪掉了。

來源文章:OpenAI has deleted the word 'safely' from its mission – and its new structure is a test for whether AI serves society or shareholders

核心觀點 (Key Takeaways)

  • OpenAI 在 2024 年 IRS 文件中,將使命從「safely benefits humanity」改為「benefits all of humanity」,刪除對安全的明確承諾。
  • 隨著 OpenAI 結構轉型為傳統營利公司,其董事會、公眾使命與投資人的利益平衡愈來愈模糊。
  • 文章認為這個變動是一個「治理測試」:AI 最終會為社會服務,還是逐漸被股東與資本邏輯主導?

深入解析

這篇文章讓我重新回頭看 OpenAI 近幾年的劇烈變化。從 2015 年「非營利、造福人類」的研究機構,到如今估值逾 5000 億美元的科技巨頭,它走過的每一步都充滿張力。

作者注意到一項關鍵變化:

在 2023 年的使命宣言裡,OpenAI 說它要打造能夠「safely benefits humanity」的通用 AI;但在最新的 2024 年文件中,「safely」不見了。

這聽起來像細微調整,但放在更大的背景下就沒那麼單純了。

  • 從非營利轉向營利,權力也跟著轉向:2019 年起 OpenAI 為了籌資成立「有限營利」架構,之後又在 2025 年正式重組為傳統營利公司。董事會組成、投資者權力、法定義務全都改變。

  • 微軟與多家投資人如今握有多數股份:微軟持有 27%、OpenAI Foundation 只剩 26%,其餘則分散於員工與投資者。非營利董事會因而失去原本的主導權。

  • 雖然新架構加入安全委員會與公益公司(PBC)的形式,但「使命本身」未包含安全,造成治理落差:董事會沒有明確義務在決策中優先考慮安全。

這造成了一個弔詭的局面:

即便架構加入安全機制,但若使命不再寫明安全,「責任」就變成可解釋、可彈性調整的項目。

作者也舉出其他轉型案例,如新聞機構 The Philadelphia Inquirer,或健康保險的非營利轉營利模式,指出 OpenAI 的治理模式其實不是唯一選擇。

筆者心得與啟發

讀完這篇文章,我最大的感受是:「字面上的使命調整,象徵著深入骨底的價值轉變。」

在科技公司裡,使命並不只是好看的標語,它往往決定資源分配、董事會責任與對外溝通的基調。OpenAI 自成立以來一直把「安全」放在前面,而如今抽掉這個字,無疑是向市場與投資者傳遞新的訊號。

我並不認為這代表 OpenAI 不重視安全,但它彰顯了另一件事:

當 AI 發展速度需要大量資金時,安全與商業化的張力會越來越強烈。

而這也回到作者的核心問題:

「AI 的治理機制,是否足以讓它服務全人類,而不只是股東?」

在未來,我認為我們需要更成熟的監管框架與更透明的使命治理。否則,在資本與競爭洪流裡,「造福人類」可能逐漸退到幕後。

這並不是反對商業化,而是提醒:科技越強大,對治理的要求越高。

AI 的安全,不應該只是一個字,應該是始終如一的核心方向。


Share:

作者: Chun

資訊愛好人士。主張「人人都該為了偷懶而進步」。期許自己成為斜槓到變進度條 100% 的年輕人。[///////////____36%_________]

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *


文章
Filter
Apply Filters
Mastodon