本篇文章更新時間:2026/04/09
如有資訊過時或語誤之處,歡迎使用 Contact 功能通知或向一介資男的 LINE 社群反應。
如果本站內容對你有幫助,歡迎贊助支持 。
內容目錄
讀《The Future of Everything is Lies, I Guess》:AI 讓世界更強大,也更荒謬的一面
編輯前言:這篇文章來自 Jack Moffitt 的長文〈The Future of Everything is Lies, I Guess〉,作者以多年觀察提出一個尖銳但真實的問題:AI 正在快速進步,但它造成的混亂、騙局與誤導速度似乎更快。本篇筆記整理我讀完後最有感的洞察與思考。
核心觀點 (Key Takeaways)
- LLM 是強大的即興機器,同時也是專業級胡說八道產生器:它能產出驚人的內容,但同時又會一本正經地胡說八道。
- AI 擁有「鋸齒狀能力」:在某些領域強得不可思議,在另一些地方卻像智商只有 40。
- AI 的進步已經超出多數人的心理準備,未來會帶來更多混亂與怪異,而不是線性的進步。
深入解析
文章從作者自身經驗與科技觀察切入,形容當前的 AI 狀態是一種「既振奮又令人沮喪」的矛盾局面。這裡我整理幾個最關鍵的分析。
LLM:強大的即興表演者,也是可信度極低的敘事者
作者用「reality fanfic(現實同人文)」形容 LLM,非常精準。LLM 的核心能力是產生「統計上合理」的句子,而不是「真實」的句子。
它不會說「我不知道」,它只會補完故事,而這故事可能完全是瞎掰的。
比方說:
- 亂編引用
- 亂編你的個人背景
- 亂編從未存在的新聞與科學名詞
而人類對「語氣像真的」這件事又極度敏感,這讓謊言更容易被相信。
LLM 是智能怪獸:能寫程式,但連簡單物理常識都搞不懂
文章大量舉例當前模型的荒謬行為:
- 忘記物件位置、亂改圖片內容
- 對照片做出完全錯誤的物理分析
- 對股票數據亂編數據、假裝自己下載了資料
- 無法計算金額,卻有人拿它管理帳戶
這些案例凸顯了作者稱為「jagged edge(鋸齒邊界)」的現象:
ML 在高難度抽象任務上表現優秀,但在低階常識或微小語意差異上立即崩壞。
我們以為的 AI 進步,其實可能只是更多算力換來的錯覺
作者指出研究圈一直嘗試創造「新架構」,但迄今最有效的方法仍是:
把模型加大——更多參數、更多資料、更多 GPU。
然而:
- 回報率正在下降
- 投入成本飆升
- 許多能力提升其實來自「人類微調與混合技術」,非模型真正變聰明
AI 是否能自我突破,作者認為充滿不確定性。
筆者心得與啟發
讀完這篇文章,我有兩個強烈感受。
第一,AI 不只是新的工具,而是新的環境。
它不是單純提升效率,而是:
- 重塑資訊的可信度
- 改變人類的決策方式
- 創造新的風險與錯覺
我們進入的是一個資訊永遠帶有雜訊與幻覺的世界,甚至連作者自己都常被模型編造的內容牽連。這會讓「分辨真假」「建立信任」變得前所未有的困難。
第二,「鋸齒狀能力」是當今最該理解的 AI 特質。
過去我們假設「智能」是線性的、整體性的。但 LLM 給出完全不同的結構:
- 它能做到我們做不到的事
- 也會犯下我們永遠不會犯的錯誤
這意味著:
- 不能盲信它
- 也不能完全忽視它
而是要學會衡量風險與邊界——知道該用它在哪裡,以及不該讓它碰什麼。
換句話說:AI 能力的不可預測性,本身就是一種新的「環境風險」。
總結來說,作者提醒我們:
AI 的未來也許不會是全面性的突破,而是全面性的怪異。
我非常同意這點。比起期待 AGI,我們更需要理解的是:
- 如何在一個到處充滿「可信外表、錯誤內容」的資訊環境中生存。
- 如何教會自己與下一代:與能幹又不可靠的 AI 互動是一種新的技能。
這篇文章是一種清醒的報告,提醒我們科技不只帶來力量,也帶來迷霧。未來幾年會更混亂、更精彩,也更值得警惕。
