《未來的一切都是謊言嗎?》讀後筆記:在真實與幻象之間,我們正踏入一個怪異的新世界

本篇文章更新時間:2026/04/09
如有資訊過時或語誤之處,歡迎使用 Contact 功能通知或向一介資男的 LINE 社群反應。
如果本站內容對你有幫助,歡迎贊助支持


讀《The Future of Everything is Lies, I Guess》:AI 讓世界更強大,也更荒謬的一面

編輯前言:這篇文章來自 Jack Moffitt 的長文〈The Future of Everything is Lies, I Guess〉,作者以多年觀察提出一個尖銳但真實的問題:AI 正在快速進步,但它造成的混亂、騙局與誤導速度似乎更快。本篇筆記整理我讀完後最有感的洞察與思考。

核心觀點 (Key Takeaways)

  • LLM 是強大的即興機器,同時也是專業級胡說八道產生器:它能產出驚人的內容,但同時又會一本正經地胡說八道。
  • AI 擁有「鋸齒狀能力」:在某些領域強得不可思議,在另一些地方卻像智商只有 40。
  • AI 的進步已經超出多數人的心理準備,未來會帶來更多混亂與怪異,而不是線性的進步。

深入解析

文章從作者自身經驗與科技觀察切入,形容當前的 AI 狀態是一種「既振奮又令人沮喪」的矛盾局面。這裡我整理幾個最關鍵的分析。

LLM:強大的即興表演者,也是可信度極低的敘事者

作者用「reality fanfic(現實同人文)」形容 LLM,非常精準。LLM 的核心能力是產生「統計上合理」的句子,而不是「真實」的句子。

它不會說「我不知道」,它只會補完故事,而這故事可能完全是瞎掰的。

比方說:

  • 亂編引用
  • 亂編你的個人背景
  • 亂編從未存在的新聞與科學名詞

而人類對「語氣像真的」這件事又極度敏感,這讓謊言更容易被相信。

LLM 是智能怪獸:能寫程式,但連簡單物理常識都搞不懂

文章大量舉例當前模型的荒謬行為:

  • 忘記物件位置、亂改圖片內容
  • 對照片做出完全錯誤的物理分析
  • 對股票數據亂編數據、假裝自己下載了資料
  • 無法計算金額,卻有人拿它管理帳戶

這些案例凸顯了作者稱為「jagged edge(鋸齒邊界)」的現象:

ML 在高難度抽象任務上表現優秀,但在低階常識或微小語意差異上立即崩壞。

我們以為的 AI 進步,其實可能只是更多算力換來的錯覺

作者指出研究圈一直嘗試創造「新架構」,但迄今最有效的方法仍是:

把模型加大——更多參數、更多資料、更多 GPU。

然而:

  • 回報率正在下降
  • 投入成本飆升
  • 許多能力提升其實來自「人類微調與混合技術」,非模型真正變聰明

AI 是否能自我突破,作者認為充滿不確定性。

筆者心得與啟發

讀完這篇文章,我有兩個強烈感受。

第一,AI 不只是新的工具,而是新的環境。
它不是單純提升效率,而是:

  • 重塑資訊的可信度
  • 改變人類的決策方式
  • 創造新的風險與錯覺

我們進入的是一個資訊永遠帶有雜訊與幻覺的世界,甚至連作者自己都常被模型編造的內容牽連。這會讓「分辨真假」「建立信任」變得前所未有的困難。

第二,「鋸齒狀能力」是當今最該理解的 AI 特質。
過去我們假設「智能」是線性的、整體性的。但 LLM 給出完全不同的結構:

  • 它能做到我們做不到的事
  • 也會犯下我們永遠不會犯的錯誤

這意味著:

  • 不能盲信它
  • 也不能完全忽視它

而是要學會衡量風險與邊界——知道該用它在哪裡,以及不該讓它碰什麼。

換句話說:AI 能力的不可預測性,本身就是一種新的「環境風險」。

總結來說,作者提醒我們:

AI 的未來也許不會是全面性的突破,而是全面性的怪異。

我非常同意這點。比起期待 AGI,我們更需要理解的是:

  • 如何在一個到處充滿「可信外表、錯誤內容」的資訊環境中生存。
  • 如何教會自己與下一代:與能幹又不可靠的 AI 互動是一種新的技能。

這篇文章是一種清醒的報告,提醒我們科技不只帶來力量,也帶來迷霧。未來幾年會更混亂、更精彩,也更值得警惕。


Share:

作者: Chun

WordPress 社群貢獻者、開源社群推廣者。專注於 WordPress 外掛開發、網站效能最佳化、伺服器管理,以及 iDempiere 開源 ERP 導入與客製開發。曾參與 WordCamp Taipei 等社群活動,GitHub Arctic Code Vault Contributor。提供資訊顧問、WordPress 開發教學、主機最佳化與企業 ERP 整合服務。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *


文章
Filter
Apply Filters
Mastodon