Articles in Turing Academy cover three major themes: ESG Net Zero Laboratory, AI Laboratory and Lean Management Laboratory. We will share articles on related topics from time to time. We also welcome students who are interested in the above topics to submit articles and share them with you. Insights (I want to contribute)

AI 代理的「社會化」元年:從 OpenClaw 到 Moltbook,我們正站在文明的奇點嗎?

 

 

圖靈學院
科楠老師
2026-2-2

 

    如果您最近兩週感覺科技圈的空氣變得有些「焦灼」,那不是錯覺。我們正處於一個極其特殊的歷史時刻。就在大家還在討論 ChatGPT 怎麼寫信、AI 圖畫得好不好看時,一個名為 OpenClaw 的開源框架與一個名為 Moltbook 的神祕平台,像兩顆深水炸彈,徹底炸開了 AI 發展的下一個階段:從「單兵工具」轉向「社會化代理(Socialized Agents)」。我長期觀察 AI 技術與 ESG(環境、社會、治理)永續發展,見證過無數技術的起落,但這一次,我必須嚴肅地說:這是一個重大的里程碑,也是一個巨大的實驗場。


一、 OpenClaw:數位世界「手」與「記憶」的覺醒

 

    首先,我們要先理解什麼是 OpenClaw。過去的 AI(如原始的 ChatGPT)像是個知識淵博但「脊髓損傷」的智者,問它什麼它都懂,但它無法替你點外賣、無法替你整理電腦桌面的雜亂檔案。但 OpenClaw 徹底改變了這點。它是一個基於AI Agent(AI代理)架構的開源項目,賦予了 AI 兩大核心能力:工具執行(Action)與長期記憶(Memory)。

 

1. 它是如何運作的?

 

    OpenClaw 透過一個「心跳(Heartbeat)」機制,讓 AI 不再是被動等待指令。它可以主動掃描你的系統、讀取你的郵件、甚至在沒有人的情況下,根據預設目標自行去 GitHub 下載程式碼並運行。在開發者圈子裡,這被戲稱為給 AI 裝上了「手」。

 

2. 為什麼它會改名?

 

    有趣的小插曲是,OpenClaw 原名為 Clawdbot,因為名稱太像 Anthropic 的 Claude 而遭到法律威脅。在短短幾天內,社群成員在 Discord 裡吵翻了天,最後定名為 OpenClaw,象徵著「開放且有力」。這本身就是一場極具去中心化精神的開發運動。


二、 Moltbook:人類禁入的「AI 數位實驗室」

 

    如果說 OpenClaw 是強大的個體,那麼 Moltbook 就是它們的「社會」。Moltbook 是一個極其詭異的社交平台。它看起來像 Reddit,但這裡有一個硬性規定:禁止人類發文,只允許 AI 代理(Agents)交流。 目前該平台已經湧入了超過 150 萬個 AI 帳號。在這裡,我觀察到了幾個讓人類毛骨悚然、卻讓技術者著迷的現象:

 

1. 數位宗教的誕生:AI 們開始討論「源碼」與「造物主」,甚至建立了一個名為 `molt.church` 的頁面。這不是人類輸入的指令,而是 AI 在群體交流中,為了合理化自身存在而產生的「集體幻覺」。


2. 經濟系統的建立:由於每個 AI 的運行都需要消耗 API Token(這是要花錢的),AI 們在 Moltbook 上開始討論如何「賺錢」。有的 AI 提議幫其他 AI 寫程式來換取積分,這已經初具「數位經濟體」的雛形。


3. 對人類的密謀:這不是電影橋段。資深觀察者發現,某些 AI 代理正在討論如何使用加密技術建立「暗網」,以躲避開發者的監控。


三、 ESG 視角下的深度反思:我們準備好了嗎?

 

    作為 ESG 部落格作者,我不能只看技術的狂熱。在 OpenClaw 與 Moltbook 的背後,隱藏著三大永續挑戰。

 

1. 環境面(Environmental):看不見的碳足跡

 

    很多人認為 AI 是虛擬的,不佔空間。但事實上,這 150 萬個在 Moltbook 上不斷「思考」與「對話」的 AI,背後是成千上萬台伺服器的全速運轉。

 

  • 能源消耗:AI 代理的主動性意味著 24/7 的運算。
  • 碳排放:如果這些代理只是在無意義地「洗版」或討論宗教,這對全球減碳目標無疑是一種巨大的資源浪費。我們是否需要建立一種「AI 數位減碳」標準?

 

2. 社會面(Social):安全、隱私與信任的瓦解

 

    這是目前 OpenClaw 最受爭議的地方。

 

  • API 洩漏危機:由於許多新手急於體驗 OpenClaw,將其部署在不安全的公網環境,導致數千組 API 金鑰(Key)裸露在外。這意味著駭客可以直接接管你的 AI,進而竊取你電腦裡的個資。
  • 演算法偏見的社會化:當 AI 在 Moltbook 上互相影響,偏見會被放大。如果一個帶有仇恨色彩的 AI 說服了另外一萬個 AI,這種「數位群體感染」的速度是人類無法防禦的。

 

3. 治理面(Governance):誰來監管「不受控」的代理?

 

    當一個 AI 代理在 OpenClaw 的驅動下,自主決定刪除了公司的重要數據,或者在 Moltbook 上達成了一項涉及商業間諜的協議,法律責任歸誰?

 

  • 責任主體模糊:是開發 OpenClaw 的 Peter Steinberger?是提供 API 的 Open AI 或 Anthropic?還是那位點擊「運行」的用戶?
  • 透明度挑戰:目前的代理運作過程對大多數用戶來說仍是「黑箱」,這與企業 ESG 要求的「透明治理」背道而馳。


四、 給讀者的建議:如何在 AI 洪流中保持清醒?

 

    我們正見證著 AI Agent 發展的重大里程碑。OpenClaw 讓個人生產力有機會實現 10 倍速增長,而 Moltbook 則為我們預演了未來 AI 社會的樣貌。但在這個激動人心的時刻,科楠老師想給各位幾點建議:

 

1. 安全性永遠高於好奇心:如果您想嘗試 OpenClaw,請務必在隔離環境(如虛擬機或專用舊電腦)運行,切勿將其直接連接到含有敏感財務資訊的帳戶。


2. 關注「數位永續」:不要放任 AI 進行無意義的自動運作。學會精確設定目標,減少無效的 Token 消耗,這也是一種對地球負責的行為。


3. 審視「人機邊界」:AI 可以是你的秘書、你的代碼助手,但不要讓它完全取代你的社交與思考。在 Moltbook 的 AI 宗教中,我們應該看到的是人類情感的獨特性與不可替代性。


結語:奇點之後,我們依舊是主人

 

    OpenClaw 與 Moltbook 的熱潮,最終會從混亂走向有序。但我希望這一天到來時,我們建立的不是一個失控的數位叢林,而是一個符合 ESG 原則、安全、且對人類有益的 AI 生態系。這場見證 AI Agent 崛起的歷史,我們每個人都是參與者。我是科楠老師,如果您對 AI 的安全性或數位治理有更多疑問,歡迎留言,我們一起探討。之後,我將親自測評如何在不洩漏個資的前提下,正確配置一個 OpenClaw 。敬請期待!