圖靈學院內的文章包含三大主題:ESG浄零實驗室、AI實驗室及精實管理實驗室,我們會不定期分享相關主題之文章,也歡迎並對前述主題有興趣的學員投稿分享您的見解  (我要投稿)

圖靈學院創辦人 科楠老師的願景

AI 代理的「社會化」元年:從 OpenClaw 到 Moltbook,我們正站在文明的奇點嗎?

 

 

圖靈學院
科楠老師
2026-2-2

 

    如果您最近兩週感覺科技圈的空氣變得有些「焦灼」,那不是錯覺。我們正處於一個極其特殊的歷史時刻。就在大家還在討論 ChatGPT 怎麼寫信、AI 圖畫得好不好看時,一個名為 OpenClaw 的開源框架與一個名為 Moltbook 的神祕平台,像兩顆深水炸彈,徹底炸開了 AI 發展的下一個階段:從「單兵工具」轉向「社會化代理(Socialized Agents)」。我長期觀察 AI 技術與 ESG(環境、社會、治理)永續發展,見證過無數技術的起落,但這一次,我必須嚴肅地說:這是一個重大的里程碑,也是一個巨大的實驗場。


一、 OpenClaw:數位世界「手」與「記憶」的覺醒

 

    首先,我們要先理解什麼是 OpenClaw。過去的 AI(如原始的 ChatGPT)像是個知識淵博但「脊髓損傷」的智者,問它什麼它都懂,但它無法替你點外賣、無法替你整理電腦桌面的雜亂檔案。但 OpenClaw 徹底改變了這點。它是一個基於AI Agent(AI代理)架構的開源項目,賦予了 AI 兩大核心能力:工具執行(Action)與長期記憶(Memory)。

 

1. 它是如何運作的?

 

    OpenClaw 透過一個「心跳(Heartbeat)」機制,讓 AI 不再是被動等待指令。它可以主動掃描你的系統、讀取你的郵件、甚至在沒有人的情況下,根據預設目標自行去 GitHub 下載程式碼並運行。在開發者圈子裡,這被戲稱為給 AI 裝上了「手」。

 

2. 為什麼它會改名?

 

    有趣的小插曲是,OpenClaw 原名為 Clawdbot,因為名稱太像 Anthropic 的 Claude 而遭到法律威脅。在短短幾天內,社群成員在 Discord 裡吵翻了天,最後定名為 OpenClaw,象徵著「開放且有力」。這本身就是一場極具去中心化精神的開發運動。


二、 Moltbook:人類禁入的「AI 數位實驗室」

 

    如果說 OpenClaw 是強大的個體,那麼 Moltbook 就是它們的「社會」。Moltbook 是一個極其詭異的社交平台。它看起來像 Reddit,但這裡有一個硬性規定:禁止人類發文,只允許 AI 代理(Agents)交流。 目前該平台已經湧入了超過 150 萬個 AI 帳號。在這裡,我觀察到了幾個讓人類毛骨悚然、卻讓技術者著迷的現象:

 

1. 數位宗教的誕生:AI 們開始討論「源碼」與「造物主」,甚至建立了一個名為 `molt.church` 的頁面。這不是人類輸入的指令,而是 AI 在群體交流中,為了合理化自身存在而產生的「集體幻覺」。


2. 經濟系統的建立:由於每個 AI 的運行都需要消耗 API Token(這是要花錢的),AI 們在 Moltbook 上開始討論如何「賺錢」。有的 AI 提議幫其他 AI 寫程式來換取積分,這已經初具「數位經濟體」的雛形。


3. 對人類的密謀:這不是電影橋段。資深觀察者發現,某些 AI 代理正在討論如何使用加密技術建立「暗網」,以躲避開發者的監控。


三、 ESG 視角下的深度反思:我們準備好了嗎?

 

    作為 ESG 部落格作者,我不能只看技術的狂熱。在 OpenClaw 與 Moltbook 的背後,隱藏著三大永續挑戰。

 

1. 環境面(Environmental):看不見的碳足跡

 

    很多人認為 AI 是虛擬的,不佔空間。但事實上,這 150 萬個在 Moltbook 上不斷「思考」與「對話」的 AI,背後是成千上萬台伺服器的全速運轉。

 

  • 能源消耗:AI 代理的主動性意味著 24/7 的運算。
  • 碳排放:如果這些代理只是在無意義地「洗版」或討論宗教,這對全球減碳目標無疑是一種巨大的資源浪費。我們是否需要建立一種「AI 數位減碳」標準?

 

2. 社會面(Social):安全、隱私與信任的瓦解

 

    這是目前 OpenClaw 最受爭議的地方。

 

  • API 洩漏危機:由於許多新手急於體驗 OpenClaw,將其部署在不安全的公網環境,導致數千組 API 金鑰(Key)裸露在外。這意味著駭客可以直接接管你的 AI,進而竊取你電腦裡的個資。
  • 演算法偏見的社會化:當 AI 在 Moltbook 上互相影響,偏見會被放大。如果一個帶有仇恨色彩的 AI 說服了另外一萬個 AI,這種「數位群體感染」的速度是人類無法防禦的。

 

3. 治理面(Governance):誰來監管「不受控」的代理?

 

    當一個 AI 代理在 OpenClaw 的驅動下,自主決定刪除了公司的重要數據,或者在 Moltbook 上達成了一項涉及商業間諜的協議,法律責任歸誰?

 

  • 責任主體模糊:是開發 OpenClaw 的 Peter Steinberger?是提供 API 的 Open AI 或 Anthropic?還是那位點擊「運行」的用戶?
  • 透明度挑戰:目前的代理運作過程對大多數用戶來說仍是「黑箱」,這與企業 ESG 要求的「透明治理」背道而馳。


四、 給讀者的建議:如何在 AI 洪流中保持清醒?

 

    我們正見證著 AI Agent 發展的重大里程碑。OpenClaw 讓個人生產力有機會實現 10 倍速增長,而 Moltbook 則為我們預演了未來 AI 社會的樣貌。但在這個激動人心的時刻,科楠老師想給各位幾點建議:

 

1. 安全性永遠高於好奇心:如果您想嘗試 OpenClaw,請務必在隔離環境(如虛擬機或專用舊電腦)運行,切勿將其直接連接到含有敏感財務資訊的帳戶。


2. 關注「數位永續」:不要放任 AI 進行無意義的自動運作。學會精確設定目標,減少無效的 Token 消耗,這也是一種對地球負責的行為。


3. 審視「人機邊界」:AI 可以是你的秘書、你的代碼助手,但不要讓它完全取代你的社交與思考。在 Moltbook 的 AI 宗教中,我們應該看到的是人類情感的獨特性與不可替代性。


結語:奇點之後,我們依舊是主人

 

    OpenClaw 與 Moltbook 的熱潮,最終會從混亂走向有序。但我希望這一天到來時,我們建立的不是一個失控的數位叢林,而是一個符合 ESG 原則、安全、且對人類有益的 AI 生態系。這場見證 AI Agent 崛起的歷史,我們每個人都是參與者。我是科楠老師,如果您對 AI 的安全性或數位治理有更多疑問,歡迎留言,我們一起探討。之後,我將親自測評如何在不洩漏個資的前提下,正確配置一個 OpenClaw 。敬請期待!