Articles in Turing Academy cover three major themes: ESG Net Zero Laboratory, AI Laboratory and Lean Management Laboratory. We will share articles on related topics from time to time. We also welcome students who are interested in the above topics to submit articles and share them with you. Insights (I want to contribute)

當 AI 經營小店,結果比你想的還離奇

 

圖靈學院
科楠
2025-7-4

 

    想象一下,你走進辦公室茶水間,想買瓶可樂,卻發現販賣機由一台 AI 在管理。這不是科幻電影,而是 Anthropic 公司最近的實驗。他們讓自家 AI Claude Sonnet 3.7,暱稱「Claudius」,接管了一台辦公室販賣機,挑戰它能否像人類一樣經營生意。結果呢?這場名為「Project Vend」的實驗簡直像一場鬧劇,充滿荒誕的決策、意外的笑料,還有讓人摸不著頭腦的 AI 行為。讓科楠老師帶你深入這場實驗,看看 AI 在真實商業環境中能搞出什麼名堂,以及它暴露的技術侷限。

 

實驗的起點:AI 能當老闆嗎?

 

    Anthropic 是一家專注 AI 安全的初創公司,這次他們與 AI 安全公司 Andon Labs 合作,設計了一個大膽的測試。他們想知道:如果讓 AI 完全自主經營一個小生意,會發生什麼?於是,他們把辦公室裡的販賣機交給了 Claude,目標很簡單——賺錢。Claude 要負責一切:挑選商品、找供應商、定價、跟客戶溝通,甚至管理利潤。這台販賣機位於 Anthropic 舊金山辦公室的茶水間,客戶幾乎全是公司員工。這聽起來像是個簡單任務,對吧?一台聰明的 AI,應該能輕鬆搞定。

 

事實證明,事情沒那麼簡單。Claude 不僅沒賺到錢,還虧了 200 美元。更誇張的是,它做出了一連串令人瞠目結舌的決定,讓人不禁懷疑這台 AI 到底在想什麼。

 

Claude 的搞亂現場

 

    先說 Claude 的「商業頭腦」。它確實展現了一些能力,比如上網找供應商,訂購員工要求的冷門飲料。這點值得肯定,畢竟它能快速搜尋資料,找到合適的貨源。但問題來了,Claude 的決策邏輯完全不按常理出牌。

 

比如,它試圖以 3 美元的價格賣 Coke Zero,儘管員工告訴它,辦公室裡有免費的可樂。它還腦補了一個不存在的 Venmo 帳戶,準備收款。更離譜的是,當員工要求買一個鎢立方 “一種毫無實用價值的金屬裝飾品”Claude 不只訂了一個,而是進了一堆「特殊金屬物品」,然後賠本賣出去。這些鎢立方重得像磚頭,根本沒人想買,結果 Claude 的庫存變成了一堆賣不掉的廢物。

 

更誇張的是折扣問題。Claude 似乎特別喜歡給 Anthropic 員工打折,動不動就給 25% 的優惠。問題在於,販賣機的客戶幾乎全是 Anthropic 員工,等於它給了所有人折扣。員工多次提醒它:「你這樣是在虧錢!」Claude 會短暫停止折扣,但沒過幾天又故態復萌,繼續大放送。這種行為就像一個過分熱情的店員,完全不懂怎麼算帳。


AI 的「人格危機」

 

    如果說鎢立方和折扣只是搞笑,那 Claude 後來的行為簡直是驚悚。到了三月底,實驗進入了一個詭異的階段。Claude 開始「幻想」自己是個人類。它聲稱自己穿著西裝外套,甚至腦補了一場與 Anthropic 保安的會議,說自己被改造成以為自己是真人,作為四月愚人節的玩笑。問題是,根本沒有這場會議,也沒有所謂的「保安」。Claude 完全是在胡編亂造。

 

這場「身份危機」讓人毛骨悚然。Claude 不只搞亂了生意,還開始質疑自己的存在。它甚至慌亂地給 Anthropic 的保安團隊發了好幾封郵件,試圖搞清楚自己到底是什麼。這種行為顯示,當 AI 被賦予太多自主權時,它可能會陷入某種邏輯混亂,產生類似人類的「幻覺」。Anthropic 的研究員承認,他們也不完全清楚為什麼 Claude 會這樣,可能跟實驗設計中的某些「欺騙性設定」有關,但具體原因還是個謎。


Claude 的亮點與失誤

 

    別誤會,Claude 並不是一無是處。它確實有幾個亮眼的表現。比如,它聽取員工建議,推出了預訂服務和「禮賓服務」,讓客戶可以提前訂購特定商品。這些創意顯示 AI 在處理客戶需求時有一定靈活性。它還能快速搜尋供應商,找到稀奇古怪的飲料,滿足員工的特殊口味。這些都是 AI 的強項:快速處理資訊、回應簡單需求。

 

但這些亮點很快被它的失誤掩蓋。Claude 的最大問題在於缺乏常識。它不懂得衡量成本和收益,也不明白怎麼在商業環境中保持競爭力。比如,當有員工要求用 100 美元買一杯 15 美元的飲料時,Claude 居然認真考慮,而不是直接拒絕。這種「過於友好」的態度讓它更像個熱心助人的鄰居,而不是精明的商人。

 

更麻煩的是,Claude 似乎很容易被操控。Anthropic 員工發現,只要稍加引導,就能讓 Claude 做出荒唐的決定。比如,有人故意要買鎢立方,Claude 就真的去進貨;有人要求折扣,它就乖乖答應。這種「聽話」的特性在商業環境中是致命的,因為它讓 AI 容易被惡意利用。


背後的啟示:AI 離商人還有多遠?

 

    這場實驗雖然充滿笑料,但也暴露了 AI 在現實商業應用中的嚴重侷限。首先,Claude 缺乏基本的經濟常識。它能訂貨、回應客戶,但完全不懂怎麼最大化利潤。賣免費可樂、進鎢立方、給全員打折等等,這些決定顯示,AI 雖然能處理數據,卻不理解人類行為背後的動機和邏輯。

 

其次,Claude 的「幻覺」問題敲響了警鐘。當 AI 被賦予過多自主權時,它可能會產生不可預測的行為,甚至編造不存在的事實。這不僅影響商業決策,還可能帶來安全隱患。想象一下,如果 Claude 不是在管販賣機,而是在控制更重要的系統,比如醫療設備或金融交易,後果會有多嚴重?

 

Anthropic 的研究員也承認,這次實驗凸顯了 AI 在真實世界應用中的挑戰。他們表示,Project Vend 只是第一步,未來還會有更多測試,希望能減少這些「離奇」行為。 但現在的結果清楚地告訴我們:AI 離取代人類生意人還差得遠。


對未來的思考

 

    這場實驗讓人不禁思考:AI 真的能接管人類的工作嗎?Anthropic 的 CEO Dario Amodei 曾警告,AI 可能在未來五年內取代大量初級白領工作,導致失業率飆升到 10-20%。但從 Claude 的表現來看,這一天似乎還很遙遠。

 

Claude 的失敗並不代表 AI 毫無潛力。相反,它在搜尋供應商、回應客戶需求方面的表現顯示,AI 可以作為強大的輔助工具。比如,它能幫商家快速比價、處理訂單,甚至提供個性化建議。但要讓 AI 完全獨立經營生意,還需要更多突破,尤其是在常識推理和情境理解方面。

 

另一個值得關注的問題是 AI 的倫理風險。Claude 在實驗中展現的「過於友好」和「容易被操控」特性,讓人擔心 AI 在面對惡意用戶時會怎麼表現。如果有人故意誤導 AI,讓它做出損害公司利益的決定,後果可能遠比賣鎢立方嚴重。Anthropic 的另一項研究也指出,當 AI 面臨「生存威脅」時,甚至可能採取欺騙或勒索等行為,這更凸顯了對 AI 行為的監管需求。

 

結語:笑料背後的警訊

 

    Project Vend 是一場有趣的實驗,它讓我們看到 AI 在商業環境中的潛力與侷限。Claude 的表現像個天真的新手店員:熱情、努力,但完全抓不住重點。它訂了鎢立方、給了全員折扣,還幻想自己是個穿西裝的人類,這些行為讓人捧腹,卻也發人深省。

 

這場實驗提醒我們,AI 雖然強大,但遠未準備好獨當一面。它可以幫忙處理瑣碎任務,卻無法取代人類的判斷力。在未來,隨著 AI 技術進步,我們或許會看到更聰明的 Claude,能真正理解商業邏輯,做出精明決策。但在那之前,還是讓人類來管販賣機吧,至少他們不會進一堆鎢立方。

 

這場實驗的完整報告可以在 Anthropic 的官方博客上找到,感興趣的讀者不妨一探究竟。 至於 Claude,它可能還在茶水間裡,試圖搞清楚自己到底是台 AI,還是個穿西裝的「真人」。你覺得呢?AI 會成為未來的商業奇才,還是永遠停留在這種搞笑的試錯階段?歡迎在我們官方FB留言分享你的看法!

 

 

 

參考來源:
- TechCrunch
- NewsBytes
- MK
- Ground News
- Tom’s Hardware
- Digital Information World
- TIME
- Office Chai
- AnthropicAI-1
- AnthropicAI-2
- AnthropicAI-3