Articles in Turing Academy cover three major themes: ESG Net Zero Laboratory, AI Laboratory and Lean Management Laboratory. We will share articles on related topics from time to time. We also welcome students who are interested in the above topics to submit articles and share them with you. Insights (I want to contribute)

AI信任危機迫近:Suvianna Grecu警告缺乏治理將導致大規模自動化傷害


 

圖靈學院
科楠老師
2025-8-12

 

    AINEWS於2025-8-8的報導指出,全球正加速部署人工智慧,但科技倫理領域的領袖聲音警告,如果把速度置於安全之上,將引發一場「信任危機」。

 

AI for Change基金會創辦人蘇維安娜·格雷庫(Suvianna Grecu)直言,若沒有立即且有力的治理機制,我們正走向「大規模自動化傷害」的道路。

 

格雷庫指出,AI進入關鍵領域的最大風險,不在技術本身,而在缺乏制度化的落地規範。現今,許多強大的AI系統已能影響求職錄取、信用評分、醫療診斷、刑事裁決等攸關人生命運的決策,但它們往往缺乏對偏見的充分測試,也缺乏對長期社會影響的審視。

 

在許多組織內,AI倫理仍停留在文件層面的原則聲明,未成為日常運作的一部分。格雷庫強調,真正的問責要從明確指定負責人開始。理念與執行之間的落差,就是風險滋生的空間。

 

她的基金會主張,必須將倫理直接嵌入開發流程,透過設計檢查表、強制性的部署前風險評估、跨部門審查委員會等工具,讓法律、技術、政策人員共同參與。

 

格雷庫認為,關鍵在於確立每個階段的責任歸屬,並建立透明且可重複的程序,就像管理其他核心業務一樣。這種務實方法,能讓倫理AI從抽象討論轉化為日常可執行的工作任務。


治理需要雙方合作

 

    談到治理責任時,格雷庫明確表示,不可能只靠政府或只靠企業,「必須兩者並行」。

 

她認為,政府必須制定法律邊界與最低標準,特別是涉及基本人權的部分,規範就是保護底線。企業則擁有靈活度與技術能力,可以在合規之外開發更進階的審核工具、創造新的安全機制,並探索負責任技術的新模式。

 

如果治理全由監管機構主導,可能會扼殺創新;如果全交由企業,則容易出現濫用。格雷庫斷言,唯有協作才是可持續的路徑。


未被重視的長期風險

 

    除了眼前的問題,格雷庫更擔心那些被忽略的長期風險,其中之一是情感操控。

 

隨著AI在情感影響與說服能力上的提升,個人自主權正面臨新的威脅。她提醒,大眾對此準備不足。

 

格雷庫強調,科技從來不是中立的。「AI不會自帶價值觀,除非我們刻意設定。」外界常以為AI只是反映現實,但事實上,它反映的是我們提供的數據、設定的目標,以及獎勵的結果。

 

若沒有刻意干預,AI將自然而然地優化效率、規模與利潤,而不是正義、尊嚴或民主等抽象理想。這種取向會直接影響社會信任,因此必須主動決定我們希望科技推動哪些價值。


歐洲的關鍵契機

 

    在格雷庫看來,歐洲正面臨一次關鍵機會。

 

「如果我們希望AI服務人類,而不只是市場,就必須在政策、設計與部署各層面,保護並內嵌歐洲的核心價值——人權、透明度、永續性、包容與公平。」她說。

 

這不是阻止進步,而是搶先塑造未來。「要在AI塑造我們之前,先由我們來塑造它。」


行動與聯盟

 

    透過基金會的工作,格雷庫正推動AI治理的公共教育與跨界合作。她舉辦公開工作坊,並將在即將舉行的AI & Big Data Expo Europe第二天擔任主席,邀集不同領域的專家共同制定AI的未來方向,把人類利益放在中心位置,藉此建立信任並減少風險。

 

格雷庫的訊息簡單而尖銳:速度不能凌駕安全,治理不能等到危機發生才開始,價值觀必須從一開始就刻進AI的核心。

 

 

參考資料


Suvianna Grecu, AI for Change: Without rules, AI risks ‘trust crisis’