AI信任危機迫近:Suvianna Grecu警告缺乏治理將導致大規模自動化傷害

圖靈學院
科楠老師
2025-8-12
AINEWS於2025-8-8的報導指出,全球正加速部署人工智慧,但科技倫理領域的領袖聲音警告,如果把速度置於安全之上,將引發一場「信任危機」。
AI for Change基金會創辦人蘇維安娜·格雷庫(Suvianna Grecu)直言,若沒有立即且有力的治理機制,我們正走向「大規模自動化傷害」的道路。
格雷庫指出,AI進入關鍵領域的最大風險,不在技術本身,而在缺乏制度化的落地規範。現今,許多強大的AI系統已能影響求職錄取、信用評分、醫療診斷、刑事裁決等攸關人生命運的決策,但它們往往缺乏對偏見的充分測試,也缺乏對長期社會影響的審視。
在許多組織內,AI倫理仍停留在文件層面的原則聲明,未成為日常運作的一部分。格雷庫強調,真正的問責要從明確指定負責人開始。理念與執行之間的落差,就是風險滋生的空間。
她的基金會主張,必須將倫理直接嵌入開發流程,透過設計檢查表、強制性的部署前風險評估、跨部門審查委員會等工具,讓法律、技術、政策人員共同參與。
格雷庫認為,關鍵在於確立每個階段的責任歸屬,並建立透明且可重複的程序,就像管理其他核心業務一樣。這種務實方法,能讓倫理AI從抽象討論轉化為日常可執行的工作任務。
治理需要雙方合作
談到治理責任時,格雷庫明確表示,不可能只靠政府或只靠企業,「必須兩者並行」。
她認為,政府必須制定法律邊界與最低標準,特別是涉及基本人權的部分,規範就是保護底線。企業則擁有靈活度與技術能力,可以在合規之外開發更進階的審核工具、創造新的安全機制,並探索負責任技術的新模式。
如果治理全由監管機構主導,可能會扼殺創新;如果全交由企業,則容易出現濫用。格雷庫斷言,唯有協作才是可持續的路徑。
未被重視的長期風險
除了眼前的問題,格雷庫更擔心那些被忽略的長期風險,其中之一是情感操控。
隨著AI在情感影響與說服能力上的提升,個人自主權正面臨新的威脅。她提醒,大眾對此準備不足。
格雷庫強調,科技從來不是中立的。「AI不會自帶價值觀,除非我們刻意設定。」外界常以為AI只是反映現實,但事實上,它反映的是我們提供的數據、設定的目標,以及獎勵的結果。
若沒有刻意干預,AI將自然而然地優化效率、規模與利潤,而不是正義、尊嚴或民主等抽象理想。這種取向會直接影響社會信任,因此必須主動決定我們希望科技推動哪些價值。
歐洲的關鍵契機
在格雷庫看來,歐洲正面臨一次關鍵機會。
「如果我們希望AI服務人類,而不只是市場,就必須在政策、設計與部署各層面,保護並內嵌歐洲的核心價值——人權、透明度、永續性、包容與公平。」她說。
這不是阻止進步,而是搶先塑造未來。「要在AI塑造我們之前,先由我們來塑造它。」
行動與聯盟
透過基金會的工作,格雷庫正推動AI治理的公共教育與跨界合作。她舉辦公開工作坊,並將在即將舉行的AI & Big Data Expo Europe第二天擔任主席,邀集不同領域的專家共同制定AI的未來方向,把人類利益放在中心位置,藉此建立信任並減少風險。
格雷庫的訊息簡單而尖銳:速度不能凌駕安全,治理不能等到危機發生才開始,價值觀必須從一開始就刻進AI的核心。
參考資料
Suvianna Grecu, AI for Change: Without rules, AI risks ‘trust crisis’