圖靈學院內的文章包含三大主題:ESG浄零實驗室、AI實驗室及精實管理實驗室,我們會不定期分享相關主題之文章,也歡迎並對前述主題有興趣的學員投稿分享您的見解  (我要投稿)

揭穿“開放”AI的假象:開放性與透明度對AI發展的重要性

 

 

 

圖靈學院
科楠
2024-12-6

 

探討AI開放性的真實面貌

 

    近期,《自然》(Nature)期刊發表了一篇題為〈為何“開放”AI系統實際上是封閉的,以及這為何重要Why ‘open’ AI systems are actually closed, and why this matters〉的文章,針對AI系統中“開放性”的實際情況進行了深入剖析。文章揭示了許多自稱“開放”的AI系統實際上存在封閉性的問題,並強調開放性對於AI發展和應用的倫理、透明度及公平性的重要影響。

 

Source: nature


AI中的“開放性”是否名副其實?


    在人工智慧的研究和應用中,“開放”一直是推動技術進步的核心價值之一。AI系統的開放性,理論上應包括以下幾個方面:


1.源代碼(Source code)的可得性:允許研究人員檢視和改進模型的基礎代碼。


2.數據集的透明性:公開模型訓練所使用的數據,確保數據不含偏見。


3.訓練方法的披露:描述模型是如何設計與優化的,幫助研究人員複現結果。


4.模型推理過程的解釋性:揭示模型如何從輸入推導出輸出的過程,以便外界檢查其合理性。


然而,許多自稱“開放”的AI系統只公開了部分源代碼或模型參數,其他重要資訊(如數據集和訓練過程)仍然保持封閉。這種做法不僅削弱了外界對系統的理解,也限制了技術的進一步創新。


實例:開放與封閉之間的矛盾


    文章提到,許多大型AI公司雖然宣稱其技術是“開放”的,但在實際操作中對數據和模型進行了高度的限制。例如,某些知名AI平台只提供API接口供外部開發者使用,卻不允許檢視完整的模型架構或數據集。這種“選擇性開放”使得外界很難判斷模型是否存在內在偏見或漏洞。

 

開放性與AI倫理的聯繫


透明度如何影響社會公平


    此篇文章進一步探討了透明性不足可能帶來的倫理風險。例如,在AI應用於招聘、信用評分或司法決策時,若外界無法檢視其內部運作邏輯,可能導致偏見、歧視或不公平的結果。這種情況下,受影響的個人或群體幾乎無法對AI系統的決策進行有效的挑戰。


文章作者呼籲,在開放性不足的情況下,AI技術可能淪為少數利益集團的工具,進一步加劇社會不平等。只有實現全面的開放性,AI系統才能成為真正公平的技術工具,為整個社會創造價值。


開放性對倫理監督的作用


    外部監督是確保AI系統負責任運行的關鍵,然而,封閉的AI系統常常成為監督的障礙。例如,當一個AI模型的訓練數據未公開時,無法驗證其數據來源是否含有種族或性別偏見。文章強調,若要避免AI技術的濫用,必須推動更高程度的透明度和問責機制。

 

技術開放性推動AI創新與進步


    除了倫理層面的意義,開放性對技術創新也至關重要。當AI模型及其相關技術細節被廣泛共享時,不同的研究團隊能夠基於已有成果進行改進,加速技術的迭代發展。例如,開源的機器學習框架(如TensorFlow或PyTorch)已成為AI領域的重要基石,正是因為其全面的透明度和可得性,吸引了全球研究者的參與,帶動了整個行業的快速進步。


然而,文章中也警告,如果開放性僅停留在表面,AI創新的步伐可能因此放緩。封閉的技術環境可能導致資源和知識的浪費,限制了跨學科合作的可能性。

 

未來展望:從開放走向負責任AI


    Widder等人在文章的最後提出了幾個實現真正開放AI的具體建議:


1.建立全球性的開放標準:明確規範AI系統應公開的數據範疇、訓練細節和模型解釋。


2.推動政策制定:通過立法強制要求企業披露AI系統的相關資訊。


3.促進多方合作:鼓勵學術界、產業界和政府之間的透明對話,共同確保AI技術的負責任應用。


從透明到信任,AI的未來之路


    這篇文章為我們提供了重要的啟示。所謂的“開放性”不應僅僅停留在行銷術語層面,而是要實現數據、代碼、方法及應用結果的全面透明。只有如此,才能讓社會各界信任AI技術,推動其在倫理、技術與創新上的全面進步。


面對AI的快速發展,全球應共同努力,建立開放與負責任的技術生態系統。這不僅是為了推動技術進步,更是為了確保AI技術能以公平、透明和負責任的方式造福全人類。

 

 

Reference:
Widder, D.G., Whittaker, M. & West, S.M. Why ‘open’ AI systems are actually closed, and why this matters. Nature 635, 827–833 (2024). https://doi.org/10.1038/s41586-024-08141-1