Articles in Turing Academy cover three major themes: ESG Net Zero Laboratory, AI Laboratory and Lean Management Laboratory. We will share articles on related topics from time to time. We also welcome students who are interested in the above topics to submit articles and share them with you. Insights (I want to contribute)

不是 LLM,是 LTM:萬事達卡如何用大型表格模型打擊信用卡詐欺


圖靈學院編輯部
2026-3-20

 

    2026 年 3 月,萬事達卡(Mastercard)對外披露一項技術開發計畫。這家每日處理數十億筆支付交易的跨國企業,正在以一種不同於 ChatGPT 或 Gemini 的 AI 路徑,重新定義金融業的詐欺偵測方式。它的核心工具,不叫 LLM(大型語言模型),而叫 LTM大型表格模型(Large Tabular Model)。

 

從文字到數字:LTM 與 LLM 的根本差異

 

    過去幾年,大型語言模型主導 AI 討論。ChatGPT、Claude、Gemini 等工具改變了文字處理、客服互動、程式撰寫的面貌。但語言模型本質上是從人類書寫的文字中學習,預測下一個最可能出現的詞彙。萬事達卡的 LTM 走的是另一條路。它以交易數據為訓練素材,而非文字或圖像,目的是處理數位支付中的安全與真實性問題。這個差異不只是技術選擇,而是反映了金融業資料的本質。LTM 的架構,是研究多維資料表格中各欄位之間的關係,定義上更接近純機器學習,而非傳統意義上的人工智慧。銀行與支付系統的核心資料不是文章,而是結構高度嚴謹的交易紀錄: 時間戳記、金額、商家位置、授權碼、退款記錄。這些數據用語言模型處理,根本是大材小用。LTM 的設計目標,是在這類高度結構化的數字世界中,找出人眼難以發現的異常模式。

 

訓練數據的規模:數十億筆交易

 

    萬事達卡以數十億筆刷卡交易訓練這個基礎模型,並計畫未來擴展至數千億筆。訓練數據涵蓋支付事件及其相關資訊,包括商家位置、授權流程、詐欺事件、退款,以及忠誠度活動。這個數據量不是學術實驗室能複製的規模。萬事達卡的優勢在於,它本身就是全球支付基礎設施的一部分,每一筆交易都流經它的系統。這讓 LTM 的訓練素材具備了極高的多樣性與代表性,不同國家、不同消費類型、不同詐欺手法,全部被壓縮進模型的學習過程。

 

隱私設計:去識別化的訓練策略

 

    萬事達卡表示,個人識別資訊在訓練開始前已被移除,模型解析的是行為模式,而非個人身份。這個設計在當前 AI 監理環境下尤其重要。歐盟 GDPR、台灣個人資料保護法、各國金融監管機構對 AI 系統的資料使用方式,要求越來越嚴格。透過排除個人資料,這項技術降低了金融服務業其他 AI 形式可能帶來的隱私風險。但去識別化也有代價。個人層級的行為特徵,例如特定消費者的固定習慣,是傳統詐欺偵測中重要的參考依據。萬事達卡的立場是:以足夠大量的行為數據,補償個別資訊喪失的影響。換句話說,單一用戶的特徵消失了,但整體人群行為的模式依然清晰可見。這是一個取捨。但在監理壓力持續升高的當下,這個取捨具有現實意義。

 

詐欺偵測:從規則到模式識別

 

    金融機構長期依賴規則型詐欺偵測系統。這類系統由人工設定閾值:交易頻率突增、短時間內出現跨國消費、單筆金額超過歷史均值一定倍數——觸發這些條件,就會被標記為可疑。這些系統需要人工介入設計,並持續調校,才能定義「可疑行為」的邊界。問題是詐欺手法每天都在變。規則設計者永遠在追趕攻擊者。而且,規則系統對「高價值、低頻率」消費特別棘手——比如珠寶、藝術品、豪華旅遊。這類交易本來就不常見,傳統模型容易誤判為異常,但對持卡人來說是完全正當的消費行為。

 

    LTM 學習原始輸入中哪些關係是可預測的,進而辨識出預定義規則無法捕捉的異常模式。早期測試結果顯示,對於高價值、低頻率的消費,新模型比傳統方法更能準確區分合法交易與詐欺事件。這個結果有其邏輯:LTM 透過大量交易數據學習「什麼叫正常」,即使是罕見消費類型,只要模式在整體行為脈絡中說得通,就不會觸發誤報。

 

技術夥伴:Nvidia 與 Databricks

 

    LTM 的技術基礎設施由 Nvidia 與 Databricks 提供。前者負責運算平台,後者處理資料工程與模型開發。這個組合有跡可循。Nvidia 的 GPU 是當前 AI 訓練的主要算力來源;Databricks 則以資料湖倉(Data Lakehouse)架構見長,擅長處理大規模結構化與半結構化資料的工程管線。對一個需要持續吸收數十億筆交易的模型來說,資料管線的穩定性與擴展性至關重要。萬事達卡並非從零打造整個基礎設施,而是以現有企業 AI 工具棧為基礎,組裝出符合金融業需求的解決方案。這也預示了一個趨勢:未來的產業 AI 應用,很可能是這種「組裝式」路徑,而非單一廠商全包。

 

應用場景:詐欺偵測只是起點

 

    萬事達卡將詐欺偵測列為 LTM 的第一個部署場景,但這只是開始。公司表示,LTM 可以掃描忠誠度計畫的活動,用於投資組合管理,以及內部數據分析——所有涉及大量結構化數據的領域。這是基礎模型邏輯的體現:訓練一次,微調多用。企業目前往往針對每項任務部署獨立模型,這意味著訓練成本與驗證、監控工作量的多倍累計。一個可微調用於不同任務的單一基礎模型,可能簡化流程並降低成本。這個邏輯在語言模型領域已被驗證。現在,同樣的思路正在移植到結構化數據的世界。萬事達卡也計畫開放 API 存取與 SDK,讓內部團隊建立新應用。該公司將 LTM 定位為一個「洞察引擎」,可以整合進現有產品,強化既有工作流程。

 

風險與限制:謹慎部署的理由

 

    沒有任何技術沒有風險。萬事達卡對此相當坦率。廣泛部署的單一模型若發生失效,可能引發系統性後果。這也是萬事達卡選擇將 LTM 與現有偵測系統並行運作,而非完全取代的原因。公司承認,沒有任何單一模型能在所有情境下表現最優,LTM 將在這個領域的工具箱中佔有一席之地。法規層面的挑戰同樣不容小覷。任何影響信用決策或詐欺結果的系統,都預期將受到監管機構的嚴格審查,包括 LTM 運作中涉及的資料實踐。報告也強調模型的可解釋性(explainability)與可稽核性(auditability)。金融監管機構的核心關切是:當 AI 決定一筆交易是詐欺時,決策過程能否被追溯與解釋?黑箱模型在金融業的接受度,始終低於其他產業。此外,對抗性條件下的穩健性、長期訓練後成本,以及監管機構的接受程度,都是表格模型能否站穩腳跟的關鍵因素。目前的績效數據,主要來自廠商自身報告,外部獨立驗證尚不充分。

 

大型表格模型:金融 AI 的下一個浪頭?

 

    萬事達卡的 LTM 不是第一個以結構化數據為核心的 AI 系統,卻可能是最具指標意義的一個。這家公司的規模與影響力,讓它的技術選擇具有產業示範效果。LLM 改變了知識工作的面貌。但金融業、製造業、醫療業的核心資料,從來不是文章,而是數字、欄位、流程記錄。大型表格模型或許正是核心銀行與支付基礎設施中,下一代 AI 系統的起點。這也提醒我們:AI 的競爭,不只是誰的語言模型更聰明,而是誰能把模型嵌入真實產業的數據脈絡裡,並讓它在監管架構下穩定運作。

 

 

本文整理自 AI News 報導,原文:Mastercard keeps tabs on fraud with new foundation model, AI News, March 18, 2026。