
IntelliBenefit Technology Co., Ltd.

圖靈學院編輯部
2026-3-20
2026 年 3 月,萬事達卡(Mastercard)對外披露一項技術開發計畫。這家每日處理數十億筆支付交易的跨國企業,正在以一種不同於 ChatGPT 或 Gemini 的 AI 路徑,重新定義金融業的詐欺偵測方式。它的核心工具,不叫 LLM(大型語言模型),而叫 LTM大型表格模型(Large Tabular Model)。
從文字到數字:LTM 與 LLM 的根本差異
過去幾年,大型語言模型主導 AI 討論。ChatGPT、Claude、Gemini 等工具改變了文字處理、客服互動、程式撰寫的面貌。但語言模型本質上是從人類書寫的文字中學習,預測下一個最可能出現的詞彙。萬事達卡的 LTM 走的是另一條路。它以交易數據為訓練素材,而非文字或圖像,目的是處理數位支付中的安全與真實性問題。這個差異不只是技術選擇,而是反映了金融業資料的本質。LTM 的架構,是研究多維資料表格中各欄位之間的關係,定義上更接近純機器學習,而非傳統意義上的人工智慧。銀行與支付系統的核心資料不是文章,而是結構高度嚴謹的交易紀錄: 時間戳記、金額、商家位置、授權碼、退款記錄。這些數據用語言模型處理,根本是大材小用。LTM 的設計目標,是在這類高度結構化的數字世界中,找出人眼難以發現的異常模式。
訓練數據的規模:數十億筆交易
萬事達卡以數十億筆刷卡交易訓練這個基礎模型,並計畫未來擴展至數千億筆。訓練數據涵蓋支付事件及其相關資訊,包括商家位置、授權流程、詐欺事件、退款,以及忠誠度活動。這個數據量不是學術實驗室能複製的規模。萬事達卡的優勢在於,它本身就是全球支付基礎設施的一部分,每一筆交易都流經它的系統。這讓 LTM 的訓練素材具備了極高的多樣性與代表性,不同國家、不同消費類型、不同詐欺手法,全部被壓縮進模型的學習過程。
隱私設計:去識別化的訓練策略
萬事達卡表示,個人識別資訊在訓練開始前已被移除,模型解析的是行為模式,而非個人身份。這個設計在當前 AI 監理環境下尤其重要。歐盟 GDPR、台灣個人資料保護法、各國金融監管機構對 AI 系統的資料使用方式,要求越來越嚴格。透過排除個人資料,這項技術降低了金融服務業其他 AI 形式可能帶來的隱私風險。但去識別化也有代價。個人層級的行為特徵,例如特定消費者的固定習慣,是傳統詐欺偵測中重要的參考依據。萬事達卡的立場是:以足夠大量的行為數據,補償個別資訊喪失的影響。換句話說,單一用戶的特徵消失了,但整體人群行為的模式依然清晰可見。這是一個取捨。但在監理壓力持續升高的當下,這個取捨具有現實意義。
詐欺偵測:從規則到模式識別
金融機構長期依賴規則型詐欺偵測系統。這類系統由人工設定閾值:交易頻率突增、短時間內出現跨國消費、單筆金額超過歷史均值一定倍數——觸發這些條件,就會被標記為可疑。這些系統需要人工介入設計,並持續調校,才能定義「可疑行為」的邊界。問題是詐欺手法每天都在變。規則設計者永遠在追趕攻擊者。而且,規則系統對「高價值、低頻率」消費特別棘手——比如珠寶、藝術品、豪華旅遊。這類交易本來就不常見,傳統模型容易誤判為異常,但對持卡人來說是完全正當的消費行為。
LTM 學習原始輸入中哪些關係是可預測的,進而辨識出預定義規則無法捕捉的異常模式。早期測試結果顯示,對於高價值、低頻率的消費,新模型比傳統方法更能準確區分合法交易與詐欺事件。這個結果有其邏輯:LTM 透過大量交易數據學習「什麼叫正常」,即使是罕見消費類型,只要模式在整體行為脈絡中說得通,就不會觸發誤報。
技術夥伴:Nvidia 與 Databricks
LTM 的技術基礎設施由 Nvidia 與 Databricks 提供。前者負責運算平台,後者處理資料工程與模型開發。這個組合有跡可循。Nvidia 的 GPU 是當前 AI 訓練的主要算力來源;Databricks 則以資料湖倉(Data Lakehouse)架構見長,擅長處理大規模結構化與半結構化資料的工程管線。對一個需要持續吸收數十億筆交易的模型來說,資料管線的穩定性與擴展性至關重要。萬事達卡並非從零打造整個基礎設施,而是以現有企業 AI 工具棧為基礎,組裝出符合金融業需求的解決方案。這也預示了一個趨勢:未來的產業 AI 應用,很可能是這種「組裝式」路徑,而非單一廠商全包。
應用場景:詐欺偵測只是起點
萬事達卡將詐欺偵測列為 LTM 的第一個部署場景,但這只是開始。公司表示,LTM 可以掃描忠誠度計畫的活動,用於投資組合管理,以及內部數據分析——所有涉及大量結構化數據的領域。這是基礎模型邏輯的體現:訓練一次,微調多用。企業目前往往針對每項任務部署獨立模型,這意味著訓練成本與驗證、監控工作量的多倍累計。一個可微調用於不同任務的單一基礎模型,可能簡化流程並降低成本。這個邏輯在語言模型領域已被驗證。現在,同樣的思路正在移植到結構化數據的世界。萬事達卡也計畫開放 API 存取與 SDK,讓內部團隊建立新應用。該公司將 LTM 定位為一個「洞察引擎」,可以整合進現有產品,強化既有工作流程。
風險與限制:謹慎部署的理由
沒有任何技術沒有風險。萬事達卡對此相當坦率。廣泛部署的單一模型若發生失效,可能引發系統性後果。這也是萬事達卡選擇將 LTM 與現有偵測系統並行運作,而非完全取代的原因。公司承認,沒有任何單一模型能在所有情境下表現最優,LTM 將在這個領域的工具箱中佔有一席之地。法規層面的挑戰同樣不容小覷。任何影響信用決策或詐欺結果的系統,都預期將受到監管機構的嚴格審查,包括 LTM 運作中涉及的資料實踐。報告也強調模型的可解釋性(explainability)與可稽核性(auditability)。金融監管機構的核心關切是:當 AI 決定一筆交易是詐欺時,決策過程能否被追溯與解釋?黑箱模型在金融業的接受度,始終低於其他產業。此外,對抗性條件下的穩健性、長期訓練後成本,以及監管機構的接受程度,都是表格模型能否站穩腳跟的關鍵因素。目前的績效數據,主要來自廠商自身報告,外部獨立驗證尚不充分。
大型表格模型:金融 AI 的下一個浪頭?
萬事達卡的 LTM 不是第一個以結構化數據為核心的 AI 系統,卻可能是最具指標意義的一個。這家公司的規模與影響力,讓它的技術選擇具有產業示範效果。LLM 改變了知識工作的面貌。但金融業、製造業、醫療業的核心資料,從來不是文章,而是數字、欄位、流程記錄。大型表格模型或許正是核心銀行與支付基礎設施中,下一代 AI 系統的起點。這也提醒我們:AI 的競爭,不只是誰的語言模型更聰明,而是誰能把模型嵌入真實產業的數據脈絡裡,並讓它在監管架構下穩定運作。
本文整理自 AI News 報導,原文:Mastercard keeps tabs on fraud with new foundation model, AI News, March 18, 2026。

Copyright © 2024 IntelliBefit Technology Co., Ltd. All rights reserved.
Replace this text with information about you and your business or add information that will be useful for your customers.