Articles in Turing Academy cover three major themes: ESG Net Zero Laboratory, AI Laboratory and Lean Management Laboratory. We will share articles on related topics from time to time. We also welcome students who are interested in the above topics to submit articles and share them with you. Insights (I want to contribute)

《康乃爾「微波大腦晶片」:耗能不到 200 mW 的類神經處理器如何重塑 AI 與通訊》

 

 

圖靈學院
科楠老師
2025-10-16

 

前言:一次或顛覆的微波運算實驗

 

    2025 年 8 月,康乃爾大學發表了一則讓人眨眼的新聞。他們設計出一種名為「微波大腦」(microwave brain)的晶片。這東西看起來像科幻小說裡的「微波神經網路」(microwave neural network),但它不是噱頭。它真的存在,並且在功耗極低的前提下執行即時運算與通訊任務。 

 

接下來我們按邏輯梳理這項技術的原理、貢獻、挑戰與未來意義,讓你對這枚「微波大腦晶片」更清楚。


一、什麼是「微波大腦晶片」?

 

傳統數位處理器的瓶頸

 

    在我們的現代電子系統裡,數位電路靠時鐘(clock)驅動、靠位元操作(0/1),處理速度與功耗常常受限於晶體管切換速度、電容充放電、錯誤校正等額外開銷。這些開銷隨著速度升級與精度需求變嚴會呈指數增長。

 

尤其在通訊、雷達、無線感測等高頻應用裡,輸入信號常常存在於微波頻段(數十 GHz),若要把訊號先轉換到數位領域,再做運算與判別,整個過程就可能變成瓶頸。

 

微波類比運算的新路:頻域內直接操作

 

    康乃爾團隊的突破就是:不要把信號拉回到時間/數位世界,不要做完整的抽樣與轉換。他們設計出一塊晶片,直接在微波頻域裡做「神經網路式」運算,並且可以在廣頻帶(tens of gigahertz)內即時處理。 

 

這塊晶片名為「整合式微波神經網路」(integrated microwave neural network, MNN)。它並非一種單純的濾波器,而是一種類神經網路般的架構。晶片內部有可調諧的波導(tunable waveguides)與電磁模式耦合結構。透過這些結構,它可以改變微波信號在頻域的行為,以識別、分類、轉換輸入訊號。 

 

簡單說,它把多頻的微波訊號當「輸入特徵」,在頻域內進行計算,最後輸出一組頻域「特徵譜」或分類結果。後續可以用簡單、低功耗的電子電路讀出結果,不必再經過大規模數位運算。

 

技術重點與數據

 

  • 功耗:整體工作功率低於 200 mW。
  • 分類精度:在多種無線調變訊號分類任務中,正確率達 88% 或以上,與傳統數位神經網路相當。 
  • 面積/集成性:它是「整合式」的,植入於標準矽片上,不需額外複雜的異質材料。
  • 功能覆蓋:包括無線訊號解碼、雷達目標追蹤以及一般數位資料處理等。 

 

這些數據令人振奮:在極低功耗下完成原本需大量數位計算的任務,這就是它的殺手級潛力。


二、關鍵設計:如何讓微波「變腦」?

 

    這裡要講得比報導粒度更深入,才能看清技術內部的挑戰與核心智慧。

 

非線性耦合與模式干涉

 

    微波晶片裡的耦合結構與波導不是直線、單一模式那麼單純。它們可以互相耦合、交融,產生非線性互動與干涉效應。通過調控耦合強度、波導參數與頻率響應,設計者可以讓輸入信號在微波域「自我演化」成某種分類、特徵譜。

 

換言之,訊號在被注入晶片後,會在晶片內部的電磁場中「跑一段程式」——這段程式由晶片結構決定。輸出頻譜反映出訊號的屬性或分類。這就像把神經網路的「權重」與「非線性激活」內建在電磁結構中,而不是以數位運算方式執行。

 

這樣設計的優勢是:訊號不需多次數位處理、不需高速 ADC/DAC(類比/數位轉換器),減少延遲與功耗。

 

訓練與可重組性

 

    晶片內部結構設計好後,還要「教」它做什麼任務。康乃爾團隊使用慢速控制比特流(例如每秒 150 Mbps)來重組晶片內部模式參數。這種控制流調整耦合參數,使晶片在頻域輸出對應所需的特徵轉換。

 

也就是說,晶片是可重構的,不是只能做一件事。當你需要它分類無線調變、或追蹤雷達目標、或做數位序列判定時,它可以透過控制流重新設定。這賦予它一定的通用性,而非專屬於單一任務。

在論文與報導中,團隊展示它可以搜索位元序列、辨識調變格式(modulation scheme)、甚至在雷達應用中追蹤飛機軌跡。

 

抗雜訊、誤差與可擴展性

 

實驗階段這樣的設計還有許多限制與潛在風險:

 

  • 微波場中的噪聲、畸變與非理想耦合可能影響分類精度
  • 可編輯程式控制流速度與精度可能成為瓶頸
  • 若要大規模網路、深度結構,要在晶片內部佈線與耦合設計上克服電磁干擾
  • 面對環境變化(溫度、材料偏差)時,系統需具備校正機制

 

報導與論文都指出,研究者正努力改善準確度、降低功耗,並讓它能與現有數位與微波平台整合。


三、為什麼這是重要突破?

 

    從科技角度講,它是一次跨越式嘗試:讓運算與通訊硬件靠物理場效應「直接計算」,跳過數位抽樣與轉換的額外開銷。

 

在能源趨嚴、效能需求爆炸的時代,這樣的方式具有潛力去重新定義高頻計算架構。以下是幾個意義面的觀察。

 

對 AI 與邊緣運算的影響

 

    微波晶片天生對訊號敏感,尤其適合連續頻域流。若成熟,它可以直接把無線訊號、雷達波、通訊資料流當成輸入,並在本地端(edge device)即時判別、分類或處理。對 AI 推理來說,它甚至可能當作加速器使用。

 

假設你在一個物聯網裝置、衛星、手機、或穿戴式裝置裡安裝這種晶片,那你就能「就地判斷」無需全部回傳雲端。這在能源、隱私與延遲層面都有潛在好處。

 

這項技術如果成功商用,有以下幾個可能方向與風險:

 

  • 能源減排潛力高:以不到 200 mW 的功率完成高頻運算,相比於傳統數位處理器可以節省很多能耗。對於大規模通訊基礎建設、資料中心或邊緣裝置,若普及,可能帶來整體功耗下降。
  • 材料與製程整合:這晶片是用標準矽晶片製程整合在矽上,不需昂貴異質材料,理論上更易量產。這對確保技術在可持續工業鏈的前提下落地有利。
  • 風險與排程壓力:目前仍是實驗室成果,商用成熟需面對失效率、長期穩定性、熱管理、校準維護等問題。若在大規模應用中出現失靈或誤判,可能帶來安全風險(尤其在通訊、雷達、監控領域)。
  • 治理與安全性考量:這種晶片若用於安全、監控、通信類系統,其分類與偵測能力強,可能被納入軍事或電子對抗應用。這涉及治理、出口管制與倫理風險。

 

對計算架構與未來晶片設計的挑戰刺激

 

    這類運算方式打破「數位為王」的架構思維。未來晶片設計方向或許不再只是減小電晶體、加速數位處理,而是更多「物理場級」設計——讓訊號場本身就具備運算能力。

 

這會促使跨領域設計師(電磁學、材料科學、電路設計、機器學習)更緊密合作。未來的「晶片」或許同時是感測器、運算器與通訊器的合體。


四、瓶頸與風險:別讓光環遮住問題

 

我們在這裡也要講清楚它目前的弱點與障礙。

 

精度與穩定性的限制

 

    即便在報導中提到 88% 精度,其實在更複雜任務、噪聲環境或多任務情況下,這個精度可能急劇下降。晶片對雜訊、溫度變化、製程變異敏感。

 

此外,這種「場效應運算」本身可能缺乏數位電路那樣的精確可重複性。當環境輕微變動,結果可能漂移。

 

通用性與深度結構的挑戰

 

    目前展示的任務多屬於分類或特徵識別,尚未展示類似多層深度網路的大規模運算結構。若要支持更複雜的 AI 模型(如語言模型、影像模型),要在晶片內構建多層耦合結構,這難度極高。

控制流(用來重新配置晶片參數)速度與精度也可能成為瓶頸。若這部分控制與重設太慢或不精確,那實用性就大打折扣。

 

整合性與系統合作問題

 

    一塊晶片是不夠的。要落地,仍需與現有的通訊、數位、輸入/輸出電路整合。訊號進出、資料讀寫、控制介面都要相容。如果不解這些系統整合問題,這顆晶片就可能成為孤島。

 

商業化風險與成本壓力

 

    把實驗室成果轉為量產,面對成本、良率、可靠度驗證等。若成本過高、良率低,即使性能優異,也可能商業上不具競爭力。

此外,若在初期市場被大廠(如 NVIDIA、Intel、ARM 等)視為威脅,他們可能快速在數位加速器上做優化與競爭,以壓低新技術的市場空間。


五、未來展望:我所看到的三大方向

 

從現在往前看,這顆晶片可能走的三條路徑:

 

1. 通訊/無線專用加速器

 

    初期最有可能落地的是在通訊/無線領域。對無線信號分類、頻譜偵測、干擾偵測、IoT 裝置的射頻前端做運算分流,讓傳輸系統本身具備智慧。這是應用與商業切入點。

 

2. 邊緣 AI 推理器

 

    在低算力但高能效需求裝置(如無線感測器、無人機、衛星、穿戴裝置)裡,這樣的晶片若能穩定,可能成為 AI 推理的加速器。但這條路需要先解決通用性與誤差控制問題。

 

3. 混合平台與共晶片設計

 

    未來可能不會把它當成整體替代,而是與數位處理器混合設計:讓微波晶片負責高頻特徵處理,數位電路處理精確運算與控制。這樣的混合平台可能是最務實的過渡方案。

 

結語:前瞻且務實看這顆晶片

 

    這顆「微波大腦」晶片在報導與論文展示出的潛力無可否認。它帶來的不是錦上添花,而可能是真正突破數位運算極限的新方向。

我們不需要矯枉過正吹噓它已能肩負 AI 世代轉型。目前它還在試驗室階段。真正商業落地,要跨越穩定性、誤差控制、系統整合、成本可控性等重重障礙。

 

 

參考資料

1. Cornell’s Tiny “Microwave Brain” Chip Could Transform Computing and AI. SciTechDaily.


2. Cornell researchers build first ‘microwave brain’ on a chip. ScienceDaily.

 

3. Cornell researchers create first microwave neural network on a chip. News-Medical.

 

4. Researchers build first “microwave brain” on a chip. Cornell Chronicle.

 

5. First “Microwave Brain” Chip Merges Ultrafast Data and Wireless. Neuroscience News.

 

6. ResearchGate: “An integrated microwave neural network for broadband computation and communication.”

 

7. SemiEngineering “Research Bits: Sept. 2” on microwave neural network summary.

 

8. Code and data repository for that paper on Zenodo.

 

9. Alyssa Apsel (背景介紹) 資訊。