邊緣AI

Edge AI

在裝置端而非雲端運行的AI推論

詳細解釋

在設備端(手機、攝像頭、傳感器)運行 AI 模型,無需連接雲端,實現低延遲、隱私保護、離線可用的智能。

驅動因素:

  • 延遲:雲端往返需 100ms+,邊緣 <10ms
  • 隱私:數據不出設備(人臉、健康數據)
  • 成本:減少雲端推理費用
  • 可靠性:無網絡時仍能工作
  • 帶寬:減少數據傳輸量

技術挑戰:

  • 計算限制:手機 GPU 遠弱於雲端
  • 內存:模型必須夠小才能裝下
  • 功耗:電池供電設備的能耗限制
  • 散熱:持續推理導致發熱

優化技術:

  • 模型壓縮:剪枝、量化、蒸餾
  • 輕量架構:MobileNet、EfficientNet、MobileLLM
  • 硬件加速:NPU(神經處理單元)、TPU Edge
  • 編譯優化:TensorFlow Lite、Core ML、ONNX Runtime

應用場景:

  • 手機:實時翻譯、拍照場景識別、語音助手本地喚醒
  • 攝像頭:人臉識別、異常檢測、人數統計
  • 自動駕駛:毫秒級決策必須本地處理
  • 工業:設備預測性維護、質檢
  • 可穿戴:健康監測、手勢識別

開發框架:

  • TensorFlow Lite:Google 的移動/嵌入式方案
  • Core ML:Apple 生態的原生支持
  • ONNX Runtime:跨平台部署
  • MediaPipe:Google 的跨平台 ML 管道

雲邊協同:

  • 混合架構:簡單任務本地,複雜任務雲端
  • 模型分片:部分層在邊緣,部分在雲端

這是「AI 無處不在」的基礎—— 從數據中心到掌中之物。

探索更多AI詞彙

查看所有分類,繼續學習AI知識