詳細解釋
在設備端(手機、攝像頭、傳感器)運行 AI 模型,無需連接雲端,實現低延遲、隱私保護、離線可用的智能。
驅動因素:
- 延遲:雲端往返需 100ms+,邊緣 <10ms
- 隱私:數據不出設備(人臉、健康數據)
- 成本:減少雲端推理費用
- 可靠性:無網絡時仍能工作
- 帶寬:減少數據傳輸量
技術挑戰:
- 計算限制:手機 GPU 遠弱於雲端
- 內存:模型必須夠小才能裝下
- 功耗:電池供電設備的能耗限制
- 散熱:持續推理導致發熱
優化技術:
- 模型壓縮:剪枝、量化、蒸餾
- 輕量架構:MobileNet、EfficientNet、MobileLLM
- 硬件加速:NPU(神經處理單元)、TPU Edge
- 編譯優化:TensorFlow Lite、Core ML、ONNX Runtime
應用場景:
- 手機:實時翻譯、拍照場景識別、語音助手本地喚醒
- 攝像頭:人臉識別、異常檢測、人數統計
- 自動駕駛:毫秒級決策必須本地處理
- 工業:設備預測性維護、質檢
- 可穿戴:健康監測、手勢識別
開發框架:
- TensorFlow Lite:Google 的移動/嵌入式方案
- Core ML:Apple 生態的原生支持
- ONNX Runtime:跨平台部署
- MediaPipe:Google 的跨平台 ML 管道
雲邊協同:
- 混合架構:簡單任務本地,複雜任務雲端
- 模型分片:部分層在邊緣,部分在雲端
這是「AI 無處不在」的基礎—— 從數據中心到掌中之物。