收斂

Convergence

訓練過程中損失趨於穩定的狀態

詳細解釋

收斂(Convergence)在機器學習中指優化算法逐漸接近最優解的過程,損失函數值不再顯著下降或達到穩定狀態。

收斂指標:

  • 損失穩定:訓練損失變化小於某個閾值(如1e-4)
  • 梯度范數:參數更新量變得極小
  • 驗證性能:驗證集指標不再提升
  • 固定epoch:達到預設的訓練輪數

收斂類型:

  • 全域收斂:達到全局最優(凸問題可保證)
  • 局部收斂:達到局部最優(非凸問題常見)
  • 鞍點停滯:在非凸問題中收斂到鞍點
  • 發散:損失變大,通常是學習率過大

影響收斂的因素:

  • 學習率:過大導致震盪或發散,過小收斂慢
  • 損失曲面:凸問題易收斂,非凸問題可能卡住
  • 批次大小:影響梯度噪聲和收斂軌跡
  • 優化器:隨機梯度下降Adam優化器等收斂特性不同
  • 初始化:好的初始點加速收斂

監測和診斷:

收斂問題處理:

收斂不保證找到好解,需要結合過擬合 (過度擬合 / 過適)監測。

探索更多AI詞彙

查看所有分類,繼續學習AI知識