梯度下降 (梯度遞減)

Gradient Descent (SGD)

透過梯度逐步調整參數以最小化損失的優化方法

詳細解釋

梯度下降(Gradient Descent)是機器學習 (ML)中最基礎的優化算法,透過迭代地沿著損失函數梯度的反方向更新參數,逐步逼近最優解。

變體:

  • SGD:隨機梯度下降,每批樣本更新
  • Adam:結合動量與自適應學習率,最常用
  • 學習率:控制每步更新幅度

反向傳播 (倒傳遞)配合:反向傳播算梯度,梯度下降做更新。

探索更多AI詞彙

查看所有分類,繼續學習AI知識