詳細解釋
梯度下降(Gradient Descent)是機器學習 (ML)中最基礎的優化算法,透過迭代地沿著損失函數梯度的反方向更新參數,逐步逼近最優解。
變體:
- SGD:隨機梯度下降,每批樣本更新
- Adam:結合動量與自適應學習率,最常用
- 學習率:控制每步更新幅度
與反向傳播 (倒傳遞)配合:反向傳播算梯度,梯度下降做更新。
梯度下降(Gradient Descent)是機器學習 (ML)中最基礎的優化算法,透過迭代地沿著損失函數梯度的反方向更新參數,逐步逼近最優解。
變體:
與反向傳播 (倒傳遞)配合:反向傳播算梯度,梯度下降做更新。