下面哪一项对梯度下降(GD) 和随机梯度下降(SGD) 的描述是正确的?
1 在 GD和SGD中,每一次迭代中都是更新一组参数以最小化损失函数。
2 在 SGD 中, 每一次迭代都需要遍历训练集中的所有样本以更新一次参数。
3 在 GD 中, 每一 次迭代需要使用整个训练集或子训练集的数据更新一个参数。
只有1
只有2
只有3
都正确