单选题

下面哪一项对梯度下降(GD) 和随机梯度下降(SGD) 的描述是正确的? 

1 在 GD和SGD中,每一次迭代中都是更新一组参数以最小化损失函数。

2 在 SGD 中, 每一次迭代都需要遍历训练集中的所有样本以更新一次参数。 

3 在 GD 中, 每一 次迭代需要使用整个训练集或子训练集的数据更新一个参数。

A

只有1

B

只有2

C

只有3

D

都正确

赣ICP备20007335号-2