1. 普通最小二乘法

    批量梯度下降 中讨论了,如何利用梯度下降的方式,如何一步一步寻找到损失函数的最小值,得到最佳拟合的 \(\theta\),这里我们继续讨论线性拟合问题,这次尝试用 最小二乘法 直接求解 \(\theta\),就是说我们不用从山顶寻找梯度一步一步的往最低点走,某种情况下可以直接计算出 \(\theta …

    read more
  2. 批量梯度下降

    在机器学习问题中,基本上都是基于特定的损失函数,来迭代优化这个函数值,既然是损失函数,代表的是损失的多少,所以通常是寻找最小值,梯度下降法即是一种不断寻找函数极值点的方法,通常用“人物下山”来举例子,考虑你现在山上的某一点,你想要快速下山,这个过程有3点是需要确定的,才能完成这个动作

    • 我一步能迈多远 …
    read more

« Page 5 / 5

about me