0%

机器学习知识帖

线性回归

  • 梯度下降法

  • 正规方程法(最小二乘法)

    逻辑回归

  • 逻辑回归

    交叉熵

  • 在逻辑回归中,最常用的是代价函数是交叉熵(Cross Entropy),交叉熵是一个常见的代价函数,在神经网络中也会用到。下面是《神经网络与深度学习》一书对交叉熵的解释:

  • 交叉熵是对「出乎意料」(译者注:原文使用suprise)的度量。神经元的目标是去计算函数x→y=y(x)。但是我们让它取而代之计算函数x→a=a(x)。假设我们把a当作y等于1的概率,1−a是y等于0的概率。那么,交叉熵衡量的是我们在知道y的真实值时的平均「出乎意料」程度。当输出是我们期望的值,我们的「出乎意料」程度比较低;当输出不是我们期望的,我们的「出乎意料」程度就比较高。

  • 在1948年,克劳德·艾尔伍德·香农将热力学的熵,引入到信息论,因此它又被称为香农熵(Shannon Entropy),它是香农信息量(Shannon Information Content, SIC)的期望。香农信息量用来度量不确定性的大小:一个事件的香农信息量等于0,表示该事件的发生不会给我们提供任何新的信息,例如确定性的事件,发生的概率是1,发生了也不会引起任何惊讶;当不可能事件发生时,香农信息量为无穷大,这表示给我们提供了无穷多的新信息,并且使我们无限的惊讶

  • [交叉熵](https://blog.csdn.net/rtygbwwwerr/article/details/50778098

  • picture 1

    • 上述式子是熵的期望(不同情况的熵的加权和)
  • 代价函数

    SVM

  • SVM原理

    KMeans

  • KMeans

    Dueling DQN

  • Dueling DQN

    文章链接

  • openai用强化学习玩我的世界