加入收藏 | 设为首页 | 会员中心 | 我要投稿 湖南网 (https://www.hunanwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 建站 > 正文

神经收集中的各类丧失函数先容

发布时间:2019-10-09 10:27:59 所属栏目:建站 来源:人工智能遇见磐创
导读:差异的丧失函数可用于差异的方针。在这篇文章中,我将带你通过一些示例先容一些非经常用的丧失函数。这篇文章提到的一些参数细节都属于tensorflow可能keras的实现细节。 丧失函数的扼要先容 丧失函数有助于优化神经收集的参数。我们的方针是通过优化神经网

差异的丧失函数可用于差异的方针。在这篇文章中,我将带你通过一些示例先容一些非经常用的丧失函数。这篇文章提到的一些参数细节都属于tensorflow可能keras的实现细节。

丧失函数的扼要先容

丧失函数有助于优化神经收集的参数。我们的方针是通过优化神经收集的参数(权重)来很洪流平地镌汰神经收集的丧失。通过神经收集将方针(现实)值与猜测值举办匹配,再颠末丧失函数就可以计较出丧失。然后,我们行使梯度降落法来优化收集权重,以使丧失最小化。这就是我们实习神经收集的方法。

均方偏差

当你执行回归使命时,可以选择该丧失函数。顾名思义,这种丧失是通过计较现实(方针)值和猜测值之间的平方差的均匀值来计较的。

譬喻,你有一个神经收集,通过该收集可以获取一些与衡宇有关的数据并猜测其价值。在这种环境下,你可以行使MSE(均方偏差)丧失。根基上,在输出为实数的环境下,应行使此丧失函数。

神经收集中的各类丧失函数先容

二元交错熵

当你执行二元分类使命时,可以选择该丧失函数。假如你行使BCE(二元交错熵)丧失函数,则只需一个输出节点即可将数据分为两类。输出值应通过sigmoid激活函数,以便输出在(0-1)范畴内。

譬喻,你有一个神经收集,该收集获取与大气有关的数据并猜测是否会下雨。假如输出大于0.5,则收集将其分类为会下雨;假如输出小于0.5,则收集将其分类为不会下雨。即概率得分值越大,下雨的机遇越大。

神经收集中的各类丧失函数先容

实习收集时,假如标签是下雨,则输入收集的方针值应为1,不然为0。

重要的一点是,假如你行使BCE丧失函数,则节点的输出应介于(0-1)之间。这意味着你必需在最终输出中行使sigmoid激活函数。由于sigmoid函数可以把任何实数值转换(0–1)的范畴。(也就是输出概率值)

假如你不想在最后一层上表现行使sigmoid激活函数,你可以在丧失函数的参数上配置from logits为true,它会在内部挪用Sigmoid函数应用到输出值。

多分类交错熵

当你执行多类分类使命时,可以选择该丧失函数。假如行使CCE(多分类交错熵)丧失函数,则输出节点的数目必需与这些类沟通。最后一层的输出应该通过softmax激活函数,以便每个节点输出介于(0-1)之间的概率值。

譬喻,你有一个神经收集,它读取图像并将其分类为猫或狗。假如猫节点具有高概率得分,则将图像分类为猫,不然分类为狗。根基上,假如某个种别节点具有很高的概率得分,图像都将被分类为该种别。

神经收集中的各类丧失函数先容

为了在实习时提供方针值,你必需对它们举办一次one-hot编码。假如图像是猫,则方针向量将为(1,0),假如图像是狗,则方针向量将为(0,1)。根基上,方针向量的巨细将与类的数量沟通,而且对应于现实类的索引位置将为1,全部其他的位置都为零。

假如你不想在最后一层上表现行使softmax激活函数,你可以在丧失函数的参数上配置from logits为true,它会在内部挪用softmax函数应用到输出值。与上述环境沟通。

稀少多分类交错熵

该丧失函数险些与多分类交错熵沟通,只是有一点小变动。

行使SCCE(稀少多分类交错熵)丧失函数时,不必要one-hot情势的方针向量。譬喻假如方针图像是猫,则只需转达0,不然转达1。根基上,无论哪个类,你都只需转达该类的索引。

神经收集中的各类丧失函数先容

这些是最重要的丧失函数。实习神经收集时,也许会行使这些丧失函数之一。

下面的链接是Keras中全部可用丧失函数的源代码。

(https://github.com/keras-team/keras/blob/c658993cf596fbd39cf800873bc457e69cfb0cdb/keras/backend/numpy_backend.py)

(编辑:湖南网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读