【Pytorch学习笔记】交叉熵损失函数CrossEntropyLoss的案例使用
文章目录
- 前言
- 一、案例代码
- 1.引入库
- 2.生成网络输出 以及 目标输出
- 3.熟悉计算公式,手动计算第一个样本
- 4.交叉熵损失权重
- 5.CrossEntropy loss: ignore_index
- 二、完整代码
- 总结
前言
分类问题常用的损失函数为交叉熵(Cross Entropy Loss)。
交叉熵描述了两个概率分布之间的距离,交叉熵越小说明两者之间越接近。
熵是信息量的期望值,它是一个随机变量的确定性的度量。
熵越大,变量的取值越不确定;反之,熵越小,变量取值就越确定。
本文将使用交叉熵损失函数用作一个简单案例,代码仅供参考学习!
提示:以下是本篇文章正文内容,下面案例可供参考
一、案例代码
1.引入库
代码如下(示例):
本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!
