【Pytorch学习笔记】交叉熵损失函数CrossEntropyLoss的案例使用

文章目录

  • 前言
  • 一、案例代码
    • 1.引入库
    • 2.生成网络输出 以及 目标输出
    • 3.熟悉计算公式,手动计算第一个样本
    • 4.交叉熵损失权重
    • 5.CrossEntropy loss: ignore_index
  • 二、完整代码
  • 总结


前言

分类问题常用的损失函数为交叉熵(Cross Entropy Loss)。
交叉熵描述了两个概率分布之间的距离,交叉熵越小说明两者之间越接近
熵是信息量的期望值,它是一个随机变量的确定性的度量。
熵越大,变量的取值越不确定;反之,熵越小,变量取值就越确定。
本文将使用交叉熵损失函数用作一个简单案例,代码仅供参考学习!


提示:以下是本篇文章正文内容,下面案例可供参考

一、案例代码

1.引入库

代码如下(示例):

                        


本文来自互联网用户投稿,文章观点仅代表作者本人,不代表本站立场,不承担相关法律责任。如若转载,请注明出处。 如若内容造成侵权/违法违规/事实不符,请点击【内容举报】进行投诉反馈!

相关文章

立即
投稿

微信公众账号

微信扫一扫加关注

返回
顶部