这是结论图:softmax+cross_entropy 对不上pytorch的nn.CrossEntropyLoss,而且有明显的特点就是大于64的loss都变为64;图中分别是cross_entropy 和 nn.CrossEntropyLoss的输出

这是特征的输入100x2:
score_out_tr_np.npy.zip
这是上面数据通过paddle1.5.0的softmax层之后的结果:
softmax_out_tr_np.npy.zip
这是分类的真实标签100x1:
label_tr_np.npy.zip
这是paddle1.5.0的cross_entropy结果:
ce_tr_np.npy.zip
这是pytorch 0.4.1的nn.CrossEntropyLoss(reduce=False)的结果
loss_fn = nn.CrossEntropyLoss(reduce=False)
tmp_np = loss_fn(torch.from_numpy(score_out_tr_np), torch.from_numpy(label_tr_np[:, 0]))
torch_res.npy.zip
这是结论图:softmax+cross_entropy 对不上pytorch的nn.CrossEntropyLoss,而且有明显的特点就是大于64的loss都变为64;图中分别是cross_entropy 和 nn.CrossEntropyLoss的输出

这是特征的输入100x2:
score_out_tr_np.npy.zip
这是上面数据通过paddle1.5.0的softmax层之后的结果:
softmax_out_tr_np.npy.zip
这是分类的真实标签100x1:
label_tr_np.npy.zip
这是paddle1.5.0的cross_entropy结果:
ce_tr_np.npy.zip
这是pytorch 0.4.1的nn.CrossEntropyLoss(reduce=False)的结果
torch_res.npy.zip