开始训练就出各种问题,loss出点儿差错就不work。
同学,握手。。。
是个不错的项目,可是我实力不允许啊。。。
这个想法不错哇哈哈哈
loss下来效果不一定上来
loss也不一定靠谱啊。。。很多人实验loss都nan了,效果还是一般
来人!抬走
拼音也整一个phoneticize embedding
慢点 击个掌吧
坐等你们
你也可以
大佬立志从事基础研究,不喜欢搞应用么~~
做出来之前,谁敢说一定能成?技术储备、应用前景。。。都是瞬息万变
gan的loss的确不像分类,检测,分割类的模型那么容易掌控
nan是指loss 太小了已至溢出么?
我理解nan 是计算过程中除了非法值
看人爬坑终觉浅,觉知此坑儿得自蹲~~
我倒是想搞应用,但是技术储备还不够。还得学习很多东西。
上溢下溢都会nan
又get到金句
nan: not a number, 数值太大太小都会变成nan, 计算机存不了那么大或那么小的数。
理论扎实,搞应用分分钟吧~~
当然也得靠点儿运气,啥不是呢
我猜这里的运气指“调参”
同学,握手。。。
是个不错的项目,可是我实力不允许啊。。。
这个想法不错哇哈哈哈
loss下来效果不一定上来
loss也不一定靠谱啊。。。很多人实验loss都nan了,效果还是一般
来人!抬走
拼音也整一个phoneticize embedding
慢点 击个掌吧
坐等你们
你也可以
大佬立志从事基础研究,不喜欢搞应用么~~
做出来之前,谁敢说一定能成?技术储备、应用前景。。。都是瞬息万变
gan的loss的确不像分类,检测,分割类的模型那么容易掌控
nan是指loss 太小了已至溢出么?
我理解nan 是计算过程中除了非法值
看人爬坑终觉浅,觉知此坑儿得自蹲~~
我倒是想搞应用,但是技术储备还不够。还得学习很多东西。
上溢下溢都会nan
又get到金句
nan: not a number, 数值太大太小都会变成nan, 计算机存不了那么大或那么小的数。
理论扎实,搞应用分分钟吧~~
当然也得靠点儿运气,啥不是呢
我猜这里的运气指“调参”