首页 Paddle框架 帖子详情
有没有用LodTensor实现attention
收藏
快速回复
Paddle框架 问答深度学习模型训练炼丹技巧 1210 2
有没有用LodTensor实现attention
收藏
快速回复
Paddle框架 问答深度学习模型训练炼丹技巧 1210 2

最近尝试采用LodTensor实现attention,发现官方给的例子都是padding后矩阵乘法实现的。

尝试了使用LodTensor实现,发现有个问题,一个batch的数据是一个[T,D]的形状的一维LodTensor,

而attention要求的应该是类似多个[n1,D],[n2,D]...进行内积等操作,没有找到好的解决方法

有没有人尝试过用LodTensor实现attention

0
收藏
回复
全部评论(2)
时间顺序
HolliZhao
#2 回复于2020-05

这个...-_-||    还是到paddle的GitHub上问问看吧:https://github.com/PaddlePaddle/Paddle/issues

0
回复
thinc
#3 回复于2020-05

可以把LoDTensor先转成Tensor,针对LoDTensor的教程还比较少

0
回复
需求/bug反馈?一键提issue告诉我们
发现bug?如果您知道修复办法,欢迎提pr直接参与建设飞桨~
在@后输入用户全名并按空格结束,可艾特全站任一用户