为什么PaddleNLP BERT的输出每次都不一样
收藏
import paddle
from paddlenlp.transformers import BertModel, BertTokenizer
model = BertModel.from_pretrained('bert-base-chinese')
tokenizer = BertTokenizer.from_pretrained('bert-base-chinese')
tokens = tokenizer.encode('我是谁')
ids = tokens['input_ids']
x = paddle.to_tensor(ids, dtype='int64').unsqueeze(0)
outs = model(x)
print(outs[0])
0
收藏
请登录后评论
这个是对话模型把,每次输出不一样不是很正常吗?