StanfordCoreNLP
枯叶蝶小钰 发布于2020-05 浏览:4422 回复:3
1
收藏
快速回复

各位大神,我想用StanfordCoreNLP来对txt进行中文分词,但是出现的bug不知道怎么解决?求大神帮我解答一下,谢谢

 

bug:

收藏
点赞
1
个赞
共3条回复 最后由完完美美的5回复于2021-12
#4完完美美的5回复于2021-12

我把stanford的jar包换成4.0.0版本的就没事了。4.3.2版本和3.6.0都会出问题,但还没弄清楚原因。

0
#3完完美美的5回复于2021-11

请问楼主解决这个问题了吗?我今天也是报了这个错。应该是corenlp.py中的r = requests.post(self.url, params=params, data=data, headers={'Connection': 'close'})没能得到结果,但是我搞不懂为什么没得到结果。处理英文时不会报错。

0
#2blooddn回复于2020-05

可能是有些句子太长,stanfordcorenlp没有返回响应结果,只是返回了一条错误语句,这条语句当然用json解析不了。

1
TOP
切换版块