各位大神,我想用StanfordCoreNLP来对txt进行中文分词,但是出现的bug不知道怎么解决?求大神帮我解答一下,谢谢
bug:
我把stanford的jar包换成4.0.0版本的就没事了。4.3.2版本和3.6.0都会出问题,但还没弄清楚原因。
请问楼主解决这个问题了吗?我今天也是报了这个错。应该是corenlp.py中的r = requests.post(self.url, params=params, data=data, headers={'Connection': 'close'})没能得到结果,但是我搞不懂为什么没得到结果。处理英文时不会报错。
可能是有些句子太长,stanfordcorenlp没有返回响应结果,只是返回了一条错误语句,这条语句当然用json解析不了。
我把stanford的jar包换成4.0.0版本的就没事了。4.3.2版本和3.6.0都会出问题,但还没弄清楚原因。
请问楼主解决这个问题了吗?我今天也是报了这个错。应该是corenlp.py中的r = requests.post(self.url, params=params, data=data, headers={'Connection': 'close'})没能得到结果,但是我搞不懂为什么没得到结果。处理英文时不会报错。
可能是有些句子太长,stanfordcorenlp没有返回响应结果,只是返回了一条错误语句,这条语句当然用json解析不了。