Tokenize 不适用于任何字符串输入
Tokenize not working with any string input
我之前发布了关于从 link 中提取的字符串的信息,我想为其应用标记化,但没有成功。所以尝试了一个简化的例子:
我的命令行很简单:
a="Any Random text at all , nothing freaking works"
sentences = nltk.sent_tokenize(a)
我一直得到:
TypeError: Can't convert 'list' object to str implicitly
我试过 str.(a)
、a.split
、a=a[0]
,并检查过:
>>> type(a)
<class 'str'>
我的Python有问题吗?我已经检查过示例,这显然应该有效。如果有人可以 运行 看看他们是否得到结果,我将不胜感激,如果是,我的 Python
可能有什么问题
是nltk包本身的问题。如图所示,不是传入的参数,而是nltk/data.py
中的字面量['']
被认为是list,转成string。
重新安装 nltk 包可能有帮助?
显示第69行nltk/data.py
应该是path = []
我之前发布了关于从 link 中提取的字符串的信息,我想为其应用标记化,但没有成功。所以尝试了一个简化的例子: 我的命令行很简单:
a="Any Random text at all , nothing freaking works"
sentences = nltk.sent_tokenize(a)
我一直得到:
TypeError: Can't convert 'list' object to str implicitly
我试过 str.(a)
、a.split
、a=a[0]
,并检查过:
>>> type(a)
<class 'str'>
我的Python有问题吗?我已经检查过示例,这显然应该有效。如果有人可以 运行 看看他们是否得到结果,我将不胜感激,如果是,我的 Python
可能有什么问题是nltk包本身的问题。如图所示,不是传入的参数,而是nltk/data.py
中的字面量['']
被认为是list,转成string。
重新安装 nltk 包可能有帮助?
显示第69行nltk/data.py
应该是path = []