Tokenize 不适用于任何字符串输入

Tokenize not working with any string input

我之前发布了关于从 link 中提取的字符串的信息,我想为其应用标记化,但没有成功。所以尝试了一个简化的例子: 我的命令行很简单:

a="Any Random text at all , nothing freaking works"
sentences = nltk.sent_tokenize(a)

我一直得到:

TypeError: Can't convert 'list' object to str implicitly

我试过 str.(a)a.splita=a[0],并检查过:

>>> type(a)
<class 'str'>

我的Python有问题吗?我已经检查过示例,这显然应该有效。如果有人可以 运行 看看他们是否得到结果,我将不胜感激,如果是,我的 Python

可能有什么问题

是nltk包本身的问题。如图所示,不是传入的参数,而是nltk/data.py中的字面量['']被认为是list,转成string。

重新安装 nltk 包可能有帮助?

显示第69行nltk/data.py应该是path = []