Stanford Core NLP 使用 tokensRegex
Stanford Core NLP use tokensRegex
让我们采取以下行动
client = CoreNLPClient(memory='1G', threads=1, annotators=['tokenize','ssplit','pos','lemma','ner','depparse'], timeout=1000)
ann = client.annotate('Wow a nice sentence here')
sentence = ann.sentence[0]
然后我处理标签、依赖关系等,但我还想使用 TokensRegex
来提取特定的单词。我看到了使用 requests
() 的答案,但是为了使用 TokensRegex
必须发送另一个请求(并再次进行标记)似乎很奇怪。我们可以只使用已经注释的 sentence
和 TokensRegex 吗?
编辑
我看到我们可以使用 client.tokensregex('Wow a nice sentence here', <pattern>
) 但是我想这仍然需要再次发送请求
有一个 tokensregex
注释器,您可以将其放置在管道的末尾,它将 运行 规则。
让我们采取以下行动
client = CoreNLPClient(memory='1G', threads=1, annotators=['tokenize','ssplit','pos','lemma','ner','depparse'], timeout=1000)
ann = client.annotate('Wow a nice sentence here')
sentence = ann.sentence[0]
然后我处理标签、依赖关系等,但我还想使用 TokensRegex
来提取特定的单词。我看到了使用 requests
(TokensRegex
必须发送另一个请求(并再次进行标记)似乎很奇怪。我们可以只使用已经注释的 sentence
和 TokensRegex 吗?
编辑
我看到我们可以使用 client.tokensregex('Wow a nice sentence here', <pattern>
) 但是我想这仍然需要再次发送请求
有一个 tokensregex
注释器,您可以将其放置在管道的末尾,它将 运行 规则。