斯坦福 NLP:没有标记化的句子拆分?
Stanford NLP: Sentence splitting without tokenization?
我可以像 Apache OpenNLP 一样通过 Stanford NLP 的命令行界面检测句子吗?
https://opennlp.apache.org/documentation/1.5.3/manual/opennlp.html#tools.sentdetect
根据文档,斯坦福 NLP 需要根据 http://nlp.stanford.edu/software/corenlp.shtml
进行标记化
我们的管道要求您先标记;我们在句子分割算法中使用这些标记。如果您的文本是预标记化的,您可以使用 DocumentPreproccesor
并请求仅空白标记化。
如果我误解了你的问题,请告诉我。
我可以像 Apache OpenNLP 一样通过 Stanford NLP 的命令行界面检测句子吗? https://opennlp.apache.org/documentation/1.5.3/manual/opennlp.html#tools.sentdetect
根据文档,斯坦福 NLP 需要根据 http://nlp.stanford.edu/software/corenlp.shtml
进行标记化我们的管道要求您先标记;我们在句子分割算法中使用这些标记。如果您的文本是预标记化的,您可以使用 DocumentPreproccesor
并请求仅空白标记化。
如果我误解了你的问题,请告诉我。