斯坦福 NLP:没有标记化的句子拆分?

Stanford NLP: Sentence splitting without tokenization?

我可以像 Apache OpenNLP 一样通过 Stanford NLP 的命令行界面检测句子吗? https://opennlp.apache.org/documentation/1.5.3/manual/opennlp.html#tools.sentdetect

根据文档,斯坦福 NLP 需要根据 http://nlp.stanford.edu/software/corenlp.shtml

进行标记化

我们的管道要求您先标记;我们在句子分割算法中使用这些标记。如果您的文本是预标记化的,您可以使用 DocumentPreproccesor 并请求仅空白标记化。

如果我误解了你的问题,请告诉我。