新的 StanfordNLP 原生 Python 包和 Core-NLP 的 python 包装器有什么区别?
What's the difference between the new StanfordNLP native Python package and the python wrapper to Core-NLP?
任何人都可以阐明新原生 Python StanfordNLP 包中使用的神经管道之间的区别:https://stanfordnlp.github.io/stanfordnlp/
和 python 包装到 Java coreNLP 包 https://stanfordnlp.github.io/CoreNLP/?
这是两种不同的实现方式吗?我看到 StanfordNLP 包有原生神经实现,但也有 CoreNLP 包的包装器,我想知道如果一切都迁移到 python,为什么你需要这个包装器?
这两个系统完全不同。 Python-native 神经管道大致对应于 Universal Dependency Parsing from Scratch, with the Tensorflow parser used there reproduced in PyTorch. It provides a fully neural pipeline for many languages from sentence splitting through dependency parsing, exploiting UD resources, but doesn't (at present) support other things such as NER, coreference, relation extraction, open IE, and hand-written pattern matching, and is only trained on UD resources. CoreNLP,您可以通过这个或其他 Python 包装器使用它,它确实为少数语言和一些模型提供了所有这些其他组件,包括英语,接受了更多数据的训练。它具有许多 pre-neural 组件的优点和缺点(快速分词器!纯启发式 sentence-splitting)。最有可能的是,如果你正在处理正式的英文文本,你目前仍然会使用 CoreNLP 做得更好。在许多其他情况下,Python stanfordnlp 会做得更好。
任何人都可以阐明新原生 Python StanfordNLP 包中使用的神经管道之间的区别:https://stanfordnlp.github.io/stanfordnlp/
和 python 包装到 Java coreNLP 包 https://stanfordnlp.github.io/CoreNLP/?
这是两种不同的实现方式吗?我看到 StanfordNLP 包有原生神经实现,但也有 CoreNLP 包的包装器,我想知道如果一切都迁移到 python,为什么你需要这个包装器?
这两个系统完全不同。 Python-native 神经管道大致对应于 Universal Dependency Parsing from Scratch, with the Tensorflow parser used there reproduced in PyTorch. It provides a fully neural pipeline for many languages from sentence splitting through dependency parsing, exploiting UD resources, but doesn't (at present) support other things such as NER, coreference, relation extraction, open IE, and hand-written pattern matching, and is only trained on UD resources. CoreNLP,您可以通过这个或其他 Python 包装器使用它,它确实为少数语言和一些模型提供了所有这些其他组件,包括英语,接受了更多数据的训练。它具有许多 pre-neural 组件的优点和缺点(快速分词器!纯启发式 sentence-splitting)。最有可能的是,如果你正在处理正式的英文文本,你目前仍然会使用 CoreNLP 做得更好。在许多其他情况下,Python stanfordnlp 会做得更好。