如何获取Stanford CoreNLP的训练数据和模型?
How to get training data and models of Stanford CoreNLP?
我从 official website and GitHub 下载了 Stanford CoreNLP。
在guides中表示
On the Stanford NLP machines, training data is available in
/u/nlp/data/depparser/nn/data
或
HERE
The list of models currently distributed is:
edu/stanford/nlp/models/parser/nndep/english_UD.gz (default, English,
Universal Dependencies)
这听起来可能是个愚蠢的问题,但我在任何发行版中都找不到这样的文件和文件夹。
在哪里可以找到 Stanford CoreNLP 官方发布的源数据和模型?
我们不会分发大部分 CoreNLP 训练数据。其中有相当一部分是非免费的,由其他人(例如 LDC https://www.ldc.upenn.edu/)制作的许可数据。
但是,通过 Universal Dependencies 项目可以获得大量免费的依赖树库:https://universaldependencies.org/。
所有 Stanford CoreNLP 模型都可以在 "models" jar 文件中找到。 edu/stanford/nlp/models/parser/nndep/english_UD.gz 在这一个:stanford-corenlp-3.9.2-models.jar
,这两个都在 zip 文件下载 http://nlp.stanford.edu/software/stanford-corenlp-full-2018-10-05.zip or can be found on Maven here: http://central.maven.org/maven2/edu/stanford/nlp/stanford-parser/3.9.2/.
我从 official website and GitHub 下载了 Stanford CoreNLP。
在guides中表示
On the Stanford NLP machines, training data is available in /u/nlp/data/depparser/nn/data
或 HERE
The list of models currently distributed is:
edu/stanford/nlp/models/parser/nndep/english_UD.gz (default, English, Universal Dependencies)
这听起来可能是个愚蠢的问题,但我在任何发行版中都找不到这样的文件和文件夹。
在哪里可以找到 Stanford CoreNLP 官方发布的源数据和模型?
我们不会分发大部分 CoreNLP 训练数据。其中有相当一部分是非免费的,由其他人(例如 LDC https://www.ldc.upenn.edu/)制作的许可数据。
但是,通过 Universal Dependencies 项目可以获得大量免费的依赖树库:https://universaldependencies.org/。
所有 Stanford CoreNLP 模型都可以在 "models" jar 文件中找到。 edu/stanford/nlp/models/parser/nndep/english_UD.gz 在这一个:stanford-corenlp-3.9.2-models.jar
,这两个都在 zip 文件下载 http://nlp.stanford.edu/software/stanford-corenlp-full-2018-10-05.zip or can be found on Maven here: http://central.maven.org/maven2/edu/stanford/nlp/stanford-parser/3.9.2/.