Elasticsearch - 按大写字符标记术语,例如 "TheStarTech" => [The, Star, Tech]

Elasticsearch - tokenize terms by capitalized character, for example "TheStarTech" => [The, Star, Tech]

Elasticsearch 是否支持分词器按大写字符对术语进行分词,例如:将TheStarTech 分词为术语[The, Star, Tech]Pattern tokenizer 似乎很有帮助,有什么建议吗?

看到这个:World Delimited Token Filter

它可以满足您的需求,甚至更多。您可以根据需要传入参数。检查默认为 true 的 split_on_case_change 参数。