Skip to content

Commit 1978bff

Browse files
committed
Fix links in asciidoctor
It needs some zero width spaces.
1 parent 3f1f8f8 commit 1978bff

File tree

7 files changed

+12
-12
lines changed

7 files changed

+12
-12
lines changed

052_Mapping_Analysis/40_Analysis.asciidoc

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -155,7 +155,7 @@ GET /_analyze
155155
--------------------------------------------------
156156
`token` 是实际存储到索引中的词条。 `position` 指明词条在原始文本中出现的位置。 `start_offset` 和 `end_offset` 指明字符在原始字符串中的位置。
157157

158-
TIP: ((("types", "type values returned by analyzers")))每个分析器的 `type` 值都不一样,可以忽略它们。它们在Elasticsearch中的唯一作用在于{ref}/analysis-keep-types-tokenfilter.html[`keep_types` token 过滤器]。
158+
TIP: ((("types", "type values returned by analyzers")))每个分析器的 `type` 值都不一样,可以忽略它们。它们在Elasticsearch中的唯一作用在于​{ref}/analysis-keep-types-tokenfilter.html[`keep_types` token 过滤器]​
159159

160160
`analyze` API 是一个有用的工具,它有助于我们理解Elasticsearch索引内部发生了什么,随着深入,我们会进一步讨论它。
161161

230_Stemming/10_Algorithmic_stemmers.asciidoc

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -16,7 +16,7 @@ Elasticsearch 中的大部分 stemmers (词干提取器)是基于算法的
1616

1717
==== 使用基于算法的词干提取器
1818

19-
你((("stemming words", "algorithmic stemmers", "using")))可以使用 {ref}/analysis-porterstem-tokenfilter.html[`porter_stem`] 词干提取器或直接使用 {ref}/analysis-kstem-tokenfilter.html[`kstem`] 分词过滤器,或使用 {ref}/analysis-snowball-tokenfilter.html[`snowball`] 分词过滤器创建一个具体语言的 Snowball 词干提取器。所有基于算法的词干提取器都暴露了用来接受 `语言` 参数的统一接口: {ref}/analysis-stemmer-tokenfilter.html[`stemmer` token filter] 。
19+
你((("stemming words", "algorithmic stemmers", "using")))可以使用 ​{ref}/analysis-porterstem-tokenfilter.html[`porter_stem`]​ 词干提取器或直接使用 {ref}/analysis-kstem-tokenfilter.html[`kstem`] 分词过滤器,或使用 {ref}/analysis-snowball-tokenfilter.html[`snowball`] 分词过滤器创建一个具体语言的 Snowball 词干提取器。所有基于算法的词干提取器都暴露了用来接受 `语言` 参数的统一接口: {ref}/analysis-stemmer-tokenfilter.html[`stemmer` token filter] 。
2020

2121
例如,假设你发现 `英语` 分析器使用的默认词干提取器太激进并且((("english analyzer", "default stemmer, examining")))你想使它不那么激进。首先应在 {ref}/analysis-lang-analyzer.html[language analyzers] 查看 `英语` 分析器配置文件,配置文件展示如下:
2222

@@ -64,7 +64,7 @@ Elasticsearch 中的大部分 stemmers (词干提取器)是基于算法的
6464

6565
重新审视下现在的配置,添加上以下修改,我们可以把这份配置当作新分析器的基本配置:
6666

67-
* 修改 `english_stemmer` ,将 `english` ({ref}/analysis-porterstem-tokenfilter.html[`porter_stem`] 分词过滤器的映射)替换为 `light_english` (非激进的 {ref}/analysis-kstem-tokenfilter.html[`kstem`] 分词过滤器的映射)。
67+
* 修改 `english_stemmer` ,将 `english` (​{ref}/analysis-porterstem-tokenfilter.html[`porter_stem`]​ 分词过滤器的映射)替换为 `light_english` (非激进的 {ref}/analysis-kstem-tokenfilter.html[`kstem`] 分词过滤器的映射)。
6868

6969
* 添加 <<asciifolding-token-filter,`asciifolding`>> 分词过滤器用以移除外语的附加符号。((("asciifolding token filter")))
7070

230_Stemming/40_Choosing_a_stemmer.asciidoc

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -8,7 +8,7 @@
88

99
`english`::
1010

11-
{ref}/analysis-porterstem-tokenfilter.html[`porter_stem`] 语汇单元过滤器(token filter)。
11+
{ref}/analysis-porterstem-tokenfilter.html[`porter_stem`]&#8203; 语汇单元过滤器(token filter)。
1212

1313
`light_english`::
1414

230_Stemming/50_Controlling_stemming.asciidoc

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -20,7 +20,7 @@
2020
来标记这些词语列表为 _keywords_ ,用来阻止后续的词干提取过滤器来触碰这些词语。((("keyword_marker token filter", "preventing stemming of certain words")))
2121

2222
例如,我们创建一个简单自定义分析器,使用
23-
{ref}/analysis-porterstem-tokenfilter.html[`porter_stem`] 语汇单元过滤器,同时阻止 `skies` 的词干提取:((("porter_stem token filter")))
23+
{ref}/analysis-porterstem-tokenfilter.html[`porter_stem`]&#8203; 语汇单元过滤器,同时阻止 `skies` 的词干提取:((("porter_stem token filter")))
2424

2525
[source,json]
2626
------------------------------------------

240_Stopwords/20_Using_stopwords.asciidoc

Lines changed: 4 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -1,7 +1,7 @@
11
[[using-stopwords]]
22
=== 使用停用词
33

4-
移除停用词的工作是由 `stop` 停用词过滤器完成的,可以通过创建自定义的分析器来使用它(参见 使用停用词过滤器{ref}/analysis-stop-tokenfilter.html[`stop` 停用词过滤器])。但是,也有一些自带的分析器预置使用停用词过滤器:
4+
移除停用词的工作是由 `stop` 停用词过滤器完成的,可以通过创建自定义的分析器来使用它(参见 使用停用词过滤器&#8203;{ref}/analysis-stop-tokenfilter.html[`stop` 停用词过滤器]&#8203;)。但是,也有一些自带的分析器预置使用停用词过滤器:
55

66
{ref}/analysis-lang-analyzer.html[语言分析器]::
77

@@ -95,7 +95,7 @@ The quick and the dead
9595
---------------------------------
9696

9797
TIP:
98-
Elasticsearch 中预定义的与语言相关的停用词列表可以在文档(("languages", "predefined stopword lists for"))){ref}/analysis-stop-tokenfilter.html[`stop` 停用词过滤器] 中找到。
98+
Elasticsearch 中预定义的与语言相关的停用词列表可以在文档(("languages", "predefined stopword lists for")))&#8203;{ref}/analysis-stop-tokenfilter.html[`stop` 停用词过滤器]&#8203; 中找到。
9999

100100
停用词可以通过指定一个特殊列表 `_none_` 来禁用。例如,使用 `_english_` 分析器而不使用停用词,可以通过以下方式做到:
101101

@@ -141,7 +141,7 @@ PUT /my_index
141141
[[stop-token-filter]]
142142
==== 使用停用词过滤器(Using the stop Token Filter)
143143

144-
当你创建 `custom` 分析器时候,可以组合多个 {ref}/analysis-stop-tokenfilter.html[`stop` 停用词过滤器] 分词器((("stopwords", "using stop token filter")))((("stop token filter", "using in custom analyzer")))。例如:我们想要创建一个西班牙语((("Spanish", "custom analyzer for")))((("light_spanish stemmer")))的分析器:
144+
当你创建 `custom` 分析器时候,可以组合多个 &#8203;{ref}/analysis-stop-tokenfilter.html[`stop` 停用词过滤器]&#8203; 分词器((("stopwords", "using stop token filter")))((("stop token filter", "using in custom analyzer")))。例如:我们想要创建一个西班牙语((("Spanish", "custom analyzer for")))((("light_spanish stemmer")))的分析器:
145145

146146
* 自定义停用词列表
147147
* `light_spanish` 词干提取器
@@ -192,7 +192,7 @@ PUT /my_index
192192

193193
想要更新分析器的停用词列表有多种方式,((("analyzers", "stopwords list, updating")))((("stopwords", "updating list used by analyzers"))) 分析器在创建索引时,当集群节点重启时候,或者关闭的索引重新打开的时候。
194194

195-
如果你使用 `stopwords` 参数以内联方式指定停用词,那么你只能通过关闭索引,更新分析器的配置{ref}/indices-update-settings.html#update-settings-analysis[update index settings API],然后在重新打开索引才能更新停用词。
195+
如果你使用 `stopwords` 参数以内联方式指定停用词,那么你只能通过关闭索引,更新分析器的配置&#8203;{ref}/indices-update-settings.html#update-settings-analysis[update index settings API]&#8203;,然后在重新打开索引才能更新停用词。
196196

197197
如果你使用 `stopwords_path` 参数指定停用词的文件路径((("stopwords_path parameter"))) ,那么更新停用词就简单了。你只需更新文件(在每一个集群节点上),然后通过两者之中的任何一个操作来强制重新创建分析器:
198198

410_Scaling/55_Retiring_data.asciidoc

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -74,7 +74,7 @@ POST /logs_2014-09-30/_settings
7474
{ "number_of_replicas": 1 }
7575
-------------------------
7676

77-
当然,没有副本我们将面临磁盘故障而导致丢失数据的风险。你可能想要先通过((("snapshot-restore API"))){ref}/modules-snapshots.html[`snapshot-restore` API]备份数据。
77+
当然,没有副本我们将面临磁盘故障而导致丢失数据的风险。你可能想要先通过((("snapshot-restore API")))&#8203;{ref}/modules-snapshots.html[`snapshot-restore` API]&#8203;备份数据。
7878

7979
[[close-indices]]
8080
==== 关闭旧索引
@@ -99,5 +99,5 @@ POST /logs_2014-01-*/_open <3>
9999
[[archive-indices]]
100100
==== 归档旧索引
101101

102-
最后,非常旧的索引((("indices", "archiving old indices")))可以通过{ref}/modules-snapshots.html[`snapshot-restore` API]归档至长期存储例如共享磁盘或者 Amazon S3,以防日后你可能需要访问它们。
102+
最后,非常旧的索引((("indices", "archiving old indices")))可以通过&#8203;{ref}/modules-snapshots.html[`snapshot-restore` API]&#8203;归档至长期存储例如共享磁盘或者 Amazon S3,以防日后你可能需要访问它们。
103103
当存在备份时我们就可以将索引从集群中删除了。

410_Scaling/80_Scale_is_not_infinite.asciidoc

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -63,5 +63,5 @@ POST /counters/pageview/home_page/_update
6363
这种嵌套的方式有可能会增加文档数量,但 Elasticsearch 生来就是为了解决它的。重要的是保持集群状态小而敏捷。
6464

6565
最终,不管你的初衷有多好,你可能会发现集群节点数量、索引、映射对于一个集群来说还是太大了。
66-
此时,可能有必要将这个问题拆分到多个集群中了。感谢{ref}/modules-tribe.html[`tribe` nodes],
66+
此时,可能有必要将这个问题拆分到多个集群中了。感谢&#8203;{ref}/modules-tribe.html[`tribe` nodes]&#8203;
6767
你甚至可以向多个集群发出搜索请求,就好像我们有一个巨大的集群那样。

0 commit comments

Comments
 (0)