Elastic 中国社区官方博客

Elastic 中国社区官方博客

分词器生成的分词可能需要进一步丰富或增强,例如小写(或大写)标记、提供同义词、开发词干词、删除撇号或标点符号等。 分词过滤器对分词进行处理以执行此类转换。

Elasticsearch 提供了将近 50 个分词过滤器,正如你可以想象的那样,在这里讨论所有这些过滤器是不可行的。 我已经设法抓住了一些,但请随时参考官方文档以了解其余的分词过滤器。 我们可以通过简单地附加到分词器并在 _analyze API 调用中使用它来测分词过滤器,如以下清单所示:

GET _analyze
{
  "tokenizer" : "standard",
  "filter" : ["uppercase","reverse"],
  "text" : "Elastic Stack"
}

上面的命令输出的结果为:

{
  "tokens": [
    {
      "token": "CITSALE",
      "start_offset": 0,
      "end_offset": 7,
      "type": "<ALPHANUM>",
      "position": 0
    },
    {
      "token": "KCATS",
      "start_offset": 8,
      "end_offset": 13,
      "type": "<ALPHANUM>",
      "position": 1
    }
  ]
}

过滤器接受一个分词过滤器数组; 例如,我们在此示例中提供了 uppercase 和 reverse 过滤器)。 输出将是 “CITSALE” 及 “KCATS”(每个词进行了大写及反转)。

你还可以将过滤器附加到自定义分析器,如以下清单所示。 然后因为我们知道如何附加分词过滤器,所以我们将看几个例子。

PUT index_with_filters
{
  "settings": {
    "analysis": {
      "analyzer": {
        "token_filter_analyzer": {
          "tokenizer": "standard",
          "filter": [ "uppercase","reverse"]
        }
      }
    }
  }
}

我们可以一如下的方式来测试上面的定制分析器:

POST index_with_filters/_analyze
{
  "text": "Elastic Stack",
  "analyzer": "token_filter_analyzer"
}

词干过滤器(stemmer filter)

词干提取是一种将单词缩减为词根的机制(例如,单词 “bark” 是 “barking” 的词根)。Elasticsearch 提供了一个开箱即用的词干提取器,可以将单词缩减为词根形式。 以下清单演示了词干分析器的用法示例。

POST _analyze
{
  "tokenizer": "standard",
  "filter": ["stemmer"],
  "text": "I like watching TV"
}

上面命令输出的结果为:

{
  "tokens": [
    {
      "token": "I",
      "start_offset": 0,
      "end_offset": 1,
      "type": "<ALPHANUM>",
      "position": 0
    },
    {
      "token": "like",
      "start_offset": 2,
      "end_offset": 6,
      "type": "<ALPHANUM>",
      "position": 1
    },
    {
      "token": "watch",
      "start_offset": 7,
      "end_offset": 15,
      "type": "<ALPHANUM>",
      "position": 2
    },
    {
      "token": "TV",
      "start_offset": 16,
      "end_offset": 18,
      "type": "<ALPHANUM>",
      "position": 3
    }
  ]
}

从上面的输出中,我们可以看出来 watching 的分词变为 watch,也就是说 watch 是 watching 的词干。

Shingle filter

Shingles 是在分词级别生成的单词 n-gram(不同于在字母级别发出 n-gram 的 n-gram 和 edge_ngram)。 例如,文本 “james bond” 发出 “james” 和 “james bond”。 以下代码显示了 shingle 过滤器的示例用法:

POST _analyze
{
  "tokenizer": "standard",
  "filter": ["shingle"],
  "text": "java python go"
}

上面的输出为:

{
  "tokens": [
    {
      "token": "java",
      "start_offset": 0,
      "end_offset": 4,
      "type": "<ALPHANUM>",
      "position": 0
    },
    {
      "token": "java python",
      "start_offset": 0,
      "end_offset": 11,
      "type": "shingle",
      "position": 0,
      "positionLength": 2
    },
    {
      "token": "python",
      "start_offset": 5,
      "end_offset": 11,
      "type": "<ALPHANUM>",
      "position": 1
    },
    {
      "token": "python go",
      "start_offset": 5,
      "end_offset": 14,
      "type": "shingle",
      "position": 1,
      "positionLength": 2
    },
    {
      "token": "go",
      "start_offset": 12,
      "end_offset": 14,
      "type": "<ALPHANUM>",
      "position": 2
    }
  ]
}

过滤器的默认行为是发出 uni-grams 和双词 n-grams。 我们可以通过创建带有自定义 shingle 过滤器的自定义分析器来更改此默认行为。 下面的清单显示了这是如何配置的。

PUT index_with_shingle
{
  "settings": {
    "analysis": {
      "analyzer": {
        "shingles_analyzer":{
          "tokenizer":"standard",
          "filter":["shingles_filter"]
        }
      },
      "filter": {
        "shingles_filter":{
          "type":"shingle",
          "min_shingle_size":2,
          "max_shingle_size":3,
          "output_unigrams":false
        }
      }
    }
  }
}

在某些文本上调用此代码(如下面的清单所示)会生成两组和三组单词。

POST index_with_shingle/_analyze
{
  "text": "java python go",
  "analyzer": "shingles_analyzer"
}

上面命令输出的结果为:

{
  "tokens": [
    {
      "token": "java python",
      "start_offset": 0,
      "end_offset": 11,
      "type": "shingle",
      "position": 0
    },
    {
      "token": "java python go",
      "start_offset": 0,
      "end_offset": 14,
      "type": "shingle",
      "position": 0,
      "positionLength": 2
    },
    {
      "token": "python go",
      "start_offset": 5,
      "end_offset": 14,
      "type": "shingle",
      "position": 1
    }
  ]
}

分析器返回 [java python, java python go, python go] 因为我们已经将过滤器配置为仅生成 2 个和 3 个单词的 shingles。 输出中删除了像 “java”、“python”等一元组(一个单词 shingle),因为我们禁用了过滤器来输出它们。

更多关于 Singles 过滤器的内容,请参考文章 “Elasticsearch: Ngrams, edge ngrams, and shingles”。

同义词过滤器

同义词是具有相同含义的不同词。 例如,对于 football 和 soccer(后者是美国对 football 的称呼),两者都应该指向足球比赛。 同义词过滤器有助于创建一组词,以帮助在搜索时产生更丰富的用户体验。

Elasticsearch 希望我们通过使用同义词分词过滤器配置分析器来提供一组单词及其同义词。 如清单所示,我们在索引的设置上创建同义词过滤器:

PUT index_with_synonyms
{
  "settings": {
    "analysis": {
      "filter": {
        "synonyms_filter":{
          "type":"synonym",
          "synonyms":[ "soccer => football"]
        }
      }
    }
  }
}

在代码示例中,我们创建了一个与同义词类型关联的同义词列表(soccer 被视为 football 的替代名称)。 一旦我们用这个过滤器配置了索引,我们就可以测试文本字段:

POST index_with_synonyms/_analyze
{
  "text": "What's soccer?",
  "tokenizer": "standard", 
  "filter": ["synonyms_filter"]
}

上面命令输出的结果为:

{
  "tokens": [
    {
      "token": "What's",
      "start_offset": 0,
      "end_offset": 6,
      "type": "<ALPHANUM>",
      "position": 0
    },
    {
      "token": "football",
      "start_offset": 7,
      "end_offset": 13,
      "type": "SYNONYM",
      "position": 1
    }
  ]
}

这会产生两个分词:“What's” 和 “football”。 从输出中可以看出,“soccer” 这个词被 “football” 这个词替换了。

从文件中配置同义词

我们可以通过文件系统上的文件提供同义词,而不是像我们在前面的清单中那样对它们进行硬编码。 为此,我们需要在 synonyms_path 变量中提供文件路径,如以下清单所示。

PUT index_with_synonyms_from_file_analyzer
{
  "settings": {
    "analysis": {
      "analyzer": {
        "synonyms_analyzer":{
          "type":"standard",
          "filter":["synonyms_from_file_filter"]
        }
      }
      ,"filter": {
        "synonyms_from_file_filter":{
          "type":"synonym",
          "synonyms_path":"synonyms.txt" #A Relative path of the synonyms file
        }
      }
    }
  }
}

确保在 $ELASTICSEARCH_HOME/config 下创建了一个名为 “synonyms.txt” 的文件,其内容如下:

带有一组同义词的 synonyms.txt 文件

# file: synonyms.txt
important=>imperative
beautiful=>gorgeous

我们可以使用相对或绝对路径调用该文件。 相对路径指向 Elasticsearch 安装文件夹的 config 目录。 我们可以通过使用以下输入调用 _analyze API 来测试上述分析器,如清单中所示:

POST index_with_synonyms_from_file_analyzer/_analyze
{
  "text": "important",
  "tokenizer": "standard", 
  "filter": ["synonyms_from_file_filter"]
}

我们当然应该得到 “imperative” 分词作为响应,证明同义词是从我们放在配置文件夹中的 synonyms.txt 文件中提取的。 你可以在 Elasticsearch 运行时向该文件添加更多值并尝试一下。

更多阅读:

05-04 04:25