本地英文版地址: ../en/search-aggregations-bucket-significantterms-aggregation.html
一种聚合,返回集合中有趣或不寻常的词项的聚合。
用例示例:
- 当用户在文本中搜索“禽流感”时,提示“H5N1”
- 从信用卡持有人挂失的交易历史中确定“妥协点”的商家
- 为自动新闻分类器建议与股票代码$ATI相关的关键词
- 发现那个诊断出更多鞭伤的骗子医生
- 发现爆胎数量不成比例的轮胎制造商
在这几种情况下,被选择的词项不仅仅都是一组最流行的词项。 它们是在前景(foreground)和背景(background)集之间受欢迎程度发生了显著变化的词项。 如果词项“H5N1”仅存在于1000万个文档索引中的5个文档中,但是在构成用户搜索结果的100个文档中的4个中出现,则这是重要的并且可能与他们的搜索非常相关。 频率 5/10,000,000 与 4/100 相比差别很大。
在最简单的情况下,感兴趣的前景(foreground)集是与查询匹配的搜索结果,而用于统计比较的背景(background)集则是从中收集结果的一个或多个索引。
示例:
GET /_search { "query" : { "terms" : {"force" : [ "British Transport Police" ]} }, "aggregations" : { "significant_crime_types" : { "significant_terms" : { "field" : "crime_type" } } } }
响应:
{ ... "aggregations" : { "significant_crime_types" : { "doc_count": 47347, "bg_count": 5064554, "buckets" : [ { "key": "Bicycle theft", "doc_count": 3640, "score": 0.371235374214817, "bg_count": 66799 } ... ] } } }
当查询一个所有警察部队的所有犯罪的索引时,这些结果表明,英国交通警察部队(British Transport Police)在处理不成比例的大量自行车盗窃案件中表现突出。 通常情况下,自行车盗窃只占犯罪的1%(66799/5064554),但对于负责处理铁路和车站犯罪的英国交通警察来说,7%的犯罪(3640/47347)是自行车盗窃。 这在频率上显著增加了七倍,因此这种异常被强调为最常见的犯罪类型。
用查询来发现异常的问题是,它只给了我们一个用于比较的子集。 为了发现所有其他警察部队的异常情况,我们必须对每个不同的部队重复查询。
这可能是一种在索引中寻找不寻常模式的乏味方法
跨多个类别执行分析的一种更简单的方法是使用父级聚合对数据进行分段,以便进行分析。
使用父聚合进行分段的示例:
GET /_search { "aggregations": { "forces": { "terms": {"field": "force"}, "aggregations": { "significant_crime_types": { "significant_terms": {"field": "crime_type"} } } } } }
响应:
{ ... "aggregations": { "forces": { "doc_count_error_upper_bound": 1375, "sum_other_doc_count": 7879845, "buckets": [ { "key": "Metropolitan Police Service", "doc_count": 894038, "significant_crime_types": { "doc_count": 894038, "bg_count": 5064554, "buckets": [ { "key": "Robbery", "doc_count": 27617, "score": 0.0599, "bg_count": 53182 } ... ] } }, { "key": "British Transport Police", "doc_count": 47347, "significant_crime_types": { "doc_count": 47347, "bg_count": 5064554, "buckets": [ { "key": "Bicycle theft", "doc_count": 3640, "score": 0.371, "bg_count": 66799 } ... ] } } ] } } }
现在,我们只需一个请求,就可以对每支警察部队进行异常检测。
我们可以使用其他形式的顶级聚合来划分数据,例如按地理区域划分,以识别特定犯罪类型的异常热点:
GET /_search { "aggs": { "hotspots": { "geohash_grid": { "field": "location", "precision": 5 }, "aggs": { "significant_crime_types": { "significant_terms": {"field": "crime_type"} } } } } }
上面这个示例使用geohash_grid
聚合来创建代表地理区域的结果桶,在每个桶中,我们可以识别这些高度集中的区域中犯罪类型的异常级别,例如:
- 机场缴获武器的数量之多的异常
- 大学里自行车盗窃的上升趋势
在更高的geohash_grid缩放级别和更大的覆盖区域,我们将开始看到整个警察部队可能正在处理特定犯罪类型的异常数量。
显然,基于时间的顶级分段将有助于识别每个时间点的当前趋势,其中简单的terms
聚合通常会显示在所有时间段持续存在的非常流行的“常数(constants)”。
significant_terms聚合可以有效地用于词元化(tokenized)的自定义文本(free-text)字段,以建议:
- 优化最终用户搜索的关键字
- 用于percolator查询的关键字
选择一个自定义文本(free-text)作为重要词项分析的主题的成本可能会很高! 它会尝试将每个唯一的词加载到内存中。 建议仅在较小的索引上使用此选项。
在上下文中显示 significant_terms
自定义文本的 significant_terms 在上下文中更容易理解。
从自定义文本字段中获取significant_terms
建议的结果,并在带有highlight
子句的相同字段上的terms
查询中使用它们,以向用户呈现文档的示例片段。
当词项不加词根、高亮显示、并以正确的大小写、正确的顺序和特定的上下文出现时,它们的重要性/意义就会更明显。
通常,前景文档集与索引中所有文档的背景集是“不同”的。
然而,有时使用较窄的背景集作为比较的基础可能证明是有用的。
例如,在包含世界各地内容的索引中查询与“Madrid”相关的文档,可能会发现“Spanish”是一个重要的词项。
这可能是真的,但是如果你想要一些更集中的词项,你可以对词项spain使用background_filter
来建立一个更窄的文档集作为上下文。
有了这一背景,“Spanish”现在会被视为司空见惯的,因此没有像“capital”这样与Madrid联系更紧密的词那么重要。
请注意,使用 background_filter 会减慢速度——每个词项的背景频率现在必须从过滤发布列表中即时获得,而不是读取索引中为某个词项预先计算的计数。
与 terms 聚合不同,目前无法使用脚本生成的词项进行计数。 由于 significant_terms 聚合必须考虑前景和背景频率,因此在整个索引上使用脚本来获取背景频率进行比较的成本非常高。 出于类似的原因,文档值(DocValues)也不支持作为词项数据的来源。
目前不支持浮点字段作为 significant_terms 分析的主题。 虽然整型(integer)或长整形(long)字段可用于表示银行账号或类别号等概念,跟踪这些概念可能会很有趣,但浮点型(float)字段通常用于表示数量。 因此,单个浮点项对于这种形式的频率分析没有用处。
如果存在match_all
查询的等价查询,或者没有提供索引子集的查询标准,则 significant_terms 聚合不应用作最顶层的聚合——在这种情况下,前景集与背景集完全相同,因此在要观察的文档频率和从中做出合理建议的文档频率方面没有差异。
另一个考虑因素是 significant_terms 聚合在分片级别产生许多候选结果,这些结果只是在所有分片的所有统计信息合并后,在缩减节点(reducing node)上进行删减。 因此,从内存的角度来说,将大型子聚合嵌入到一个 significant_terms 聚合下是低效和昂贵的,这个聚合稍后会丢弃许多候选词项。 在这些情况下,建议执行两次搜索——第一次是提供一个合理化的 significant_terms 列表,然后将这个词项列表添加到第二次查询中,以便返回并获取所需的子聚合。
通过添加参数,可以将JLH分数用作重要性分数
"jlh": { }
分数是从前景(foreground)和背景(background)集中的文档频率得出的。 流行度的绝对变化(foregroundPercent - backgroundPercent)将有利于常见词项,而流行度的相对变化(foregroundPercent / backgroundPercent)将有利于罕见的词项。 罕见与常见本质上是精确与召回的平衡,因此绝对和相对变化被放大以提供精确和召回之间的最佳点。
在 Manning 等人的 "Information Retrieval" 第13.5.1章中描述的交互信息可以通过添加参数用作重要性分数
"mutual_information": { "include_negatives": true }
交互信息不区分描述子集或子集之外的文档的词项。
因此,重要的词项可以包含在子集内出现频率比在子集外出现频率高或低的词项。
要过滤掉子集中出现频率低于子集外文档的词项,可以将include_negatives
设置为false
。
默认情况下,假设桶中的文档也包含在背景中。 相反,如果你定义了一个自定义背景过滤器,它代表了你要比较的一组不同的文档,请设置:
"background_is_superset": false
如 Manning 等人在"Information Retrieval"第13.5.2章中述,卡方(Chi square)可以通过添加参数用作重要性分数:
"chi_square": { }
卡方(Chi square)表现得像交互信息,并且可以用相同的参数include_negatives
和background_is_superset
来配置。
如 Cilibrasi 和 Vitanyi 在2007年出版的"The Google Similarity Distance"(http://arxiv.org/pdf/cs/0412098v3.pdf)中所描述的,标准Google距离可以通过添加参数用作重要性分数:
"gnd": { }
gnd
还接受参数background_is_superset
一个简单的计算方法,用前景样本中带有词项的文档数除以背景样本中带有词项的文档数。 默认情况下,这会产生一个大于0、小于1的分数。
这种启发式的好处是,评分逻辑很容易向熟悉“人均”统计数据的人解释。 然而,对于高基数(high cardinality)的字段,这种试探倾向于选择最罕见的词项,例如只出现一次的错别字,因为它们的得分为 1/1 = 100%。
如果一个奖项完全基于获胜的比赛的百分比,一个经验丰富的拳击手很难赢得冠军——根据这些规则,一个只参加过一场比赛的新人是不可能被打败的。
通常需要多次观察来强化一个视图,因此在这些情况下,建议将min_doc_count
和 shard_min_doc_count
都设置为更高的值,如 10,以便过滤掉优先出现的低频词项。
"percentage": { }
粗略地说,mutual_information
偏好高频词项,即使它们在背景中也频繁出现。
例如,在自然语言文本的分析中,这可能导致停用词被选中。
mutual_information
不太可能选择像拼写错误这样非常罕见的词项。
gnd
偏好高频的共同出现的词项,避免选择停用词。
它可能更适合于同义词检测。
然而,gnd
倾向于选择非常罕见的词项,例如,拼写错误的结果。
chi_square
和jlh
介于两者之间。
很难说不同的试探法中哪一种是最佳选择,因为这取决于重要词项的用途。 有关使用重要词项进行文本分类特征选择的研究的示例,请参考 Yang 和 Pedersen于1997年写的"A Comparative Study on Feature Selection in Text Categorization"。
如果上述方法都不适合你的用例,那么另一个选择是实施自定义重要性的判断方法:
可以通过脚本实现自定义的分数:
"script_heuristic": { "script": { "lang": "painless", "source": "params._subset_freq/(params._superset_freq - params._subset_freq + 1)" } }
脚本可以是内联的(如上例),索引或存储在磁盘上。 有关选项的详细信息,请参考 脚本文档。
脚本中可用的参数有:
|
词项在子集中出现的文档数。 |
|
词项在超集中出现的文档数。 |
|
子集中的文档数量。 |
|
超集中的文档数。 |
可以设置参数size
来定义应该从整个词项列表中返回多少个词项桶。
默认情况下,协调搜索过程的节点将请求每个分片提供各自的前几个词项桶,一旦所有分片做出响应,它将把结果缩减为最终列表,然后返回给客户端。
如果唯一的词项的数量大于size
,则返回的列表可能稍有偏差且不准确(可能是词项计数稍有偏差,甚至可能是本应该是前size
个桶中的词项没有返回)。
为了确保更好的准确性,使用最终size
的倍数作为从每个分片请求的词项数(2 * (size * 1.5 + 10)
)。
为了手动控制这个设置,可以使用参数shard_size
来控制每个分片产生的候选词项的数量。
所有结果合并后,低频词项可能会成为最有趣的词项,因此当参数shard_size
设置为明显高于size
设置的值时,significant_terms聚合可以生成更高质量的结果。
这确保了在最终选择之前,缩减节点会对大量有希望的候选词项进行综合审查。
很明显,大的候选词项列表将导致额外的网络流量和内存使用,因此这是需要平衡的质量/成本权衡。
如果shard_size
设置为-1(默认值),那么shard_size
将根据分片数量和size
参数自动估算。
shard_size
不能小于size
(因为没有太大意义)。
当出现这种情况时,Elasticsearch将覆盖它并将其重置为与size
相等。
使用min_doc_count
选项可以只返回匹配超过配置的命中数的词项:
GET /_search { "aggs" : { "tags" : { "significant_terms" : { "field" : "tag", "min_doc_count": 10 } } } }
上面这个聚合将仅返回在10次或更多次点击中出现的tag。默认值为3
。
得分高的词项将在一个分片级别上进行收集,并在第二步中与从其他分片收集的词项合并。
然而,分片没有关于可用的全局词项频率的信息。
是否将一个词项添加到候选列表的决定只取决于使用局部分片频率在分片上计算的分数,而不是该词的全局频率。
min_doc_count
标准仅在合并所有分片的本地词项统计之后应用。
在某种程度上,在没有非常确定该词项是否将实际达到所需的min_doc_count
的情况下,就做出了将该词项添加为候选项的决定。
如果低频但得分高的词项填充了候选列表,这可能导致许多(全局)高频的词项在最终结果中丢失。
为了避免这种情况,可以增加shard_size
参数,以允许分片上有更多的候选项。
但是,这会增加内存消耗和网络流量。
参数shard_min_doc_count
参数shard_min_doc_count
规定了一个分片相对于min_doc_count
是否应该被实际添加到候选列表中的确定性。
只有当词项在集合中的本地分片频率高于shard_min_doc_count
时,才会考虑这些词项。
如果你的字典包含许多低频的单词,而你对这些单词不感兴趣(例如拼写错误),那么你可以设置shard_min_doc_count
参数来过滤掉分级别上的候选词,即使在合并本地频率之后,这些候选词也肯定不会达到所需的min_doc_count
。
默认情况下,shard_min_doc_count
设置为1
,除非你显式设置它,否则它不起作用。
通常不建议将min_doc_count
设置为1
,因为它会返回拼写错误或其他奇怪的词。
找到一个词项的不止一个实例有助于强化这一点,尽管这种情况仍然很少见,但这个词项不是一次性事故的结果。
默认值 3 用于提供最小证据权重。
shard_min_doc_count
设置得太高会导致重要的候选词项在分片级别被过滤掉。
该值应设置为远低于 min_doc_count/#shards
。
背景词项频率的统计信息的默认来源是整个索引,并且可以通过使用background_filter
来缩小该范围,以便在更窄的上下文中聚焦于重要的词项:
GET /_search { "query" : { "match" : { "city" : "madrid" } }, "aggs" : { "tags" : { "significant_terms" : { "field" : "tag", "background_filter": { "term" : { "text" : "spain"} } } } } }
上述过滤器将有助于集中在 Madrid 市特有的词项上,而不是显示诸如“Spanish”的词项,这些词项在完整索引的全局上下文中是不常见的,但是在包含单词“Spain”的文档子集中是常见的。
使用背景过滤器会降低查询速度,因为必须过滤每个词的帖子来确定频率
可以(尽管很少需要)过滤将为其创建桶的值。
这可以使用基于正则表达式字符串或精确项数组的include
和exclude
参数来完成。
此功能反映了terms聚合文档中描述的功能。
为了避免内存问题,significant_terms
聚合始终以 广度优先(breadth_first
) 模式计算子聚合。
不同收集模式的描述可以在terms聚合文档中找到。
可以通过不同的机制来执行词项聚合(terms aggregation):
-
通过直接使用字段值来聚合每个桶的数据 (
map
) -
通过使用字段的全局序数并为每个全局序数分配一个桶 (
global_ordinals
)
Elasticsearch会尝试使用合理的默认值,所以这通常不需要配置。
global_ordinals
是keyword
类型字段的默认选项,它使用全局序数来动态分配桶,因此内存使用量与聚合范围内的文档值的数量成线性关系。
只有当很少文档与查询匹配时,才应该考虑map
。
否则,基于序数的执行模式要快得多。
默认情况下,map
仅在脚本上运行聚合时使用,因为它们没有序号。
GET /_search { "aggs" : { "tags" : { "significant_terms" : { "field" : "tags", "execution_hint": "map" } } } }
请注意,如果不适用,Elasticsearch将忽略这个执行机制(execution_hint)。
- Elasticsearch权威指南: 其他版本:
- Elasticsearch是什么?
- 7.7版本的新特性
- 开始使用Elasticsearch
- 安装和设置
- 升级Elasticsearch
- 搜索你的数据
- 查询领域特定语言(Query DSL)
- SQL access(暂时不翻译)
- Overview
- Getting Started with SQL
- Conventions and Terminology
- Security
- SQL REST API
- SQL Translate API
- SQL CLI
- SQL JDBC
- SQL ODBC
- SQL Client Applications
- SQL Language
- Functions and Operators
- Comparison Operators
- Logical Operators
- Math Operators
- Cast Operators
- LIKE and RLIKE Operators
- Aggregate Functions
- Grouping Functions
- Date/Time and Interval Functions and Operators
- Full-Text Search Functions
- Mathematical Functions
- String Functions
- Type Conversion Functions
- Geo Functions
- Conditional Functions And Expressions
- System Functions
- Reserved keywords
- SQL Limitations
- 聚合
- 度量(metric)聚合
- 桶(bucket)聚合
- adjacency_matrix 聚合
- auto_date_histogram 聚合
- children 聚合
- composite 聚合
- date_histogram 聚合
- date_range 聚合
- diversified_sampler 聚合
- filter 聚合
- filters 聚合
- geo_distance 聚合
- geohash_grid 聚合
- geotile_grid 聚合
- global 聚合
- histogram 聚合
- ip_range 聚合
- missing 聚合
- nested 聚合
- parent 聚合
- range 聚合
- rare_terms 聚合
- reverse_nested 聚合
- sampler 聚合
- significant_terms 聚合
- significant_text 聚合
- terms 聚合
- 给范围字段分桶的微妙之处
- 管道(pipeline)聚合
- 矩阵(matrix)聚合
- 重度缓存的聚合
- 只返回聚合的结果
- 聚合元数据
- Returning the type of the aggregation
- 使用转换对聚合结果进行索引
- 脚本
- 映射
- 删除的映射类型
- 字段数据类型
- alias(别名)
- array(数组)
- binary(二进制)
- boolean(布尔)
- date(日期)
- date_nanos(日期纳秒)
- dense_vector(密集矢量)
- histogram(直方图)
- flattened(扁平)
- geo_point(地理坐标点)
- geo_shape(地理形状)
- IP
- join(联结)
- keyword(关键词)
- nested(嵌套)
- numeric(数值)
- object(对象)
- percolator(渗透器)
- range(范围)
- rank_feature(特征排名)
- rank_features(特征排名)
- search_as_you_type(输入即搜索)
- Sparse vector
- Text
- Token count
- Shape
- Constant keyword
- Meta-Fields
- Mapping parameters
- Dynamic Mapping
- Text analysis
- Overview
- Concepts
- Configure text analysis
- Built-in analyzer reference
- Tokenizer reference
- Char Group Tokenizer
- Classic Tokenizer
- Edge n-gram tokenizer
- Keyword Tokenizer
- Letter Tokenizer
- Lowercase Tokenizer
- N-gram tokenizer
- Path Hierarchy Tokenizer
- Path Hierarchy Tokenizer Examples
- Pattern Tokenizer
- Simple Pattern Tokenizer
- Simple Pattern Split Tokenizer
- Standard Tokenizer
- Thai Tokenizer
- UAX URL Email Tokenizer
- Whitespace Tokenizer
- Token filter reference
- Apostrophe
- ASCII folding
- CJK bigram
- CJK width
- Classic
- Common grams
- Conditional
- Decimal digit
- Delimited payload
- Dictionary decompounder
- Edge n-gram
- Elision
- Fingerprint
- Flatten graph
- Hunspell
- Hyphenation decompounder
- Keep types
- Keep words
- Keyword marker
- Keyword repeat
- KStem
- Length
- Limit token count
- Lowercase
- MinHash
- Multiplexer
- N-gram
- Normalization
- Pattern capture
- Pattern replace
- Phonetic
- Porter stem
- Predicate script
- Remove duplicates
- Reverse
- Shingle
- Snowball
- Stemmer
- Stemmer override
- Stop
- Synonym
- Synonym graph
- Trim
- Truncate
- Unique
- Uppercase
- Word delimiter
- Word delimiter graph
- Character filters reference
- Normalizers
- Index modules
- Ingest node
- Pipeline Definition
- Accessing Data in Pipelines
- Conditional Execution in Pipelines
- Handling Failures in Pipelines
- Enrich your data
- Processors
- Append Processor
- Bytes Processor
- Circle Processor
- Convert Processor
- CSV Processor
- Date Processor
- Date Index Name Processor
- Dissect Processor
- Dot Expander Processor
- Drop Processor
- Enrich Processor
- Fail Processor
- Foreach Processor
- GeoIP Processor
- Grok Processor
- Gsub Processor
- HTML Strip Processor
- Inference Processor
- Join Processor
- JSON Processor
- KV Processor
- Lowercase Processor
- Pipeline Processor
- Remove Processor
- Rename Processor
- Script Processor
- Set Processor
- Set Security User Processor
- Split Processor
- Sort Processor
- Trim Processor
- Uppercase Processor
- URL Decode Processor
- User Agent processor
- ILM: Manage the index lifecycle
- Monitor a cluster
- Frozen indices
- Roll up or transform your data
- Set up a cluster for high availability
- Snapshot and restore
- Secure a cluster
- Overview
- Configuring security
- User authentication
- Built-in users
- Internal users
- Token-based authentication services
- Realms
- Realm chains
- Active Directory user authentication
- File-based user authentication
- LDAP user authentication
- Native user authentication
- OpenID Connect authentication
- PKI user authentication
- SAML authentication
- Kerberos authentication
- Integrating with other authentication systems
- Enabling anonymous access
- Controlling the user cache
- Configuring SAML single-sign-on on the Elastic Stack
- Configuring single sign-on to the Elastic Stack using OpenID Connect
- User authorization
- Built-in roles
- Defining roles
- Security privileges
- Document level security
- Field level security
- Granting privileges for indices and aliases
- Mapping users and groups to roles
- Setting up field and document level security
- Submitting requests on behalf of other users
- Configuring authorization delegation
- Customizing roles and authorization
- Enabling audit logging
- Encrypting communications
- Restricting connections with IP filtering
- Cross cluster search, clients, and integrations
- Tutorial: Getting started with security
- Tutorial: Encrypting communications
- Troubleshooting
- Some settings are not returned via the nodes settings API
- Authorization exceptions
- Users command fails due to extra arguments
- Users are frequently locked out of Active Directory
- Certificate verification fails for curl on Mac
- SSLHandshakeException causes connections to fail
- Common SSL/TLS exceptions
- Common Kerberos exceptions
- Common SAML issues
- Internal Server Error in Kibana
- Setup-passwords command fails due to connection failure
- Failures due to relocation of the configuration files
- Limitations
- Alerting on cluster and index events
- Command line tools
- How To
- Glossary of terms
- REST APIs
- API conventions
- cat APIs
- cat aliases
- cat allocation
- cat anomaly detectors
- cat count
- cat data frame analytics
- cat datafeeds
- cat fielddata
- cat health
- cat indices
- cat master
- cat nodeattrs
- cat nodes
- cat pending tasks
- cat plugins
- cat recovery
- cat repositories
- cat shards
- cat segments
- cat snapshots
- cat task management
- cat templates
- cat thread pool
- cat trained model
- cat transforms
- Cluster APIs
- Cluster allocation explain
- Cluster get settings
- Cluster health
- Cluster reroute
- Cluster state
- Cluster stats
- Cluster update settings
- Nodes feature usage
- Nodes hot threads
- Nodes info
- Nodes reload secure settings
- Nodes stats
- Pending cluster tasks
- Remote cluster info
- Task management
- Voting configuration exclusions
- Cross-cluster replication APIs
- Document APIs
- Enrich APIs
- Explore API
- Index APIs
- Add index alias
- Analyze
- Clear cache
- Clone index
- Close index
- Create index
- Delete index
- Delete index alias
- Delete index template
- Flush
- Force merge
- Freeze index
- Get field mapping
- Get index
- Get index alias
- Get index settings
- Get index template
- Get mapping
- Index alias exists
- Index exists
- Index recovery
- Index segments
- Index shard stores
- Index stats
- Index template exists
- Open index
- Put index template
- Put mapping
- Refresh
- Rollover index
- Shrink index
- Split index
- Synced flush
- Type exists
- Unfreeze index
- Update index alias
- Update index settings
- Index lifecycle management API
- Ingest APIs
- Info API
- Licensing APIs
- Machine learning anomaly detection APIs
- Add events to calendar
- Add jobs to calendar
- Close jobs
- Create jobs
- Create calendar
- Create datafeeds
- Create filter
- Delete calendar
- Delete datafeeds
- Delete events from calendar
- Delete filter
- Delete forecast
- Delete jobs
- Delete jobs from calendar
- Delete model snapshots
- Delete expired data
- Estimate model memory
- Find file structure
- Flush jobs
- Forecast jobs
- Get buckets
- Get calendars
- Get categories
- Get datafeeds
- Get datafeed statistics
- Get influencers
- Get jobs
- Get job statistics
- Get machine learning info
- Get model snapshots
- Get overall buckets
- Get scheduled events
- Get filters
- Get records
- Open jobs
- Post data to jobs
- Preview datafeeds
- Revert model snapshots
- Set upgrade mode
- Start datafeeds
- Stop datafeeds
- Update datafeeds
- Update filter
- Update jobs
- Update model snapshots
- Machine learning data frame analytics APIs
- Create data frame analytics jobs
- Create inference trained model
- Delete data frame analytics jobs
- Delete inference trained model
- Evaluate data frame analytics
- Explain data frame analytics API
- Get data frame analytics jobs
- Get data frame analytics jobs stats
- Get inference trained model
- Get inference trained model stats
- Start data frame analytics jobs
- Stop data frame analytics jobs
- Migration APIs
- Reload search analyzers
- Rollup APIs
- Search APIs
- Security APIs
- Authenticate
- Change passwords
- Clear cache
- Clear roles cache
- Create API keys
- Create or update application privileges
- Create or update role mappings
- Create or update roles
- Create or update users
- Delegate PKI authentication
- Delete application privileges
- Delete role mappings
- Delete roles
- Delete users
- Disable users
- Enable users
- Get API key information
- Get application privileges
- Get builtin privileges
- Get role mappings
- Get roles
- Get token
- Get users
- Has privileges
- Invalidate API key
- Invalidate token
- OpenID Connect Prepare Authentication API
- OpenID Connect authenticate API
- OpenID Connect logout API
- SAML prepare authentication API
- SAML authenticate API
- SAML logout API
- SAML invalidate API
- SSL certificate
- Snapshot and restore APIs
- Snapshot lifecycle management API
- Transform APIs
- Usage API
- Watcher APIs
- Definitions
- Breaking changes
- Release notes
- Elasticsearch version 7.7.1
- Elasticsearch version 7.7.0
- Elasticsearch version 7.6.2
- Elasticsearch version 7.6.1
- Elasticsearch version 7.6.0
- Elasticsearch version 7.5.2
- Elasticsearch version 7.5.1
- Elasticsearch version 7.5.0
- Elasticsearch version 7.4.2
- Elasticsearch version 7.4.1
- Elasticsearch version 7.4.0
- Elasticsearch version 7.3.2
- Elasticsearch version 7.3.1
- Elasticsearch version 7.3.0
- Elasticsearch version 7.2.1
- Elasticsearch version 7.2.0
- Elasticsearch version 7.1.1
- Elasticsearch version 7.1.0
- Elasticsearch version 7.0.0
- Elasticsearch version 7.0.0-rc2
- Elasticsearch version 7.0.0-rc1
- Elasticsearch version 7.0.0-beta1
- Elasticsearch version 7.0.0-alpha2
- Elasticsearch version 7.0.0-alpha1