本地英文版地址: ../en/search-aggregations-pipeline-movfn-aggregation.html
给定一系列有序的数据,移动函数(moving function)聚合将在数据上滑动一个窗口,并允许用户指定在每个数据窗口上执行自定义的脚本。 为方便起见,预定义了一些常用函数,如min/max、移动平均值(moving average)等。
这在概念上与移动平均(moving average)管道聚合非常相似,不过它提供了更多的功能。
一个单独的moving_fn
看起来像这样:
{ "moving_fn": { "buckets_path": "the_sum", "window": 10, "script": "MovingFunctions.min(values)" } }
表 19. moving_fn
参数
参数名称 | 描述 | 是否必需 | 默认值 |
---|---|---|---|
|
感兴趣的度量的路径(更多详情请参考 |
必需 |
|
|
在直方图上“滑动”的窗口大小。 |
必需 |
|
|
应该在每个数据窗口上执行的脚本 |
必需 |
|
|
窗口位置的移动(shift) |
可选 |
0 |
moving_fn
聚合必须嵌入histogram
或date_histogram
聚合中。
它们可以像任何其他度量聚合一样嵌入:
POST /_search { "size": 0, "aggs": { "my_date_histo":{ "date_histogram":{ "field":"date", "calendar_interval":"1M" }, "aggs":{ "the_sum":{ "sum":{ "field": "price" } }, "the_movfn": { "moving_fn": { "buckets_path": "the_sum", "window": 10, "script": "MovingFunctions.unweightedAvg(values)" } } } } } }
一个名为“my_date_histo”的 |
|
|
|
最后,我们指定一个 |
移动平均值的构建,首先要指定一个字段的histogram
或date_histogram
聚合。
然后,你可以选择在那个直方图中添加数字度量,如sum
。
最后,moving_fn
被嵌入直方图中。
然后,buckets_path
参数用于“指向”直方图内的一个同级度量(有关buckets_path
语法的描述,请参见buckets_path
语法)。
来自上述聚合的示例响应可能如下所示:
{ "took": 11, "timed_out": false, "_shards": ..., "hits": ..., "aggregations": { "my_date_histo": { "buckets": [ { "key_as_string": "2015/01/01 00:00:00", "key": 1420070400000, "doc_count": 3, "the_sum": { "value": 550.0 }, "the_movfn": { "value": null } }, { "key_as_string": "2015/02/01 00:00:00", "key": 1422748800000, "doc_count": 2, "the_sum": { "value": 60.0 }, "the_movfn": { "value": 550.0 } }, { "key_as_string": "2015/03/01 00:00:00", "key": 1425168000000, "doc_count": 2, "the_sum": { "value": 375.0 }, "the_movfn": { "value": 305.0 } } ] } } }
移动函数聚合允许用户指定任意脚本来定义自定义逻辑。
每次收集新的数据窗口时都会调用该脚本。
这些值在values
变量中提供给脚本。
然后,脚本应该执行某种计算,并输出单个double
(双精度浮点数)作为结果。
虽然允许NaN
和 +/- Inf
,但不允许输出null
。
例如,下面这个脚本将只返回窗口中的第一个值,如果没有可用的值,则返回NaN
:
POST /_search { "size": 0, "aggs": { "my_date_histo":{ "date_histogram":{ "field":"date", "calendar_interval":"1M" }, "aggs":{ "the_sum":{ "sum":{ "field": "price" } }, "the_movavg": { "moving_fn": { "buckets_path": "the_sum", "window": 10, "script": "return values.length > 0 ? values[0] : Double.NaN" } } } } } }
默认情况下(shift = 0
),为计算提供的窗口是除当前桶之外的最后n
个值。
将shift
增加1
会将起始窗口位置向右移动1
。
-
要将当前桶包括到窗口中,请使用
shift = 1
。 -
对于中心对齐(当前桶前后的
n / 2
个值),使用shift = window / 2
。 -
对于右对齐(当前桶后的
n
个值),使用shift = window
。
如果任何一个窗口边缘移出了数据序列的边界,则窗口将收缩以只包含可用值。
为了方便起见,已经预先构建了许多函数,这些函数在moving_fn
脚本上下文中可用:
-
max()
-
min()
-
sum()
-
stdDev()
-
unweightedAvg()
-
linearWeightedAvg()
-
ewma()
-
holt()
-
holtWinters()
这些函数可从MovingFunctions
命名空间中获得。例如MovingFunctions.max()
该函数接受一个双精度值的集合,并返回该窗口中的最大值。
null
和NaN
值被忽略;最大值仅在实际值上计算。
如果窗口为空,或者所有值都为null
或NaN
,则返回NaN
作为结果。
POST /_search { "size": 0, "aggs": { "my_date_histo":{ "date_histogram":{ "field":"date", "calendar_interval":"1M" }, "aggs":{ "the_sum":{ "sum":{ "field": "price" } }, "the_moving_max": { "moving_fn": { "buckets_path": "the_sum", "window": 10, "script": "MovingFunctions.max(values)" } } } } } }
该函数接受一个双精度值的集合,并返回该窗口中的最小值。
null
和NaN
值被忽略;最大值仅在实际值上计算。
如果窗口为空,或者所有值都为null
或NaN
,则返回NaN
作为结果。
POST /_search { "size": 0, "aggs": { "my_date_histo":{ "date_histogram":{ "field":"date", "calendar_interval":"1M" }, "aggs":{ "the_sum":{ "sum":{ "field": "price" } }, "the_moving_min": { "moving_fn": { "buckets_path": "the_sum", "window": 10, "script": "MovingFunctions.min(values)" } } } } } }
该函数接受一个双精度值的集合,并返回该窗口中值的总和。
null
和NaN
值被忽略;总和仅在实际值上计算。
如果窗口为空,或者所有值都为null
或NaN
,则返回0.0
作为结果。
POST /_search { "size": 0, "aggs": { "my_date_histo":{ "date_histogram":{ "field":"date", "calendar_interval":"1M" }, "aggs":{ "the_sum":{ "sum":{ "field": "price" } }, "the_moving_sum": { "moving_fn": { "buckets_path": "the_sum", "window": 10, "script": "MovingFunctions.sum(values)" } } } } } }
该函数接受双精度浮点数(double)和平均值(average)的集合,然后返回该窗口中值的标准差。
null
和NaN
值被忽略;平均值仅在实际值上计算。
如果窗口为空,或者所有值都为null
或NaN
,则返回0.0
作为结果。
POST /_search { "size": 0, "aggs": { "my_date_histo":{ "date_histogram":{ "field":"date", "calendar_interval":"1M" }, "aggs":{ "the_sum":{ "sum":{ "field": "price" } }, "the_moving_sum": { "moving_fn": { "buckets_path": "the_sum", "window": 10, "script": "MovingFunctions.stdDev(values, MovingFunctions.unweightedAvg(values))" } } } } } }
avg
参数必须提供给标准差函数,因为可以在窗口上计算不同类型的平均值(简单(simple)、线性加权(linearly weighted)等)。
下面详述的各种移动平均值可用于计算标准差函数的平均值。
unweightedAvg
函数计算窗口中所有值的总和,然后除以窗口的大小。
它实际上是窗口的简单算术平均值。
简单移动平均值不执行任何时间相关的加权,这意味着simple
(简单)移动平均的值往往“滞后”于真实数据。
null
和NaN
值被忽略;平均值仅根据真实值计算得出。
如果窗口为空,或者所有值都为null
或NaN
,则返回NaN
作为结果。
这意味着平均值计算中使用的计数是非null
、非NaN
值的计数。
POST /_search { "size": 0, "aggs": { "my_date_histo":{ "date_histogram":{ "field":"date", "calendar_interval":"1M" }, "aggs":{ "the_sum":{ "sum":{ "field": "price" } }, "the_movavg": { "moving_fn": { "buckets_path": "the_sum", "window": 10, "script": "MovingFunctions.unweightedAvg(values)" } } } } } }
linearWeightedAvg
函数为序列中的点分配线性权重,使得“较老的”数据点(例如,窗口开始处的那些)对总平均值的贡献线性较小。
线性加权有助于减少数据均值的“滞后”,因为较老的数据点的影响较小。
如果窗口为空,或者所有值都为null
或NaN
,则返回NaN
作为结果。
POST /_search { "size": 0, "aggs": { "my_date_histo":{ "date_histogram":{ "field":"date", "calendar_interval":"1M" }, "aggs":{ "the_sum":{ "sum":{ "field": "price" } }, "the_movavg": { "moving_fn": { "buckets_path": "the_sum", "window": 10, "script": "MovingFunctions.linearWeightedAvg(values)" } } } } } }
ewma
函数(也称为“单指数”)类似于linearMovAvg
函数,不同的是,旧的数据点的重要性是以指数级降低,而不是线性降低。
重要性衰减的速度可以通过设置alpha
来控制。
较小的值使权重缓慢衰减,这提供了更大的平滑度,并考虑了窗口的更大部分。
较大的值会使权重迅速衰减,从而降低较旧值对移动平均线的影响。
这往往会使移动平均线更密切地跟踪数据,但却不太平滑。
null
和NaN
值被忽略;平均值仅根据真实值计算得出。
如果窗口为空,或者所有值都为null
或NaN
,则返回NaN
作为结果。
这意味着平均值计算中使用的计数是非null
、非NaN
值的计数。
POST /_search { "size": 0, "aggs": { "my_date_histo":{ "date_histogram":{ "field":"date", "calendar_interval":"1M" }, "aggs":{ "the_sum":{ "sum":{ "field": "price" } }, "the_movavg": { "moving_fn": { "buckets_path": "the_sum", "window": 10, "script": "MovingFunctions.ewma(values, 0.3)" } } } } } }
holt
函数(又名“二次指数”)结合了跟踪数据趋势的第二个指数项。
当数据具有潜在的线性趋势时,单指数表现不佳。
二次指数模型在内部计算两个值:“水平(level)”和“趋势(trend)”。
水平(level)计算类似于ewma
,是数据的指数加权视图。
不同之处在于,使用了之前平滑的值,而不是原始值,这使其接近原始序列。
趋势(trend)计算着眼于当前值和上一个值之间的差异(例如,平滑数据的斜率或趋势)。
趋势值也是指数加权的。
数值是由水平(level)分量和趋势(trend)分量相乘产生的。
null
和NaN
值被忽略;平均值仅根据真实值计算得出。
如果窗口为空,或者所有值都为null
或NaN
,则返回NaN
作为结果。
这意味着平均值计算中使用的计数是非null
、非NaN
值的计数。
表 27. holt(double[] values, double alpha)
参数
参数名称 | 描述 |
---|---|
|
要计算总和的值的窗口 |
|
level 衰减值 |
|
trend 衰减值 |
POST /_search { "size": 0, "aggs": { "my_date_histo":{ "date_histogram":{ "field":"date", "calendar_interval":"1M" }, "aggs":{ "the_sum":{ "sum":{ "field": "price" } }, "the_movavg": { "moving_fn": { "buckets_path": "the_sum", "window": 10, "script": "MovingFunctions.holt(values, 0.3, 0.1)" } } } } } }
实际上,alpha
值在holtMovAvg
中的表现与ewmaMovAvg
非常相似:小值产生更多平滑和更多滞后,而大值产生更密切的跟踪和更少的滞后。
beta
的值往往很难看出。
较小的值强调长期趋势(例如整个系列中的恒定线性趋势),而较大的值强调短期趋势。
holtWinters
函数(又名“三级指数”)包含第三个指数项,用于跟踪数据的季节性。
因此,这种聚合基于三个要素进行平滑:“水平(level)”、“趋势(trend)”和“季节性(seasonality)”。
水平(level)和趋势(trend)计算与holt
里的相同。
季节性(seasonal)计算着眼于当前点与前一时段点之间的差异。
与其他移动平均线相比,holt-winters 需要更多的操作。
你需要指定数据的“周期(periodicity)”:例如,如果你的数据每7天有一个循环趋势,可以设置period: 7
。
类似地,如果有月趋势,你可以把它设置为30
。
目前没有周期性检测,尽管计划在未来进行增强。
null
和NaN
值被忽略;平均值仅根据真实值计算得出。
如果窗口为空,或者所有值都为null
或NaN
,则返回NaN
作为结果。
这意味着平均值计算中使用的计数是非null
、非NaN
值的计数。
表 28. holtWinters(double[] values, double alpha)
参数
参数名称 | 描述 |
---|---|
|
要计算总和的值的窗口 |
|
水平(level)衰减值 |
|
趋势(trend)衰减值 |
|
季节性(seasonality)衰减值 |
|
数据的周期性 |
|
为true时使用乘法holt-winters,为false时使用加法 |
POST /_search { "size": 0, "aggs": { "my_date_histo":{ "date_histogram":{ "field":"date", "calendar_interval":"1M" }, "aggs":{ "the_sum":{ "sum":{ "field": "price" } }, "the_movavg": { "moving_fn": { "buckets_path": "the_sum", "window": 10, "script": "if (values.length > 5*2) {MovingFunctions.holtWinters(values, 0.3, 0.1, 0.1, 5, false)}" } } } } } }
乘法霍尔特-温特斯的工作原理是将每个数据点除以季节值。
如果任何数据为零,或者数据中有间隙(因为这会导致除以零),那么这就有问题了。
为了解决这个问题,mult
Holt-Winters用一个非常小的量(1*10-10)填充所有的值,这样所有的值都是非零的。
这会影响结果,但影响很小。
如果你的数据是非零的,或者你希望在遇到零时看到NaN
,则可以使用pad: false
禁用此行为
- Elasticsearch权威指南: 其他版本:
- Elasticsearch是什么?
- 7.7版本的新特性
- 开始使用Elasticsearch
- 安装和设置
- 升级Elasticsearch
- 搜索你的数据
- 查询领域特定语言(Query DSL)
- SQL access(暂时不翻译)
- Overview
- Getting Started with SQL
- Conventions and Terminology
- Security
- SQL REST API
- SQL Translate API
- SQL CLI
- SQL JDBC
- SQL ODBC
- SQL Client Applications
- SQL Language
- Functions and Operators
- Comparison Operators
- Logical Operators
- Math Operators
- Cast Operators
- LIKE and RLIKE Operators
- Aggregate Functions
- Grouping Functions
- Date/Time and Interval Functions and Operators
- Full-Text Search Functions
- Mathematical Functions
- String Functions
- Type Conversion Functions
- Geo Functions
- Conditional Functions And Expressions
- System Functions
- Reserved keywords
- SQL Limitations
- 聚合
- 度量(metric)聚合
- 桶(bucket)聚合
- adjacency_matrix 聚合
- auto_date_histogram 聚合
- children 聚合
- composite 聚合
- date_histogram 聚合
- date_range 聚合
- diversified_sampler 聚合
- filter 聚合
- filters 聚合
- geo_distance 聚合
- geohash_grid 聚合
- geotile_grid 聚合
- global 聚合
- histogram 聚合
- ip_range 聚合
- missing 聚合
- nested 聚合
- parent 聚合
- range 聚合
- rare_terms 聚合
- reverse_nested 聚合
- sampler 聚合
- significant_terms 聚合
- significant_text 聚合
- terms 聚合
- 给范围字段分桶的微妙之处
- 管道(pipeline)聚合
- 矩阵(matrix)聚合
- 重度缓存的聚合
- 只返回聚合的结果
- 聚合元数据
- Returning the type of the aggregation
- 使用转换对聚合结果进行索引
- 脚本
- 映射
- 删除的映射类型
- 字段数据类型
- alias(别名)
- array(数组)
- binary(二进制)
- boolean(布尔)
- date(日期)
- date_nanos(日期纳秒)
- dense_vector(密集矢量)
- histogram(直方图)
- flattened(扁平)
- geo_point(地理坐标点)
- geo_shape(地理形状)
- IP
- join(联结)
- keyword(关键词)
- nested(嵌套)
- numeric(数值)
- object(对象)
- percolator(渗透器)
- range(范围)
- rank_feature(特征排名)
- rank_features(特征排名)
- search_as_you_type(输入即搜索)
- Sparse vector
- Text
- Token count
- Shape
- Constant keyword
- Meta-Fields
- Mapping parameters
- Dynamic Mapping
- Text analysis
- Overview
- Concepts
- Configure text analysis
- Built-in analyzer reference
- Tokenizer reference
- Char Group Tokenizer
- Classic Tokenizer
- Edge n-gram tokenizer
- Keyword Tokenizer
- Letter Tokenizer
- Lowercase Tokenizer
- N-gram tokenizer
- Path Hierarchy Tokenizer
- Path Hierarchy Tokenizer Examples
- Pattern Tokenizer
- Simple Pattern Tokenizer
- Simple Pattern Split Tokenizer
- Standard Tokenizer
- Thai Tokenizer
- UAX URL Email Tokenizer
- Whitespace Tokenizer
- Token filter reference
- Apostrophe
- ASCII folding
- CJK bigram
- CJK width
- Classic
- Common grams
- Conditional
- Decimal digit
- Delimited payload
- Dictionary decompounder
- Edge n-gram
- Elision
- Fingerprint
- Flatten graph
- Hunspell
- Hyphenation decompounder
- Keep types
- Keep words
- Keyword marker
- Keyword repeat
- KStem
- Length
- Limit token count
- Lowercase
- MinHash
- Multiplexer
- N-gram
- Normalization
- Pattern capture
- Pattern replace
- Phonetic
- Porter stem
- Predicate script
- Remove duplicates
- Reverse
- Shingle
- Snowball
- Stemmer
- Stemmer override
- Stop
- Synonym
- Synonym graph
- Trim
- Truncate
- Unique
- Uppercase
- Word delimiter
- Word delimiter graph
- Character filters reference
- Normalizers
- Index modules
- Ingest node
- Pipeline Definition
- Accessing Data in Pipelines
- Conditional Execution in Pipelines
- Handling Failures in Pipelines
- Enrich your data
- Processors
- Append Processor
- Bytes Processor
- Circle Processor
- Convert Processor
- CSV Processor
- Date Processor
- Date Index Name Processor
- Dissect Processor
- Dot Expander Processor
- Drop Processor
- Enrich Processor
- Fail Processor
- Foreach Processor
- GeoIP Processor
- Grok Processor
- Gsub Processor
- HTML Strip Processor
- Inference Processor
- Join Processor
- JSON Processor
- KV Processor
- Lowercase Processor
- Pipeline Processor
- Remove Processor
- Rename Processor
- Script Processor
- Set Processor
- Set Security User Processor
- Split Processor
- Sort Processor
- Trim Processor
- Uppercase Processor
- URL Decode Processor
- User Agent processor
- ILM: Manage the index lifecycle
- Monitor a cluster
- Frozen indices
- Roll up or transform your data
- Set up a cluster for high availability
- Snapshot and restore
- Secure a cluster
- Overview
- Configuring security
- User authentication
- Built-in users
- Internal users
- Token-based authentication services
- Realms
- Realm chains
- Active Directory user authentication
- File-based user authentication
- LDAP user authentication
- Native user authentication
- OpenID Connect authentication
- PKI user authentication
- SAML authentication
- Kerberos authentication
- Integrating with other authentication systems
- Enabling anonymous access
- Controlling the user cache
- Configuring SAML single-sign-on on the Elastic Stack
- Configuring single sign-on to the Elastic Stack using OpenID Connect
- User authorization
- Built-in roles
- Defining roles
- Security privileges
- Document level security
- Field level security
- Granting privileges for indices and aliases
- Mapping users and groups to roles
- Setting up field and document level security
- Submitting requests on behalf of other users
- Configuring authorization delegation
- Customizing roles and authorization
- Enabling audit logging
- Encrypting communications
- Restricting connections with IP filtering
- Cross cluster search, clients, and integrations
- Tutorial: Getting started with security
- Tutorial: Encrypting communications
- Troubleshooting
- Some settings are not returned via the nodes settings API
- Authorization exceptions
- Users command fails due to extra arguments
- Users are frequently locked out of Active Directory
- Certificate verification fails for curl on Mac
- SSLHandshakeException causes connections to fail
- Common SSL/TLS exceptions
- Common Kerberos exceptions
- Common SAML issues
- Internal Server Error in Kibana
- Setup-passwords command fails due to connection failure
- Failures due to relocation of the configuration files
- Limitations
- Alerting on cluster and index events
- Command line tools
- How To
- Glossary of terms
- REST APIs
- API conventions
- cat APIs
- cat aliases
- cat allocation
- cat anomaly detectors
- cat count
- cat data frame analytics
- cat datafeeds
- cat fielddata
- cat health
- cat indices
- cat master
- cat nodeattrs
- cat nodes
- cat pending tasks
- cat plugins
- cat recovery
- cat repositories
- cat shards
- cat segments
- cat snapshots
- cat task management
- cat templates
- cat thread pool
- cat trained model
- cat transforms
- Cluster APIs
- Cluster allocation explain
- Cluster get settings
- Cluster health
- Cluster reroute
- Cluster state
- Cluster stats
- Cluster update settings
- Nodes feature usage
- Nodes hot threads
- Nodes info
- Nodes reload secure settings
- Nodes stats
- Pending cluster tasks
- Remote cluster info
- Task management
- Voting configuration exclusions
- Cross-cluster replication APIs
- Document APIs
- Enrich APIs
- Explore API
- Index APIs
- Add index alias
- Analyze
- Clear cache
- Clone index
- Close index
- Create index
- Delete index
- Delete index alias
- Delete index template
- Flush
- Force merge
- Freeze index
- Get field mapping
- Get index
- Get index alias
- Get index settings
- Get index template
- Get mapping
- Index alias exists
- Index exists
- Index recovery
- Index segments
- Index shard stores
- Index stats
- Index template exists
- Open index
- Put index template
- Put mapping
- Refresh
- Rollover index
- Shrink index
- Split index
- Synced flush
- Type exists
- Unfreeze index
- Update index alias
- Update index settings
- Index lifecycle management API
- Ingest APIs
- Info API
- Licensing APIs
- Machine learning anomaly detection APIs
- Add events to calendar
- Add jobs to calendar
- Close jobs
- Create jobs
- Create calendar
- Create datafeeds
- Create filter
- Delete calendar
- Delete datafeeds
- Delete events from calendar
- Delete filter
- Delete forecast
- Delete jobs
- Delete jobs from calendar
- Delete model snapshots
- Delete expired data
- Estimate model memory
- Find file structure
- Flush jobs
- Forecast jobs
- Get buckets
- Get calendars
- Get categories
- Get datafeeds
- Get datafeed statistics
- Get influencers
- Get jobs
- Get job statistics
- Get machine learning info
- Get model snapshots
- Get overall buckets
- Get scheduled events
- Get filters
- Get records
- Open jobs
- Post data to jobs
- Preview datafeeds
- Revert model snapshots
- Set upgrade mode
- Start datafeeds
- Stop datafeeds
- Update datafeeds
- Update filter
- Update jobs
- Update model snapshots
- Machine learning data frame analytics APIs
- Create data frame analytics jobs
- Create inference trained model
- Delete data frame analytics jobs
- Delete inference trained model
- Evaluate data frame analytics
- Explain data frame analytics API
- Get data frame analytics jobs
- Get data frame analytics jobs stats
- Get inference trained model
- Get inference trained model stats
- Start data frame analytics jobs
- Stop data frame analytics jobs
- Migration APIs
- Reload search analyzers
- Rollup APIs
- Search APIs
- Security APIs
- Authenticate
- Change passwords
- Clear cache
- Clear roles cache
- Create API keys
- Create or update application privileges
- Create or update role mappings
- Create or update roles
- Create or update users
- Delegate PKI authentication
- Delete application privileges
- Delete role mappings
- Delete roles
- Delete users
- Disable users
- Enable users
- Get API key information
- Get application privileges
- Get builtin privileges
- Get role mappings
- Get roles
- Get token
- Get users
- Has privileges
- Invalidate API key
- Invalidate token
- OpenID Connect Prepare Authentication API
- OpenID Connect authenticate API
- OpenID Connect logout API
- SAML prepare authentication API
- SAML authenticate API
- SAML logout API
- SAML invalidate API
- SSL certificate
- Snapshot and restore APIs
- Snapshot lifecycle management API
- Transform APIs
- Usage API
- Watcher APIs
- Definitions
- Breaking changes
- Release notes
- Elasticsearch version 7.7.1
- Elasticsearch version 7.7.0
- Elasticsearch version 7.6.2
- Elasticsearch version 7.6.1
- Elasticsearch version 7.6.0
- Elasticsearch version 7.5.2
- Elasticsearch version 7.5.1
- Elasticsearch version 7.5.0
- Elasticsearch version 7.4.2
- Elasticsearch version 7.4.1
- Elasticsearch version 7.4.0
- Elasticsearch version 7.3.2
- Elasticsearch version 7.3.1
- Elasticsearch version 7.3.0
- Elasticsearch version 7.2.1
- Elasticsearch version 7.2.0
- Elasticsearch version 7.1.1
- Elasticsearch version 7.1.0
- Elasticsearch version 7.0.0
- Elasticsearch version 7.0.0-rc2
- Elasticsearch version 7.0.0-rc1
- Elasticsearch version 7.0.0-beta1
- Elasticsearch version 7.0.0-alpha2
- Elasticsearch version 7.0.0-alpha1