原文地址: https://www.elastic.co/guide/cn/elasticsearch/guide/current/geohash-grid-agg.html, 版权归 www.elastic.co 所有
英文版地址: https://www.elastic.co/guide/en/elasticsearch/guide/current/geohash-grid-agg.html
英文版地址: https://www.elastic.co/guide/en/elasticsearch/guide/current/geohash-grid-agg.html
请注意:
本书基于 Elasticsearch 2.x 版本,有些内容可能已经过时。
本书基于 Elasticsearch 2.x 版本,有些内容可能已经过时。
Geohash网格聚合 (Geohash Grid Aggregation)edit
查询返回的结果可能太多,无法在地图上单独显示每个地理点。 geohash_grid
按照你定义的精度计算每一个点的 geohash 值,从而将附近的位置聚合在一起 (译者注: 把坐标点转换成字符串, 位置越是靠近的坐标点, 字符串的前缀的相同值的位数越多)。
结果是一个单元格 - 一个单元格表示一个可以显示在地图上的 geohash 。通过改变 geohash 的精度,你可以按国家或者城市街区来概括全世界。
聚合是稀疏的(sparse) - 它 仅返回那些含有文档的单元。 如果 geohashes 太精确且生成了太多的 buckets,默认情况下,它将返回 10,000 个人口众多的单元格 - 这些单元格包含了人口最多的文档。然而,为了计算哪些是人口最密集的 10,000 个,它还是需要生成 所有 的 buckets 。可以通过以下方式来控制 buckets 产生的数量:
-
使用
geo_bounding_box
来限制结果。 -
为你的边界大小选择一个适当的 精度(
precision
)
GET /attractions/restaurant/_search { "size" : 0, "query": { "constant_score": { "filter": { "geo_bounding_box": { "location": { "top_left": { "lat": 40.8, "lon": -74.1 }, "bottom_right": { "lat": 40.4, "lon": -73.7 } } } } } }, "aggs": { "new_york": { "geohash_grid": { "field": "location", "precision": 5 } } } }
Geohashes 精度为 5
,每个约25平方公里,所以10000个单元按这个精度将覆盖250000平方公里。我们指定的边界范围,约44km x 33km,或约1452平方公里,所以我们的边界在安全范围内;我们绝对不会在内存中创建了太多的 buckets。
前面的请求的响应数据看起来是这样的:
... "aggregations": { "new_york": { "buckets": [ { "key": "dr5rs", "doc_count": 2 }, { "key": "dr5re", "doc_count": 1 } ] } } ...
同样,我们也没有指定任何子聚合,所以我们得到的是文档的数量。如果有需要,我们也可以了解这些 buckets 中受欢迎的餐厅类型、平均价格或其他细节。
要在地图上绘制这些 buckets,你需要一个将 geohash 转换成同等边界框或中心点的库。JavaScript 和其他语言已有的库会为你执行这个转换,但你也可以使用来自 geo-bounds-agg 的信息来处理类似的工作。