原文地址: https://www.elastic.co/guide/cn/elasticsearch/guide/current/geohash-grid-agg.html, 版权归 www.elastic.co 所有
英文版地址: https://www.elastic.co/guide/en/elasticsearch/guide/current/geohash-grid-agg.html
英文版地址: https://www.elastic.co/guide/en/elasticsearch/guide/current/geohash-grid-agg.html
请注意:
本书基于 Elasticsearch 2.x 版本,有些内容可能已经过时。
本书基于 Elasticsearch 2.x 版本,有些内容可能已经过时。
Geohash网格聚合 (Geohash Grid Aggregation)edit
查询返回的结果可能太多,无法在地图上单独显示每个地理点。 geohash_grid 按照你定义的精度计算每一个点的 geohash 值,从而将附近的位置聚合在一起 (译者注: 把坐标点转换成字符串, 位置越是靠近的坐标点, 字符串的前缀的相同值的位数越多)。
结果是一个单元格 - 一个单元格表示一个可以显示在地图上的 geohash 。通过改变 geohash 的精度,你可以按国家或者城市街区来概括全世界。
聚合是稀疏的(sparse) - 它 仅返回那些含有文档的单元。 如果 geohashes 太精确且生成了太多的 buckets,默认情况下,它将返回 10,000 个人口众多的单元格 - 这些单元格包含了人口最多的文档。然而,为了计算哪些是人口最密集的 10,000 个,它还是需要生成 所有 的 buckets 。可以通过以下方式来控制 buckets 产生的数量:
-
使用
geo_bounding_box来限制结果。 -
为你的边界大小选择一个适当的 精度(
precision)
GET /attractions/restaurant/_search
{
"size" : 0,
"query": {
"constant_score": {
"filter": {
"geo_bounding_box": {
"location": {
"top_left": {
"lat": 40.8,
"lon": -74.1
},
"bottom_right": {
"lat": 40.4,
"lon": -73.7
}
}
}
}
}
},
"aggs": {
"new_york": {
"geohash_grid": {
"field": "location",
"precision": 5
}
}
}
}
Geohashes 精度为 5 ,每个约25平方公里,所以10000个单元按这个精度将覆盖250000平方公里。我们指定的边界范围,约44km x 33km,或约1452平方公里,所以我们的边界在安全范围内;我们绝对不会在内存中创建了太多的 buckets。
前面的请求的响应数据看起来是这样的:
...
"aggregations": {
"new_york": {
"buckets": [
{
"key": "dr5rs",
"doc_count": 2
},
{
"key": "dr5re",
"doc_count": 1
}
]
}
}
...
同样,我们也没有指定任何子聚合,所以我们得到的是文档的数量。如果有需要,我们也可以了解这些 buckets 中受欢迎的餐厅类型、平均价格或其他细节。
要在地图上绘制这些 buckets,你需要一个将 geohash 转换成同等边界框或中心点的库。JavaScript 和其他语言已有的库会为你执行这个转换,但你也可以使用来自 geo-bounds-agg 的信息来处理类似的工作。