Geohash网格聚合 (Geohash Grid Aggregation)edit

查询返回的结果可能太多,无法在地图上单独显示每个地理点。 geohash_grid 按照你定义的精度计算每一个点的 geohash 值,从而将附近的位置聚合在一起 (译者注: 把坐标点转换成字符串, 位置越是靠近的坐标点, 字符串的前缀的相同值的位数越多)

结果是一个单元格 - 一个单元格表示一个可以显示在地图上的 geohash 。通过改变 geohash 的精度,你可以按国家或者城市街区来概括全世界。

聚合是稀疏的(sparse) - 它 仅返回那些含有文档的单元。 如果 geohashes 太精确且生成了太多的 buckets,默认情况下,它将返回 10,000 个人口众多的单元格 - 这些单元格包含了人口最多的文档。然而,为了计算哪些是人口最密集的 10,000 个,它还是需要生成 所有 的 buckets 。可以通过以下方式来控制 buckets 产生的数量:

  1. 使用 geo_bounding_box 来限制结果。
  2. 为你的边界大小选择一个适当的 精度(precision)
GET /attractions/restaurant/_search
{
  "size" : 0,
  "query": {
    "constant_score": {
      "filter": {
        "geo_bounding_box": {
          "location": { 
            "top_left": {
              "lat":  40.8,
              "lon": -74.1
            },
            "bottom_right": {
              "lat":  40.4,
              "lon": -73.7
            }
          }
        }
      }
    }
  },
  "aggs": {
    "new_york": {
      "geohash_grid": { 
        "field":     "location",
        "precision": 5
      }
    }
  }
}

边界框将搜索限制在大纽约区的范围

Geohashes 的精度 5 大约是 5km x 5km。

Geohashes 精度为 5 ,每个约25平方公里,所以10000个单元按这个精度将覆盖250000平方公里。我们指定的边界范围,约44km x 33km,或约1452平方公里,所以我们的边界在安全范围内;我们绝对不会在内存中创建了太多的 buckets。

前面的请求的响应数据看起来是这样的:

...
"aggregations": {
  "new_york": {
     "buckets": [ 
        {
           "key": "dr5rs",
           "doc_count": 2
        },
        {
           "key": "dr5re",
           "doc_count": 1
        }
     ]
  }
}
...

每个 bucket 包含作为 key 的 geohash 值

同样,我们也没有指定任何子聚合,所以我们得到的是文档的数量。如果有需要,我们也可以了解这些 buckets 中受欢迎的餐厅类型、平均价格或其他细节。

要在地图上绘制这些 buckets,你需要一个将 geohash 转换成同等边界框或中心点的库。JavaScript 和其他语言已有的库会为你执行这个转换,但你也可以使用来自 geo-bounds-agg 的信息来处理类似的工作。