[英]MongoDB - Querying performance for over 10 million records
首先:我已经根据MongoDB查询性能阅读了很多帖子,但我没有找到任何好的解决方案。
在集合内部,文档结构如下所示:
{
"_id" : ObjectId("535c4f1984af556ae798d629"),
"point" : [
-4.372925494081455,
41.367710205649544
],
"location" : [
{
"x" : -7.87297955453618,
"y" : 73.3680160842939
},
{
"x" : -5.87287143362673,
"y" : 73.3674043270052
}
],
"timestamp" : NumberLong("1781389600000")
}
我的收藏已经有一个索引:
db.collection.ensureIndex({timestamp:-1})
查询看起来像:
db.collection.find({ "timestamp" : { "$gte" : 1380520800000 , "$lte" : 1380546000000}})
尽管如此,响应时间太长,大约20-30秒(这个时间取决于指定的查询参数)
任何帮助都很有用!
提前致谢。
编辑:我更改了查找参数,用实际数据替换了这些参数。
上面的查询需要46秒,这是explain()函数给出的信息:
{
"cursor" : "BtreeCursor timestamp_1",
"isMultiKey" : false,
"n" : 124494,
"nscannedObjects" : 124494,
"nscanned" : 124494,
"nscannedObjectsAllPlans" : 124494,
"nscannedAllPlans" : 124494,
"scanAndOrder" : false,
"indexOnly" : false,
"nYields" : 45,
"nChunkSkips" : 0,
"millis" : 46338,
"indexBounds" : {
"timestamp" : [
[
1380520800000,
1380558200000
]
]
},
"server" : "ip-XXXXXXXX:27017"
}
解释输出不可能更理想。 你可以通过索引中找到124494个文件( nscanned
)和他们都是有效的结果,所以他们都被退回( n
)。 它仍然不是仅索引查询,因为边界不是特定文档中找到的确切值。
这个查询有点慢的原因可能是它返回的大量数据。 您找到的所有文档必须从硬盘驱动器(当集合冷却时)读取,扫描,序列化,通过网络发送到客户端并由客户端反序列化。
你真的需要那么多的数据用于你的用例吗? 如果答案是肯定的,那么回应真的重要吗? 我不知道你真正想要创建什么样的应用程序,但我疯狂地猜测你的应用程序是三个用例之一:
next
和previous
按钮。 可以使用游标方法.limit(n)
和.skip(n)
完成MongoDB分页。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.