国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁(yè) > 數(shù)據(jù)庫(kù) > MongoDB > 正文

MongoDB數(shù)據(jù)庫(kù)查詢性能提高40倍的經(jīng)歷分享

2020-10-29 18:47:35
字體:
供稿:網(wǎng)友

前言

數(shù)據(jù)庫(kù)性能對(duì)軟件整體性能有著至關(guān)重要的影響,本文給大家分享了一次MongoDB數(shù)據(jù)庫(kù)查詢性能提高40倍的經(jīng)歷,感興趣的朋友們可以參考學(xué)習(xí)。

背景說明

1、數(shù)據(jù)庫(kù):MongoDB

2、數(shù)據(jù)集:

  • A:字段數(shù)不定,這里主要用到的兩個(gè)UID和Date
  • B:三個(gè)字段,UID、Date、Actions。其中Actions字段是包含260元素JSON數(shù)組,每個(gè)JSON對(duì)象有6個(gè)字段。共有數(shù)據(jù)800萬條左右。

3、業(yè)務(wù)場(chǎng)景:求平均數(shù)

  • 通過組合條件從A數(shù)據(jù)表查詢出(UID,Date)列表,最多可能包含數(shù)萬條記錄;
  • 然后用第1步的結(jié)果從B中查詢出對(duì)應(yīng)的數(shù)據(jù)
  • 用第2步結(jié)果去Actions的某個(gè)固定位置的元素的進(jìn)行計(jì)算

進(jìn)化過程

在這里使用Python演示

最直接想到的方法

根據(jù)上面的業(yè)務(wù)場(chǎng)景描述,最容易想到的解決方法就是

from pymongo import MongoClient# 連接數(shù)據(jù)庫(kù)db = MongoClient('mongodb://127.0.0.1:27017')['my_db']# 簡(jiǎn)化的查詢數(shù)據(jù)集A的條件filter = {...}# 查詢Collection Aa_cursor = db.a.find(_filter)a_docs = [x for x in a_cursor]# 變量的初始定義count = 0total = 0# 加入需要用到的元素為第21個(gè)index = 20# 查詢Collection B,同時(shí)做累加for a_doc in a _docs: b_doc = db.b.find_one({'uid':a_doc['uid'], 'date': a_doc['date']}) # 只有能查到相應(yīng)的結(jié)果時(shí),才可以 if b_doc is not None: total += b_doc['actions'][20]['number'] count += 1 # 求平均數(shù) if count > 0 : avg = total/count

實(shí)現(xiàn)難度當(dāng)然是最低的,可是整個(gè)任務(wù)在第一步只有1萬條左右的返回時(shí),消耗的時(shí)間竟然達(dá)到了驚人38秒。當(dāng)然這是已經(jīng)加了索引的結(jié)果,否則可能都無法得到結(jié)果了。

減少查詢次數(shù)

瓶頸顯而易見,在循環(huán)中查詢Collection B,增加了網(wǎng)絡(luò)開銷,自然也就增加時(shí)間,如果一次查詢出所有結(jié)果,自然會(huì)大大提高效率。也就是說,我要把第一步的結(jié)果作為條件一次性傳遞,做一個(gè)$in操作。可是怎么才能做到呢?如果在uid和date上分別做$in操作,那么返回的結(jié)果就會(huì)是二者單獨(dú)做$操作的合集,很顯然這和要求是不符的。

經(jīng)過上面的分析,似乎進(jìn)入了死胡同。其實(shí)答案也基本顯現(xiàn)了,需要有一個(gè)字段可以滿足上面的要求,那么這個(gè)字段就是uid和date的合體,就命名為uid_date。uid_date是一個(gè)新字段,在B中并不存在,在使用之前需要將數(shù)據(jù)庫(kù)現(xiàn)有的數(shù)據(jù)做一下處理。

處理完畢改造程序:

# 下面的只體現(xiàn)和本次修改相關(guān)的內(nèi)容uid_date_list = []for a_doc in a_docs: uid_date_list.append(a_doc['uid'] + '_' + a_doc['date'])# 查詢Bb_cursor = db.b.find({'uid_date':{'$in':uid_date_list}})# 下面就是取出結(jié)果,求平均數(shù)...

這一番改造頗費(fèi)時(shí)間,主要是前期的數(shù)據(jù)處理。代碼改造完畢,執(zhí)行下看看吧。

可是,可是…… 45秒

我做錯(cuò)了什么?!

增加返回記錄數(shù)

我還是堅(jiān)信上面的優(yōu)化思路是對(duì)的,現(xiàn)在看看數(shù)據(jù)庫(kù)能給一些什么線索吧。

登錄到數(shù)據(jù)庫(kù)服務(wù)器,找到MongoDB的日志/data/mongodb/logs/mongod.log。仔細(xì)查找,發(fā)現(xiàn)在查詢數(shù)據(jù)集B時(shí)有很多getMore命令。這就奇怪了,我是一次性查詢,為什么還有g(shù)etMore。

趕緊查下官方的文檔,然后發(fā)現(xiàn)了下面的內(nèi)容:


batcSize參數(shù)指定了每次返回的個(gè)數(shù),默認(rèn)的101個(gè)。那看來這個(gè)應(yīng)該是問題所在。找下pymongo的文檔,也可以設(shè)置這個(gè)參數(shù),那就設(shè)個(gè)大的吧10000。

再次改造程序如下:

# 增加batch_sizeb_cursor = db.b.find({'uid_date':{'$in': uid_date_list}}, batch_size=10000)

這次總該可以了。

嗯,好了一些,降到了20秒左右。可是,這離1秒只能還差距20倍呢。

返回值減負(fù)

當(dāng)日不能放棄,繼續(xù)通過日志查找線索,發(fā)現(xiàn)還是有很多getMore。通過各方查找,發(fā)現(xiàn)mongodb每次最多返回16M的記錄,通過getMore日志的比對(duì),發(fā)現(xiàn)的確如此。由于B中每條記錄的過去龐大,每次只能幾百條記錄,因此要一次多返回,那就必須要減少每次返回的記錄數(shù)。因?yàn)樵谟?jì)算時(shí),只用了特定索引位置上的數(shù)據(jù),所以只返回該條記錄就可以了。

最后的代碼就不再寫了,具體可以參考官方文檔的實(shí)例。

總結(jié)

以上就是這篇文章的全部?jī)?nèi)容了,希望本文的內(nèi)容對(duì)大家的學(xué)習(xí)或者工作能帶來一定的幫助,如果有疑問大家可以留言交流。

發(fā)表評(píng)論 共有條評(píng)論
用戶名: 密碼:
驗(yàn)證碼: 匿名發(fā)表
主站蜘蛛池模板: 武乡县| 察隅县| 奇台县| 庆安县| 枣阳市| 墨玉县| 黄冈市| 开平市| 保亭| 伊宁县| 五华县| 龙口市| 贺兰县| 罗源县| 石柱| 巴青县| 建昌县| 连江县| 垫江县| 增城市| 万全县| 城固县| 日照市| 张家口市| 恭城| 喜德县| 西丰县| 喀喇沁旗| 莆田市| 福清市| 灵川县| 上饶市| 沭阳县| 清水河县| 阿坝| 高淳县| 宁安市| 盐边县| 盐源县| 云南省| 庄浪县|