国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

Python中使用MELIAE分析程序內存占用實例

2020-02-23 06:25:51
字體:
來源:轉載
供稿:網友

寫的dht協議搜索的程序,這幾天優化了一下發現速度確實快了好多。但是出現了一個新的問題,內存直接飆升,我開了十個爬蟲占用內存800m。開始我以為是節點太多了,找了幾個小問題修改一下,發現沒用。后來就到網上查找python內存分析的工具,查了一點資料發現python有個meliae庫操作非常方便,就使用分析了一下,發現不是節點太多的原因0 0,是保存發送的t_id,用來標示返回的消息是那個發出的一個字典過大了。

從分析的結果非常容易的定位了某個對象的數量和大小,非常容易分析。我開始以為是因為好多發送查詢信息以后,對面沒返回造成這個字典里的元素沒有釋放造成的,我就用過期時間判斷了一下,進行過期刪除。發現是小了,但是不是非常顯著,好像少了幾十不到100M。后來又減少了查找一個隨機hash的時間,以前是1分鐘查一次,我改成了就第一次查!,發現沒減少0 0.不知道是啥的原因。應該就是查找hash,詢問節點,然后返回然后詢問里邊的節點,最后數量越來越多,但是我不明白的是,怎么會這么多運行一分鐘就有60萬條。也就是說當時內存沒釋放的對象就有這么多。達到這個內存占用后,基本就不再變化,有很小很慢的提升,因為還開的其他程序,不確定是不是這些程序其他對象的增加造成的。等分階段dump測試一下。

安裝直接pip install meliae 就ok了,我看好久沒更新的項目了,不知道還有沒有好的替代品不過用著還不錯。

將內存dump到文件
代碼如下:
 from meliae import scanner
 scanner.dump_all_objects('/tmp/dump%s.txt' % time.time())

分析文件:
代碼如下:
 from meliae import loader
 #加載dump文件
 om = loader.load('/opt/log/dump.txt')
 #計算各Objects的引用關系
 om.compute_parents()
 #去掉各對象Instance的_dict_屬性
 om.collapse_instance_dicts()
 #分析內存占用情況
 om.summarize()

字段意義如下:
Index : 行索引號
Count : 該類型的對象總數
%(Count) : 該類型的對象總數 占 所有類型的對象總數 的百分比
Size : 該類型的對象總字節數
%(Size) : 該類型的對象總字節數 占 所有類型的對象總字節數 的百分比
Cum : 累積行索引后的%(Size)
Max : 該類型的對象中,最大者的字節數
Kind : 類型

分析某個對象,找出它的引用關系
代碼如下:
 #得到所有的POP3ClientProtocol對象
 p = om.get_all('POP3ClientProtocol')
 #查看第一個對象
 p[0]
 #可以查看該對象的所有引用
 p[0].c
 #查看誰引用了這個對象
 p[0].p

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 东至县| 麦盖提县| 棋牌| 卓资县| 巍山| 广汉市| 会同县| 巴林右旗| 霍城县| 随州市| 镇远县| 隆尧县| 奈曼旗| 锦屏县| 齐河县| 尼木县| 长兴县| 绥芬河市| 大丰市| 宁河县| 大埔区| 兴城市| 波密县| 南京市| 临澧县| 河曲县| 古蔺县| 屏山县| 平陆县| 沾化县| 武强县| 新建县| 上蔡县| 灵武市| 斗六市| 白玉县| 营山县| 梨树县| 河北区| 公安县| 胶州市|