国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 數據庫 > MySQL > 正文

MySQL Slave 觸發 oom-killer解決方法

2024-07-24 13:10:05
字體:
來源:轉載
供稿:網友

最近經常有收到MySQL實例類似內存不足的報警信息,登陸到服務器上一看發現MySQL 吃掉了99%的內存,God !

有時候沒有及時處理,內核就會自己幫我們重啟下MySQL,然后我們就可以看到 dmesg 信息有如下記錄:

Mar 9 11:29:16 xxxxxx kernel: mysqld invoked oom-killer: gfp_mask=0x201da, order=0, oom_adj=0, oom_score_adj=0
Mar 9 11:29:16 xxxxxx kernel: mysqld cpuset=/ mems_allowed=0
Mar 9 11:29:16 xxxxxx kernel: Pid: 99275, comm: mysqld Not tainted 2.6.32-431.el6.x86_64 #1
Mar 9 11:29:16 xxxxxx kernel: Call Trace:

現描述一下具體場景吧:

大前提 : 操作系統以及MySQL 版本:

OS : CentOS release 6.5 (Final) Kernel : 2.6.32-431.el6.x86_64(物理機)
MySQL : Percona 5.6.23-72.1-log(單實例)

觸發場景:Slave 不管是否有其它鏈接進來都會出現內存周期性的暴漲,觸發內核oom-killer

據說這個問題都出現了1年多了,由于剛過來,老大就讓我再查查看能不能找到什么蛛絲馬跡,那么就開始Check 這個問題咯:

1. 懷疑給MySQL 分配的內存不合理,那么我就去check 了一下 innodb_buffer_pool 的大小 和物理內存的大小,發現分配給BP的大小占物理內存的60%左右,那么不是這個原因, 排除掉,要是是這個問題它們也應該早就發現了~
2. 檢查操作系統各項參數配置。[vm.swappiness = 1 ; /proc/sys/vm/overcommit_memory ; oom_adj ] 在沒排查到問題前可以臨時設置一下 adj參數 給個 -15 或者直接 -17,這樣內核就永遠不會kill 掉 mysql了, 但是這樣做不能根本解決問題, 而且存在一定的風險, 會不會導致MySQL 需要內存又分配不出來而hang住呢? 這個辦法就想想算了吧。
3. 好吧,mysql初始化參數、操作系統參數看起來沒什么配置有不恰當的地方。那我們就來找找MySQL 本身的吧!

既然MySQL 內存一直處于在飆升的狀態,那么,會不會是由于內存分配的時候導致的呢,那么根據網上報了一個MySQL 內存分配引起的一個Bug,我也來在我這個環境操作一把,一看究竟:1.記錄當前 MySQL 進程占用的 內存大小;2.記錄 show engine innodb status ; 3. 執行 flush tables; 4.記錄 show engine innodb status; 5. 記錄 MySQL 進程占用大小;6 對這兩次結果進行對比,主要看看在執行Flush table 前 和 Flush Table 后MySQL 分配的內存有沒有明顯的變化。 好吧, 這個bug 貌似不再我這里。

看了一下這個版本有個 innodb_buffer_pool_instances 參數,官網上也有關于innodb_buffer_pool_instances 和 innodb_buffer_pool_size設置不當 導致MySQL OOM 的 bug ,大概的意思就是:我們可以給innodb_buffer_pool_size 設置的比我們實際物理內存要大,比如我們物理內存是:64GB,而我們設置 innodb_buffer_pool_size=300GB,并且把 innodb_buffer_pool_instances > 5 ,我們就依舊可以把MySQL 拉起來。但是呢, 這樣MySQL很容易OOM。詳細信息:http://bugs.mysql.com/bug.php?id=79850 這里看過來。

還有種情況,也報過BUG,就是 slave 設置過濾的時候,也會觸發OOM ,but 我這些個 Instance 沒有設置, 所以就 忽略這點咯。

既然不是MySQL內存超售引起,也不是 打開表的句柄導致。那么還有什么原因呢?

我們再想想,這個現象出現在Slave,Master 和Slave 配置一樣, 只是Master 上跑了生產業務,Slave 上有些Instance 跑了查詢業務,有些Instance 根本就沒有跑任何任務,但是還是會出發OOM,那么這種情況很可能就是 Slave 引起的囖。

那我就找了個實例上去試了一把, 不試不知道啊, 一試嚇一跳。上去執行了一下:stop slave;start slave;這個命令卡了大概3分鐘,再一看內存使用情況,一下子釋放出來了20GB+。 到這里基本上算是定位到了問題所在了,但是Slave 我們都知道有兩個線程,到底是由于SQL Thread 還是 IO Thread 導致的呢? 這個還的等待下次即將發生時在進一步排查了。

貼點內存的監控信息:

12:00:01 PM kbmemfree kbmemused %memused kbbuffers kbcached kbcommit %commit
02:40:01 PM 566744 131479292 99.57 88744 618612 132384348 89.19
02:50:01 PM 553252 131492784 99.58 83216 615068 132406792 89.20
03:00:01 PM 39302700 92743336 70.24 95908 925860 132413308 89.21
03:10:01 PM 38906360 93139676 70.54 109264 1292908 132407836 89.21
03:20:01 PM 38639536 93406500 70.74 120676 1528272 132413136 89.21

我把稍微再具體點的東西記錄到了這里:https://bugs.launchpad.net/percona-server/+bug/1560304

最后稍微總結一下:

現象:Slave OOM
臨時解決辦法: 重啟Slave
長期解決辦法: 小版本升級 MySQL Server


注:相關教程知識閱讀請移步到MYSQL教程頻道。
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 麦盖提县| 瑞安市| 大荔县| 沾化县| 香格里拉县| 龙游县| 南宁市| 闵行区| 苏尼特左旗| 开平市| 新建县| 闸北区| 梁河县| 崇礼县| 丹寨县| 夏津县| 西藏| 新巴尔虎右旗| 阿坝| 乾安县| 聂荣县| 湄潭县| 古丈县| 巴中市| 威信县| 梁平县| 义马市| 平阴县| 和田市| 资阳市| 社会| 格尔木市| 白城市| 江达县| 稷山县| 论坛| 中山市| 灵宝市| 博野县| 浦北县| 徐州市|