欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

壓力測(cè)試過程中MySQL服務(wù)CPU占用率過高的問題排查思路

〇、經(jīng)驗(yàn)總結(jié):

  • 在關(guān)注業(yè)務(wù)接口的TPS時(shí),也要關(guān)注數(shù)據(jù)庫(kù)服務(wù)器的QPS。如果一個(gè)業(yè)務(wù)流程里包含多條查詢,那么業(yè)務(wù)接口TPS的上升對(duì)數(shù)據(jù)庫(kù)服務(wù)器QPS的放大效應(yīng)會(huì)很明顯。
  • 如果查詢結(jié)果集不大,盡量使用一條查詢語句,通過子查詢返回多個(gè)結(jié)果集,避免將多個(gè)結(jié)果集拆分成多次數(shù)據(jù)庫(kù)查詢,否則會(huì)造成過多的數(shù)據(jù)庫(kù)連接/查詢操作,消耗IO資源,降低TPS,提高CPU占用率。
  • 在業(yè)務(wù)代碼中,盡量避免在循環(huán)語句里寫數(shù)據(jù)庫(kù)查詢。
  • 依據(jù)SQL語句的使用頻率來建立索引,查詢條件字段順序按照聯(lián)合索引的字段順序來寫(從左到右的匹配順序)
  • 關(guān)注慢查日志

一、背景說明

接著上一篇Grpc性能調(diào)優(yōu)的文章繼續(xù)寫,我們這次壓測(cè)的是一個(gè)查詢用戶群組列表信息的接口,該接口里需要查詢某個(gè)用戶的所有群組信息,包括每個(gè)群組的名稱、成員數(shù)量等。
經(jīng)過之前對(duì)業(yè)務(wù)機(jī)器的JVM參數(shù)等進(jìn)行優(yōu)化后,現(xiàn)在已經(jīng)不存在業(yè)務(wù)機(jī)器的頻繁GC、CPU占用率過高、TPS上不去等問題了。但是我們遇到了兩個(gè)新問題:在業(yè)務(wù)接口并發(fā)50、TPS600左右時(shí),壓測(cè)接口出現(xiàn)了超時(shí)錯(cuò)誤,而且數(shù)據(jù)庫(kù)服務(wù)器CPU占用率超過了93%!

成都創(chuàng)新互聯(lián)于2013年創(chuàng)立,是專業(yè)互聯(lián)網(wǎng)技術(shù)服務(wù)公司,擁有項(xiàng)目成都網(wǎng)站制作、網(wǎng)站設(shè)計(jì)網(wǎng)站策劃,項(xiàng)目實(shí)施與項(xiàng)目整合能力。我們以讓每一個(gè)夢(mèng)想脫穎而出為使命,1280元揭陽做網(wǎng)站,已為上家服務(wù),為揭陽各地企業(yè)和個(gè)人服務(wù),聯(lián)系電話:028-86922220

二、測(cè)試過程

數(shù)據(jù)準(zhǔn)備:

  • t_info_group群組表:
    壓力測(cè)試過程中MySQL服務(wù)CPU占用率過高的問題排查思路

  • t_info_group_member群組成員表:
    壓力測(cè)試過程中MySQL服務(wù)CPU占用率過高的問題排查思路

數(shù)據(jù)約定:測(cè)試數(shù)據(jù)中,每個(gè)群組里面有3000個(gè)成員;每個(gè)成員有20個(gè)群組。

1、第一次壓測(cè)

我們首先進(jìn)行一次摸底測(cè)試,使用兩臺(tái)壓測(cè)機(jī)器共同發(fā)起300個(gè)并發(fā),持續(xù)壓測(cè)2分鐘。(如果只用一臺(tái)壓測(cè)機(jī)發(fā)起300個(gè)并發(fā),會(huì)由于機(jī)器端口受限,TPS超過5W后不能發(fā)起新請(qǐng)求,壓測(cè)機(jī)將報(bào)錯(cuò))
(1)數(shù)據(jù)庫(kù)連接池配置
c3p0.initialPoolSize=15
c3p0.minPoolSize=15
c3p0.acquireIncrement=10
c3p0.maxPoolSize=32
(2)數(shù)據(jù)庫(kù)慢查日志、數(shù)據(jù)庫(kù)服務(wù)器監(jiān)控指標(biāo)
壓力測(cè)試過程中MySQL服務(wù)CPU占用率過高的問題排查思路

top命令顯示CPU使用率超過了91%,而且慢查日志一直在刷!
通過分析慢查日志里面的SQL語句,以及對(duì)應(yīng)的數(shù)據(jù)庫(kù)表,發(fā)現(xiàn)查詢語句中有“where a=.. and b=.. and c=..”,但是有一個(gè)聯(lián)合索引的字段是“a, c"。根據(jù)聯(lián)合索引的匹配規(guī)則,這條sql用不了索引,導(dǎo)致慢查。經(jīng)過將索引更換成"a, b, c",單條sql查詢效率提高一倍。

2、第二次壓測(cè)

使用兩臺(tái)壓測(cè)機(jī)器共同發(fā)起50個(gè)并發(fā),持續(xù)壓測(cè)2分鐘。
(1)其他配置均不做改變。
(2)數(shù)據(jù)庫(kù)慢查日志、數(shù)據(jù)庫(kù)服務(wù)器監(jiān)控指標(biāo)
經(jīng)過上述調(diào)整,慢查日志沒有了,但是CPU使用率依然還是超過了90%。這是一個(gè)不能容忍的數(shù)據(jù),如果并發(fā)繼續(xù)提高,數(shù)據(jù)庫(kù)服務(wù)器很快將被撐爆。
壓力測(cè)試過程中MySQL服務(wù)CPU占用率過高的問題排查思路

壓力測(cè)試過程中MySQL服務(wù)CPU占用率過高的問題排查思路

由于其他涉及到sql查詢的接口在壓測(cè)時(shí)都沒有出現(xiàn)過CPU占用率這么高的情況,所以我們排除了數(shù)據(jù)庫(kù)服務(wù)器安裝配置的問題。
我們開始思考出現(xiàn)問題的可能原因:

  • 數(shù)據(jù)庫(kù)連接池等參數(shù)配置有缺陷,導(dǎo)致連接池不夠用,一直在建立新的連接。
  • 業(yè)務(wù)代碼邏輯可能存在缺陷,導(dǎo)致查詢語句消耗過多IO或內(nèi)存資源。
  • 并發(fā)數(shù)量高,數(shù)據(jù)庫(kù)服務(wù)器CPU正常就需要占用這么多。(這是最無奈最不想接受的結(jié)局)
    我們先查看show processlist; 的結(jié)果,發(fā)現(xiàn)有很多連接其實(shí)是空閑的,也就是說目前的連接池已經(jīng)夠用了。
    而當(dāng)我們把連接池嘗試放大,配置改為:
    c3p0.initialPoolSize=20
    c3p0.minPoolSize=20
    c3p0.acquireIncrement=20
    c3p0.maxPoolSize=128
    在這個(gè)配置下,對(duì)CPU的占用率沒有絲毫影響。那么排除連接池配置的問題。
    那有沒有可能是在當(dāng)前并發(fā)量條件下,就需要消耗這么多的CPU呢?
    我們對(duì)比了另一個(gè)涉及到SQL查詢的接口,在60個(gè)并發(fā)下,那個(gè)接口的TPS達(dá)到了1100,而現(xiàn)在壓測(cè)的接口,TPS只有600。那么在同等并發(fā)下,相同的查詢語句復(fù)雜度和查詢結(jié)果數(shù)據(jù)量條件下,現(xiàn)在壓測(cè)的接口不僅TPS低,還占用了過多的CPU,可能就不是數(shù)據(jù)庫(kù)的問題。這就排除了因并發(fā)量高而必然導(dǎo)致CPU占用率超過90%的假設(shè)。
    我們繼續(xù)看數(shù)據(jù)庫(kù)服務(wù)器的監(jiān)控指標(biāo),使用阿里的orzdba腳本監(jiān)控MySQL服務(wù)器。
    當(dāng)前壓測(cè)接口的MySQL服務(wù)器指標(biāo)數(shù)據(jù):
    壓力測(cè)試過程中MySQL服務(wù)CPU占用率過高的問題排查思路

對(duì)照接口的指標(biāo)數(shù)據(jù):
壓力測(cè)試過程中MySQL服務(wù)CPU占用率過高的問題排查思路

從上述兩個(gè)對(duì)比圖可以看到,當(dāng)前壓測(cè)接口的數(shù)據(jù)庫(kù)QPS高達(dá)3000。對(duì)比數(shù)據(jù)匯總一下,可以看出一些問題:
當(dāng)前接口:
并發(fā):60,TPS:600,數(shù)據(jù)庫(kù)CPU:92%,數(shù)據(jù)庫(kù)QPS:3000
對(duì)照接口:
并發(fā)60,TPS:1000,數(shù)據(jù)庫(kù)CPU:20%,數(shù)據(jù)庫(kù)QPS:1400
當(dāng)前壓測(cè)接口處理更耗時(shí),可能原因是一次接口業(yè)務(wù)里涉及到了多次數(shù)據(jù)庫(kù)操作。
那么接下來就是排查業(yè)務(wù)代碼里的數(shù)據(jù)庫(kù)操作了。進(jìn)行code review!
核心業(yè)務(wù)偽代碼:
//查詢用戶的群組列表
List<Dto> groupList = groupDao.selectGroups(userId);
for(Dto dto:groupList){
//查詢每個(gè)群組的用戶數(shù),會(huì)循環(huán)20次!
int userNumber = groupDao.getGroupNumber(dto.getAsIong(groupId));
}

這段代碼怎么這么別扭?第一個(gè)查詢已經(jīng)去查詢?nèi)航M信息了,還要用for循環(huán)去遍歷20次統(tǒng)計(jì)每個(gè)群組用戶數(shù)??
這樣操作的話,一次接口請(qǐng)求將操作很多次的數(shù)據(jù)庫(kù)查詢,并帶來更多網(wǎng)絡(luò)、IO操作。那么CPU占用率過高的問題很可能是這個(gè)情況導(dǎo)致的。
我們的優(yōu)化措施是優(yōu)化groupDao.selectGroups(userId)對(duì)應(yīng)的查詢語句,使用子查詢返回用戶的群組列表和每個(gè)群組的用戶數(shù),去掉for循環(huán)。

3、第三次壓測(cè)

使用兩臺(tái)壓測(cè)機(jī)器共同發(fā)起50個(gè)并發(fā),持續(xù)壓測(cè)2分鐘。
(1)其他配置均不做改變。
(2)數(shù)據(jù)庫(kù)慢查日志、數(shù)據(jù)庫(kù)服務(wù)器監(jiān)控指標(biāo)
數(shù)據(jù)庫(kù)慢查日志沒有提示慢查SQL語句,數(shù)據(jù)庫(kù)服務(wù)器CPU占用率穩(wěn)定在80%以下,數(shù)據(jù)庫(kù)QPS提高到了近7000!這個(gè)優(yōu)化效果可以說是非常的明顯了。

壓力測(cè)試過程中MySQL服務(wù)CPU占用率過高的問題排查思路

4、留給我的疑問

也許有人會(huì)問:代碼優(yōu)化后數(shù)據(jù)庫(kù)的QPS比之前更高了,那CPU使用應(yīng)該更多啊,但是為什么數(shù)據(jù)庫(kù)的CPU占用率反而降下來了呢?這是為什么呢?[這個(gè)問題,其實(shí)我也沒有想明白,有知道原因的朋友歡迎留言討論。]
對(duì)于這個(gè)問題,我最近一直在思考,并查閱相關(guān)的資料,突然從接口優(yōu)化前后的性能數(shù)據(jù)上可以看到:優(yōu)化前,業(yè)務(wù)接口的TPS才600,數(shù)據(jù)庫(kù)QPS才3000,而優(yōu)化后的業(yè)務(wù)接口TPS達(dá)到了1100,幾乎翻倍,同時(shí)數(shù)據(jù)庫(kù)QPS達(dá)到了6000,也翻倍了,但數(shù)據(jù)庫(kù)CPU使用率反而降低了。從這幾個(gè)數(shù)據(jù)可以得到這樣一條結(jié)論:接口TPS的增長(zhǎng),自然導(dǎo)致了數(shù)據(jù)庫(kù)QPS的同級(jí)別增長(zhǎng),說明在優(yōu)化前和優(yōu)化后,數(shù)據(jù)庫(kù)的壓力瓶頸還遠(yuǎn)沒有達(dá)到,那么數(shù)據(jù)庫(kù)服務(wù)器CPU使用率的飆高,也不是由于SQL處理導(dǎo)致的!
數(shù)據(jù)庫(kù)服務(wù)器的資源消耗,除了SQL執(zhí)行、磁盤IO,其實(shí)還有網(wǎng)絡(luò)連接。
優(yōu)化前的代碼里,一次TPS會(huì)進(jìn)行多次數(shù)據(jù)庫(kù)連接并提交SQL查詢請(qǐng)求,這個(gè)操作帶來的網(wǎng)絡(luò)連接消耗也是非??捎^的,優(yōu)化后的代碼里,一次TPS就進(jìn)行一次數(shù)據(jù)庫(kù)連接并提交SQL查詢請(qǐng)求,資源消耗降低了很多。

  • 接口優(yōu)化前:
    并發(fā):60,TPS:600,數(shù)據(jù)庫(kù)CPU:92%,數(shù)據(jù)庫(kù)QPS:3000
    壓力測(cè)試過程中MySQL服務(wù)CPU占用率過高的問題排查思路
    壓力測(cè)試過程中MySQL服務(wù)CPU占用率過高的問題排查思路

  • 接口優(yōu)化后:
    并發(fā):60,TPS:1100,數(shù)據(jù)庫(kù)CPU:低于80%,數(shù)據(jù)庫(kù)QPS:6000
    壓力測(cè)試過程中MySQL服務(wù)CPU占用率過高的問題排查思路

網(wǎng)站題目:壓力測(cè)試過程中MySQL服務(wù)CPU占用率過高的問題排查思路
本文來源:http://aaarwkj.com/article38/jjjdsp.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站建設(shè)、營(yíng)銷型網(wǎng)站建設(shè)、App開發(fā)、域名注冊(cè)、建站公司標(biāo)簽優(yōu)化

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

商城網(wǎng)站建設(shè)
日日骚国产欧美一区二区| 国产精品亚洲视频欧美视频| 日日狠狠久久偷偷综合色| 日韩精品免费在线观看视频网站| 青青草av一区二区三区| 高潮内射一区二区三区| 日本熟妇一区二区三区在线视频| 91激情黑丝在线观看| 国产在线一区二区三区蜜桃| 国产av一区二区三区高潮蜜| 中文字幕一区日韩欧美| 青青草国产成人自拍视频在线观看| 欧美日韩国产av一区| 亚洲欧美日韩另类精品一区二区三区| 歪歪私人影院午夜毛片| 日韩av一区二区国产| 91高清视频在线免费观看| 精品人妻少妇av一区二区| 亚洲成年人黄色在线观看| 91精品国产高清91久久久久久| 一区二区欧美日韩91| 亚洲av男人的天堂看| 国产精品av一区二区在线| 天堂社区人妻在线亚洲| 国产精品妇女一二三区| 日韩中文字幕乱码一区| 真实夫妻露脸爱视频九色网| 一区二区三区av天堂| 亚洲免费小视频在线观看| 国产精品一区二区剧情熟女| 亚洲一区制服无码中文| 中文乱码字幕午夜无线观看| 国产亚洲精品免费专线视频 | 人妻精品中文字幕一区二区在线| 国产免费成人黄视频网站| 日本黄色录像黄色录像| 91精品在线观看首页| 蜜臀av在线播放黑丝| 免费在线观看成人av| 成人免费视频一区二区三区| 欧美一区日韩二区国产三区|