接著上一篇Grpc性能調(diào)優(yōu)的文章繼續(xù)寫,我們這次壓測的是一個查詢用戶群組列表信息的接口,該接口里需要查詢某個用戶的所有群組信息,包括每個群組的名稱、成員數(shù)量等。
經(jīng)過之前對業(yè)務(wù)機器的JVM參數(shù)等進行優(yōu)化后,現(xiàn)在已經(jīng)不存在業(yè)務(wù)機器的頻繁GC、CPU占用率過高、TPS上不去等問題了。但是我們遇到了兩個新問題:在業(yè)務(wù)接口并發(fā)50、TPS600左右時,壓測接口出現(xiàn)了超時錯誤,而且數(shù)據(jù)庫服務(wù)器CPU占用率超過了93%!
數(shù)據(jù)準備:
t_info_group群組表:
數(shù)據(jù)約定:測試數(shù)據(jù)中,每個群組里面有3000個成員;每個成員有20個群組。
1、第一次壓測我們首先進行一次摸底測試,使用兩臺壓測機器共同發(fā)起300個并發(fā),持續(xù)壓測2分鐘。(如果只用一臺壓測機發(fā)起300個并發(fā),會由于機器端口受限,TPS超過5W后不能發(fā)起新請求,壓測機將報錯)
(1)數(shù)據(jù)庫連接池配置
c3p0.initialPoolSize=15
c3p0.minPoolSize=15
c3p0.acquireIncrement=10
c3p0.maxPoolSize=32
(2)數(shù)據(jù)庫慢查日志、數(shù)據(jù)庫服務(wù)器監(jiān)控指標
top命令顯示CPU使用率超過了91%,而且慢查日志一直在刷!
通過分析慢查日志里面的SQL語句,以及對應的數(shù)據(jù)庫表,發(fā)現(xiàn)查詢語句中有“where a=.. and b=.. and c=..”,但是有一個聯(lián)合索引的字段是“a, c"。根據(jù)聯(lián)合索引的匹配規(guī)則,這條sql用不了索引,導致慢查。經(jīng)過將索引更換成"a, b, c",單條sql查詢效率提高一倍。
使用兩臺壓測機器共同發(fā)起50個并發(fā),持續(xù)壓測2分鐘。
(1)其他配置均不做改變。
(2)數(shù)據(jù)庫慢查日志、數(shù)據(jù)庫服務(wù)器監(jiān)控指標
經(jīng)過上述調(diào)整,慢查日志沒有了,但是CPU使用率依然還是超過了90%。這是一個不能容忍的數(shù)據(jù),如果并發(fā)繼續(xù)提高,數(shù)據(jù)庫服務(wù)器很快將被撐爆。
由于其他涉及到sql查詢的接口在壓測時都沒有出現(xiàn)過CPU占用率這么高的情況,所以我們排除了數(shù)據(jù)庫服務(wù)器安裝配置的問題。
我們開始思考出現(xiàn)問題的可能原因:
對照接口的指標數(shù)據(jù):
從上述兩個對比圖可以看到,當前壓測接口的數(shù)據(jù)庫QPS高達3000。對比數(shù)據(jù)匯總一下,可以看出一些問題:
當前接口:
并發(fā):60,TPS:600,數(shù)據(jù)庫CPU:92%,數(shù)據(jù)庫QPS:3000
對照接口:
并發(fā)60,TPS:1000,數(shù)據(jù)庫CPU:20%,數(shù)據(jù)庫QPS:1400
當前壓測接口處理更耗時,可能原因是一次接口業(yè)務(wù)里涉及到了多次數(shù)據(jù)庫操作。
那么接下來就是排查業(yè)務(wù)代碼里的數(shù)據(jù)庫操作了。進行code review!
核心業(yè)務(wù)偽代碼:
//查詢用戶的群組列表
List<Dto> groupList = groupDao.selectGroups(userId);
for(Dto dto:groupList){
//查詢每個群組的用戶數(shù),會循環(huán)20次!
int userNumber = groupDao.getGroupNumber(dto.getAsIong(groupId));
}
這段代碼怎么這么別扭?第一個查詢已經(jīng)去查詢?nèi)航M信息了,還要用for循環(huán)去遍歷20次統(tǒng)計每個群組用戶數(shù)??
這樣操作的話,一次接口請求將操作很多次的數(shù)據(jù)庫查詢,并帶來更多網(wǎng)絡(luò)、IO操作。那么CPU占用率過高的問題很可能是這個情況導致的。
我們的優(yōu)化措施是優(yōu)化groupDao.selectGroups(userId)對應的查詢語句,使用子查詢返回用戶的群組列表和每個群組的用戶數(shù),去掉for循環(huán)。
使用兩臺壓測機器共同發(fā)起50個并發(fā),持續(xù)壓測2分鐘。
(1)其他配置均不做改變。
(2)數(shù)據(jù)庫慢查日志、數(shù)據(jù)庫服務(wù)器監(jiān)控指標
數(shù)據(jù)庫慢查日志沒有提示慢查SQL語句,數(shù)據(jù)庫服務(wù)器CPU占用率穩(wěn)定在80%以下,數(shù)據(jù)庫QPS提高到了近7000!這個優(yōu)化效果可以說是非常的明顯了。
也許有人會問:代碼優(yōu)化后數(shù)據(jù)庫的QPS比之前更高了,那CPU使用應該更多啊,但是為什么數(shù)據(jù)庫的CPU占用率反而降下來了呢?這是為什么呢?[這個問題,其實我也沒有想明白,有知道原因的朋友歡迎留言討論。]
對于這個問題,我最近一直在思考,并查閱相關(guān)的資料,突然從接口優(yōu)化前后的性能數(shù)據(jù)上可以看到:優(yōu)化前,業(yè)務(wù)接口的TPS才600,數(shù)據(jù)庫QPS才3000,而優(yōu)化后的業(yè)務(wù)接口TPS達到了1100,幾乎翻倍,同時數(shù)據(jù)庫QPS達到了6000,也翻倍了,但數(shù)據(jù)庫CPU使用率反而降低了。從這幾個數(shù)據(jù)可以得到這樣一條結(jié)論:接口TPS的增長,自然導致了數(shù)據(jù)庫QPS的同級別增長,說明在優(yōu)化前和優(yōu)化后,數(shù)據(jù)庫的壓力瓶頸還遠沒有達到,那么數(shù)據(jù)庫服務(wù)器CPU使用率的飆高,也不是由于SQL處理導致的!
數(shù)據(jù)庫服務(wù)器的資源消耗,除了SQL執(zhí)行、磁盤IO,其實還有網(wǎng)絡(luò)連接。
優(yōu)化前的代碼里,一次TPS會進行多次數(shù)據(jù)庫連接并提交SQL查詢請求,這個操作帶來的網(wǎng)絡(luò)連接消耗也是非??捎^的,優(yōu)化后的代碼里,一次TPS就進行一次數(shù)據(jù)庫連接并提交SQL查詢請求,資源消耗降低了很多。
接口優(yōu)化前:
并發(fā):60,TPS:600,數(shù)據(jù)庫CPU:92%,數(shù)據(jù)庫QPS:3000
本文名稱:壓力測試過程中MySQL服務(wù)CPU占用率過高的問題排查思路-創(chuàng)新互聯(lián)
轉(zhuǎn)載源于:http://muchs.cn/article30/idppo.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供定制網(wǎng)站、品牌網(wǎng)站設(shè)計、虛擬主機、網(wǎng)站建設(shè)、手機網(wǎng)站建設(shè)、網(wǎng)站排名
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)