業務背景
框架及相應環境
laravel5.7, mysql5.7, redis5, nginx1.15
centos 7.5 bbr
docker, docker-compose
阿里云 4C和8G
問題背景
php已經開啟opcache, laravel也運行了optimize命令進行優化, composer也進行過dump-autoload命令.
首先需要聲明的是, 系統的環境中是一定有小問題的(沒有問題也不可能能夠提升如此大的性能), 但是這些問題, 如果不通過使用合適的工具, 可能一輩子也發現不出來.
本文關注的就是如何發現這些問題, 以及發現問題的思路.
我們首先找到系統中一個合適的API或函數, 用來放大問題.
這個api設計之初是給nginx負載均衡做健康檢查的.使用ab -n 100000 -c 1000 進行壓測, 發現qps只能到140個每秒.
我們知道Laravel的性能是出了名的不好, 但是也不至于到這個程度, 從api的編寫來看不應該這么低. 所以決定一探究竟.
html' target='_blank'>public function getActivateStatus() { try { $result = /DB::select('select 1'); $key = 1; if ($result[0]->$key !== 1) { throw new /Exception("mysql 檢查失敗"); } } catch (/Exception $exception) { /Log::critical("數據庫連接失敗: {$exception->getMessage()}", $exception->getTrace()); return /response(null, 500); } try { Cache::getRedis()->connection()->exists("1"); } catch (/Exception $exception) { /Log::critical("緩存連接失敗: {$exception->getMessage()}", $exception->getTrace()); return /response(null, 500); } return /response(null, 204); }
問題表現以及排查思路
top
top命令發現系統CPU占用100%其中用戶態占80%, 內核態占20%, 看起來沒什么大問題. 有一個地方看起來很奇怪,top命令的運行結果
就是有一部分php-fpm進程處在Sleep狀態, 但CPU占用還是達到了近30%.當一個進程處于Sleep狀態的時候, 任然占用了不少CPU, 先不要懷疑是不是進程的問題, 我們看一下Ttop命令的man page.
%CPU -- CPU usageThe task's share of the elapsed CPU time since the last screen update, expressed as a percentage of total CPU time.
大致意思是這個占用是最后一次屏幕刷新的時候, 進程CPU的占用. 由于top命令收集信息的時候, 可能linux把這個進程強制調度了 ( 比如用于top收集進程信息 ), 所以在這一瞬間(屏幕刷新的這一瞬間)某些php-fpm進程處于sleep狀態, 可以理解, 所以應該不是php-fpm的問題.
pidstat
首先選出一個php-fpm進程, 然后使用pidstat查看進程詳細的運行情況
過程中也沒發現什么異樣, 并且和top命令的運行結果也基本一致.
vmstat
保持壓測壓力, 運行vmstate查看, 除了context switch (上下文切換)有點高之外, 并沒有看到太多異常.由于我們使用的docker, redis, mysql都運行在同一臺機器上, 7000左右的CS還是一個合理的范圍, 但是這個IN(中斷)就有點太高了, 達到了1.4萬左右. 一定有什么東西觸發了中斷.
我們知道中斷有硬中斷和軟中斷, 硬中斷是由網卡, 鼠標等硬件發出中斷信號, cpu馬上停下在做的事情, 處理中斷信號. 軟中斷是由操作系統發出的, 常用于進程的強制調度.
不管是vmstat還是pidstat都只是新能探測工具, 我們無法看到具體的中斷是由誰發出的.我們通過/proc/interrupts 這個只讀文件中讀取系統的中斷信息, 獲取到底是什么導致的中斷升高. 通過watch -d命令, 判斷變化最頻繁的中斷.
watch -d cat /proc/interrupts
我們發現其中Rescheduling interrupts變化的最快, 這個是重調度中斷(RES),這個中斷類型表示,喚醒空閑狀態的CPU 來調度新的任務運行。這是多處理器系統(SMP)中,調度器用來分散任務到不同 CPU的機制,通常也被稱為處理器間中斷(Inter-Processor Interrupts,IPI)。結合vmstat中的命令, 我們可以確定造成qps不高的原因之一是過多的進程爭搶CPU導致的, 我們現在還不能確定具體是什么, 所以還需要進一步的排查.
strace
strace可以查看系統調用, 我們知道, 當使用系統調用的時候, 系統陷入內核態, 這個過程是會產生軟中斷的, 通過查看php-fpm的系統調用, 驗證我們的猜想
果然, 發現大量的stat系統調用, 我們猜想, 是opcache在檢查文件是否過期導致的. 我們通過修改opcache的配置, 讓opcache更少的檢查文件timestamp, 減少這種系統調用
opcache.validate_timestamps="60" opcache.revalidate_freq="0"
再次執行ab命令進行壓測
果然qps直接漲到了205, 提升非常明顯, 有接近 46% 的提升
perf
現在任然不滿足這個性能, 希望在更多地方找到突破口.通過
perf record -gperf report -g
看到系統的分析報告
我們看到, 好像這里面有太多tcp建立相關的系統調用(具體是不是我還不清楚, 請大神指正, 但是看到send, ip, tcp啥的我就懷疑可能是tcp/ip相關的問題).
我們懷疑兩種情況
與mysql, redis重復大量的建立TCP連接, 消耗資源
大量請求帶來的tcp連接
先說第一個, 經過檢查, 發現數據庫連接使用了php-fpm的連接池, 但是redis連接沒有, redis用的predis, 這個是一個純PHP實現, 性能不高, 換成了phpredis:
打開laravel的config/database.php文件, 修改redis的driver為phpredis, 確保本機已安裝php的redis擴展. 另外由于Laravel自己封裝了一個Redis門面, 而恰好redis擴展帶來的對象名也叫Redis. 所以需要修改Laravel的Redis門面為其他名字, 如RedisL5.
再次進行壓測
達到了喜人的286qps, 雖然和其他主打高性能的框架或者原生php比, 還有很高的提升空間(比如Swoole), 但是最終達到了104%的提升, 還是很有意義的
總結
我們通過top, 發現系統CPU占用高, 且發現確實是php-fpm進程占用了CPU資源, 判斷系統瓶頸來自于PHP.
接著我們通過pidstat, vmstat發現壓測過程中, 出現了大量的系統中斷, 并通過 watch -d cat /proc/interrupts 發現主要的中斷來自于重調度中斷(RES)
通過strace查看具體的系統調用, 發現大量的系統調用來自于stat, 猜測可能是opcache頻繁的檢查時間戳, 判斷文件修改. 通過修改配置項, 達到了46%的性能提升
最后再通過perf, 查看函數調用棧, 分析得到, 可能是大量的與redis的TCP連接帶來不必要的資源消耗. 通過安裝redis擴展, 以及使用phpredis來驅動Laravel的redis緩存, 提升性能, 達到了又一次近50%的性能提升.
最終我們完成了我們的性能提升104%的目標
推薦教程:網站高并發架設基礎教程
以上就是PHP并發性能調優實戰(性能提升104%)的詳細內容,更多請關注 其它相關文章!
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時間聯系我們修改或刪除,多謝。
新聞熱點
疑難解答