以下內容,如有問題,請聯系本人刪除。1.cpu負載的定義 首先,看看cpu負載的定義。在一般情況下可以將單核心cpu的負載看成是一條單行的橋,數字1代表cpu剛好能夠處理過來,即橋上能夠順利通過所有的車輛,橋外沒有等待的車輛,橋是暢通的。當超過1時表示有等待上橋的車輛,小于1時表示車輛能夠快速的通過。單核心cpu就表示該cpu能夠處理的事務數是1,在多核cpu中cpu能夠并行處理的事務的數量應該是cpu個數*cpu核數,而且負載數最好不要超過這個數值。例如一個4核cpu,則cpu_load最大值為4,不能長期超過4,否則會有任務沒有得到及時的處理,而使系統的負載累積增高,導致系統運行緩慢。 大多數的Unix系統中的負載只是記錄那些處在運行狀態和可運行狀態的進程,但是linux有所不同,它會包含那些不可中斷的處于睡眠狀態的進程。這時當這些進程由于I/O的阻塞而不能夠運行,就可能顯著的增加cpu的負載。所以在Unix和Linux下的cpu的負載的計算方法是不一樣的,在設定監測值的時候也需要特別考率。 下面從內核源碼中分析cpu負載的計算根源,這里能夠給出cpu負載的完整計算方法。下面的代碼是是在kernel-2.6.32中的kernel/shed.c中截取的,用來計算cpu的平均負載。/* Variables and functions for calc_load */static atomic_long_t calc_load_tasks;static unsigned long calc_load_update;unsigned long avenrun[3];EXPORT_SYMBOL(avenrun);/** * get_avenrun - get the load average array * @loads: pointer to dest load array * @offset: offset to add * @shift: shift count to shift the result left * * These values are estimates at best, so no need for locking. */void get_avenrun(unsigned long *loads, unsigned long offset, int shift){loads[0] = (avenrun[0] + offset) << shift;loads[1] = (avenrun[1] + offset) << shift;loads[2] = (avenrun[2] + offset) << shift;}static unsigned longcalc_load(unsigned long load, unsigned long exp, unsigned long active){load *= exp;load += active * (FIXED_1 - exp);return load >> FSHIFT;}/* * calc_load - update the avenrun load estimates 10 ticks after the * CPUs have updated calc_load_tasks. */void calc_global_load(void){unsigned long upd = calc_load_update + 10;long active;if (time_before(jiffies, upd))return;active = atomic_long_read(&calc_load_tasks);active = active > 0 ? active * FIXED_1 : 0;avenrun[0] = calc_load(avenrun[0], EXP_1, active);avenrun[1] = calc_load(avenrun[1], EXP_5, active);avenrun[2] = calc_load(avenrun[2], EXP_15, active);calc_load_update += LOAD_FREQ;}/* * Either called from update_cpu_load() or from a cpu going idle */static void calc_load_account_active(struct rq *this_rq){long nr_active, delta;nr_active = this_rq->nr_running; //記錄在cpu上運行的進程數nr_active += (long) this_rq->nr_uninterruptible; //記錄不可中斷的進程數if (nr_active != this_rq->calc_load_active) {delta = nr_active - this_rq->calc_load_active;this_rq->calc_load_active = nr_active;atomic_long_add(delta, &calc_load_tasks);}} 從上面的代碼特別是注釋的兩行可以看出,Linux記錄cpu負載的時候是將cpu隊列中的運行進程數和不可中斷進程數都統計在內的,這樣在對cpu負載分析的時候就需要考慮不可中斷的進程的情況2.影響cpu負載的進程 從定義可以看出cpu的負載主要來自在cpu運行的進程數,隊列中準備就緒的進程數和不可中斷進程數。那么當cpu負載過高的時候如果能夠知道當前運行的進程的狀態那么就能夠判斷是哪些進程的運行導致了問題。剛好,在Linux中ps可以幫助查找當前在運行的進程的狀態,通過對這些進程的狀態的了解,就能夠很好的查找問題的真正原因。 #ps aux可以顯示進程的運行狀態 USER PID %CPU %MEM VSZ rss TTY STAT START TIME COMMAND 當使用ps aux后就可以得知一個進程的11項參數,其中STAT是顯示進程的運行狀態。 進程的狀態有以下幾種。 =================進程STAT狀態==================== D 無法中斷的休眠狀態(通常 IO 的進程) R 正在運行,在可中斷隊列中; S 處于休眠狀態,靜止狀態; T 停止或被追蹤,暫停執行; W 進入內存交換(從內核2.6開始無效); X 死掉的進程; Z 僵尸進程不存在但暫時無法消除; W: 沒有足夠的記憶體分頁可分配 WCHAN 正在等待的進程資源; <:高優先級進程 N: 低優先序進程 L: 有記憶體分頁分配并鎖在記憶體內 (即時系統或捱A I/O),即,有些頁被鎖進內存 s 進程的領導者(在它之下有子進程); l 多進程的(使用 CLONE_THREAD, 類似 NPTL pthreads); + 位于后臺的進程組;3.防止cpu負載過高的方法 短期來看,可以通過kill和killall來殺死一些影響cpu負載的進程,達到降低cpu負載的目的。 這些進程的狀態是可以利用ps 顯示出來的,然后對相關的進程采取一定的措施就能在短時間內降低cpu的負載。 關于kill和killall的用法,這里不做詳細的介紹。4.cpu負載過高的進一步分析 長遠來看,要想cpu的負載不高,就要從cpu的利用率和當前的服務來進行分析。 下面以具體的案例進行分析: 我們有臺服務器,當服務器的鏈接數過高時,就會導致nfs阻塞(該臺服務器和另外一臺服務采用nfs共享文件),這時wa為95.8%,負載馬上就上升到180.server1:~$ est 467 connections established當服務器有大量的鏈接數時會發生nfs阻塞的問題:root 2631 0.2 0.0 0 0 ? D Jul20 50:28 [nfsd]root 2632 0.2 0.0 0 0 ? D Jul20 49:24 [nfsd]root 2633 0.2 0.0 0 0 ? S Jul20 49:27 [nfsd]root 2634 0.2 0.0 0 0 ? S Jul20 49:47 [nfsd]root 2635 0.2 0.0 0 0 ? S Jul20 51:12 [nfsd]root 2636 0.2 0.0 0 0 ? S Jul20 49:00 [nfsd]root 2637 0.2 0.0 0 0 ? S Jul20 49:39 [nfsd]root 2638 0.2 0.0 0 0 ? D Jul20 50:24 [nfsd]server1:~$ toptop - 16:13:12 up 14 days, 21:21, 2 users, load average: 180.20, 59.85, 22.61Tasks: 125 total, 1 running, 124 sleeping, 0 stopped, 0 zombieCpu : 2.3%us, 1.3%sy, 0.0%ni, 0.0%id, 95.8%wa, 0.0%hi, 0.5%si, 0.0%stMem: 2076212k total, 2028752k used, 47460k free, 1804k buffersSwap: 2104472k total, 1089140k used, 1015332k free, 244076k cached通過這種簡單的分析,就基本上可以斷定問題處在nfs處,需要調整文件共享的方式。
以下內容,如有問題,請聯系本人刪除。
CPU時間片
為了提高程序執行效率,大家在很多應用中都采用了多線程模式,這樣可以將原來的序列化執行變為并行執行,任務的分解以及并行執行能夠極大地提高程序的運行效率。但這都是代碼級別的表現,而硬件是如何支持的呢?那就要靠CPU的時間片模式來說明這一切。程序的任何指令的執行往往都會要競爭CPU這個最寶貴的資源,不論你的程序分成了多少個線程去執行不同的任務,他們都必須排隊等待獲取這個資源來計算和處理命令。先看看單CPU的情況。下面兩圖描述了時間片模式和非時間片模式下的線程執行的情況:
圖 1 非時間片線程執行情況
圖 2 非時間片線程執行情況
在圖一中可以看到,任何線程如果都排隊等待CPU資源的獲取,那么所謂的多線程就沒有任何實際意義。圖二中的CPU Manager只是我虛擬的一個角色,由它來分配和管理CPU的使用狀況,此時多線程將會在運行過程中都有機會得到CPU資源,也真正實現了在單CPU的情況下實現多線程并行處理。
多CPU的情況只是單CPU的擴展,當所有的CPU都滿負荷運作的時候,就會對每一個CPU采用時間片的方式來提高效率。
在Linux的內核處理過程中,每一個進程默認會有一個固定的時間片來執行命令(默認為1/100秒),這段時間內進程被分配到CPU,然后獨占使用。如果使用完,同時未到時間片的規定時間,那么就主動放棄CPU的占用,如果到時間片尚未完成工作,那么CPU的使用權也會被收回,進程將會被中斷掛起等待下一個時間片。
CPU利用率和Load Average的區別
壓力測試不僅需要對業務場景的并發用戶等壓力參數作模擬,同時也需要在壓力測試過程中隨時關注機器的性能情況,來確保壓力測試的有效性。當服務器長期處于一種超負荷的情況下運行,所能接收的壓力并不是我們所認為的可接受的壓力。就好比項目經理在給一個人估工作量的時候,每天都讓這個人工作12個小時,那么所制定的項目計劃就不是一個合理的計劃,那個人遲早會垮掉,而影響整體的項目進度。
CPU利用率在過去常常被我們這些外行認為是判斷機器是否已經到了滿負荷的一個標準,看到50%-60%的使用率就認為機器就已經壓到了臨界了。CPU利用率,顧名思義就是對于CPU的使用狀況,這是對一個時間段內CPU使用狀況的統計,通過這個指標可以看出在某一個時間段內CPU被占用的情況,如果被占用時間很高,那么就需要考慮CPU是否已經處于超負荷運作,長期超負荷運作對于機器本身來說是一種損害,因此必須將CPU的利用率控制在一定的比例下,以保證機器的正常運作。
Load Average是CPU的Load,它所包含的信息不是CPU的使用率狀況,而是在一段時間內CPU正在處理以及等待CPU處理的進程數之和的統計信息,也就是CPU使用隊列的長度的統計信息。為什么要統計這個信息,這個信息的對于壓力測試的影響究竟是怎么樣的,那就通過一個類比來解釋CPU利用率和Load Average的區別以及對于壓力測試的指導意義。
我們將CPU就類比為電話亭,每一個進程都是一個需要打電話的人?,F在一共有4個電話亭(就好比我們的機器有4核),有10個人需要打電話?,F在使用電話的規則是管理員會按照順序給每一個人輪流分配1分鐘的使用電話時間,如果使用者在1分鐘內使用完畢,那么可以立刻將電話使用權返還給管理員,如果到了1分鐘電話使用者還沒有使用完畢,那么需要重新排隊,等待再次分配使用。
圖 3 電話使用場景
上圖中對于使用電話的用戶又作了一次分類,1min的代表這些使用者占用電話時間小于等于1min,2min表示使用者占用電話時間小于等于2min,以此類推。根據電話使用規則,1min的用戶只需要得到一次分配即可完成通話,而其他兩類用戶需要排隊兩次到三次。
電話的利用率 = sum (active use cpu time)/period
每一個分配到電話的使用者使用電話時間的總和去除以統計的時間段。這里需要注意的是是使用電話的時間總和(sum(active use cpu time)),這與占用時間的總和(sum(occupy cpu time))是有區別的。(例如一個用戶得到了一分鐘的使用權,在10秒鐘內打了電話,然后去查詢號碼本花了20秒鐘,再用剩下的30秒打了另一個電話,那么占用了電話1分鐘,實際只是使用了40秒)
電話的Average Load體現的是在某一統計時間段內,所有使用電話的人加上等待電話分配的人一個平均統計。
電話利用率的統計能夠反映的是電話被使用的情況,當電話長期處于被使用而沒有的到足夠的時間休息間歇,那么對于電話硬件來說是一種超負荷的運作,需要調整使用頻度。而電話Average Load卻從另一個角度來展現對于電話使用狀態的描述,Average Load越高說明對于電話資源的競爭越激烈,電話資源比較短缺。對于資源的申請和維護其實也是需要很大的成本,所以在這種高Average Load的情況下電話資源的長期“熱競爭”也是對于硬件的一種損害。
低利用率的情況下是否會有高Load Average的情況產生呢?理解占有時間和使用時間就可以知道,當分配時間片以后,是否使用完全取決于使用者,因此完全可能出現低利用率高Load Average的情況。由此來看,僅僅從CPU的使用率來判斷CPU是否處于一種超負荷的工作狀態還是不夠的,必須結合Load Average來全局的看CPU的使用情況和申請情況。
所以回過頭來再看測試部對于Load Average的要求,在我們機器為8個CPU的情況下,控制在10 Load左右,也就是每一個CPU正在處理一個請求,同時還有2個在等待處理??戳丝淳W上很多人的介紹一般來說Load簡單的計算就是2* CPU個數減去1-2左右(這個只是網上看來的,未必是一個標準)。
補充幾點:
1.對于CPU利用率和CPU Load Average的結果來判斷性能問題。首先低CPU利用率不表明CPU不是瓶頸,競爭CPU的隊列長期保持較長也是CPU超負荷的一種表現。對于應用來說可能會去花時間在I/O,Socket等方面,那么可以考慮是否后這些硬件的速度影響了整體的效率。
這里最好的樣板范例就是我在測試中發現的一個現象:Sip當前在處理過程中,為了提高處理效率,將控制策略以及計數信息都放置在Memcached Cache里面,當我將Memcached Cache配置擴容一倍以后,CPU的利用率以及Load都有所下降,其實也就是在處理任務的過程中,等待Socket的返回對于CPU的競爭也產生了影響。
2.未來多CPU編程的重要性?,F在服務器的CPU都是多CPU了,我們的服務器處理能力已經不再按照摩爾定律來發展。就我上面提到的電話亭場景來看,對于三種不同時間需求的用戶來說,采用不同的分配順序,我們可看到的Load Average就會有不同。假設我們統計Load的時間段為2分鐘,如果將電話分配的順序按照:1min的用戶,2min的用戶,3min的用戶來分配,那么我們的Load Average將會最低,采用其他順序將會有不同的結果。所以未來的多CPU編程可以更好的提高CPU的利用率,讓程序跑的更快。