默認nginx不支持tcp的負載均衡,需要打補丁,(連接方式:從客戶端收到一個連接,將從本地新建一個連接發起到后端服務器),具體配置如下:
一、安裝Nginx
1.下載nginx
# wget http://nginx.org/download/nginx-1.2.4.tar.gz
2.下載tcp模塊補丁
# wget https://github.com/yaoweibin/nginx_tcp_proxy_module/tarball/master
源碼主頁: https://github.com/yaoweibin/nginx_tcp_proxy_module
3.安裝nginx
# tar xvf nginx-1.2.4.tar.gz# tar xvf yaoweibin-nginx_tcp_proxy_module-v0.4-45-ga40c99a.tar.gz# cd nginx-1.2.4# patch -p1 < ../yaoweibin-nginx_tcp_proxy_module-a40c99a/tcp.patch#./configure --prefix=/usr/local/nginx --with-pcre=../pcre-8.30 --add-module=../yaoweibin-nginx_tcp_proxy_module-ae321fd/# make# make install
二、修改配置文件
修改nginx.conf配置文件
# cd /usr/local/nginx/conf# vim nginx.conf
worker_processes 1;events {worker_connections 1024;}tcp {upstream mssql {server 10.0.1.201:1433;server 10.0.1.202:1433;check interval=3000 rise=2 fall=5 timeout=1000;}server {listen 1433;server_name 10.0.1.212;proxy_pass mssql;}}
三、啟動nginx
# cd /usr/local/nginx/sbin/# ./nginx
查看1433端口:
#lsof :1433
四、測試
# telnet 10.0.1.201 1433
五、使用sql server client工具測試
六、TCP負載均衡的執行原理
當Nginx從監聽端口收到一個新的客戶端鏈接時,立刻執行路由調度算法,獲得指定需要連接的服務IP,然后創建一個新的上游連接,連接到指定服務器。
TCP負載均衡支持Nginx原有的調度算法,包括Round Robin(默認,輪詢調度),哈希(選擇一致)等。同時,調度信息數據也會和健壯性檢測模塊一起協作,為每個連接選擇適當的目標上游服務器。如果使用Hash負載均衡的調度方法,你可以使用$remote_addr(客戶端IP)來達成簡單持久化會話(同一個客戶端IP的連接,總是落到同一個服務server上)。
和其他upstream模塊一樣,TCP的stream模塊也支持自定義負載均和的轉發權重(配置“weight=2”),還有backup和down的參數,用于踢掉失效的上游服務器。max_conns參數可以限制一臺服務器的TCP連接數量,根據服務器的容量來設置恰當的配置數值,尤其在高并發的場景下,可以達到過載保護的目的。
Nginx監控客戶端連接和上游連接,一旦接收到數據,則Nginx會立刻讀取并且推送到上游連接,不會做TCP連接內的數據檢測。Nginx維護一份內存緩沖區,用于客戶端和上游數據的寫入。如果客戶端或者服務端傳輸了量很大的數據,緩沖區會適當增加內存的大小。
當Nginx收到任意一方的關閉連接通知,或者TCP連接被閑置超過了proxy_timeout配置的時間,連接將會被關閉。對于TCP長連接,我們更應該選擇適當的proxy_timeout的時間,同時,關注監聽socke的so_keepalive參數,防止過早地斷開連接。
PS:服務健壯性監控
TCP負載均衡模塊支持內置健壯性檢測,一臺上游服務器如果拒絕TCP連接超過proxy_connect_timeout配置的時間,將會被認為已經失效。在這種情況下,Nginx立刻嘗試連接upstream組內的另一臺正常的服務器。連接失敗信息將會記錄到Nginx的錯誤日志中。
如果一臺服務器,反復失?。ǔ^了max_fails或者fail_timeout配置的參數),Nginx也會踢掉這臺服務器。服務器被踢掉60秒后,Nginx會偶爾嘗試重連它,檢測它是否恢復正常。如果服務器恢復正常,Nginx將它加回到upstream組內,緩慢加大連接請求的比例。
之所“緩慢加大”,因為通常一個服務都有“熱點數據”,也就是說,80%以上甚至更多的請求,實際都會被阻擋在“熱點數據緩存”中,真正執行處理的請求只有很少的一部分。在機器剛剛啟動的時候,“熱點數據緩存”實際上還沒有建立,這個時候爆發性地轉發大量請求過來,很可能導致機器無法“承受”而再次掛掉。以mysql為例子,我們的mysql查詢,通常95%以上都是落在了內存cache中,真正執行查詢的并不多。
其實,無論是單臺機器或者一個集群,在高并發請求場景下,重啟或者切換,都存在這個風險,解決的途徑主要是兩種:
(1)請求逐步增加,從少到多,逐步積累熱點數據,最終達到正常服務狀態。
(2)提前準備好“常用”的數據,主動對服務做“預熱”,預熱完成之后,再開放服務器的訪問。
TCP負載均衡原理上和LVS等是一致的,工作在更為底層,性能會高于原來HTTP負載均衡不少。但是,不會比LVS更為出色,LVS被置于內核模塊,而Nginx工作在用戶態,而且,Nginx相對比較重。另外一點,令人感到非??上?,這個模塊竟然是個付費功能。
TCP負載均衡模塊支持內置健壯性檢測,一臺上游服務器如果拒絕TCP連接超過proxy_connect_timeout配置的時間,將會被認為已經失效。在這種情況下,Nginx立刻嘗試連接upstream組內的另一臺正常的服務器。連接失敗信息將會記錄到Nginx的錯誤日志中。
如果一臺服務器,反復失?。ǔ^了max_fails或者fail_timeout配置的參數),Nginx也會踢掉這臺服務器。服務器被踢掉60秒后,Nginx會偶爾嘗試重連它,檢測它是否恢復正常。如果服務器恢復正常,Nginx將它加回到upstream組內,緩慢加大連接請求的比例。
之所“緩慢加大”,因為通常一個服務都有“熱點數據”,也就是說,80%以上甚至更多的請求,實際都會被阻擋在“熱點數據緩存”中,真正執行處理的請求只有很少的一部分。在機器剛剛啟動的時候,“熱點數據緩存”實際上還沒有建立,這個時候爆發性地轉發大量請求過來,很可能導致機器無法“承受”而再次掛掉。以mysql為例子,我們的mysql查詢,通常95%以上都是落在了內存cache中,真正執行查詢的并不多。
其實,無論是單臺機器或者一個集群,在高并發請求場景下,重啟或者切換,都存在這個風險,解決的途徑主要是兩種:
(1)請求逐步增加,從少到多,逐步積累熱點數據,最終達到正常服務狀態。
(2)提前準備好“常用”的數據,主動對服務做“預熱”,預熱完成之后,再開放服務器的訪問。
TCP負載均衡原理上和LVS等是一致的,工作在更為底層,性能會高于原來HTTP負載均衡不少。但是,不會比LVS更為出色,LVS被置于內核模塊,而Nginx工作在用戶態,而且,Nginx相對比較重。另外一點,令人感到非??上?,這個模塊竟然是個付費功能。