亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb

首頁 > 編程 > JavaScript > 正文

node.js使用cluster實現多進程

2019-11-20 10:22:52
字體:
來源:轉載
供稿:網友

首先鄭重聲明:

nodeJS 是一門單線程!異步!非阻塞語言!
nodeJS 是一門單線程!異步!非阻塞語言!
nodeJS 是一門單線程!異步!非阻塞語言!

重要的事情說3遍。 因為nodeJS天生自帶buff, 所以從一出生就受到 萬千 粉絲的追捧(俺,也是它的死忠). 但是,傻逼php 竟然嘲笑 我大NodeJS 的性能。 說不穩定,不可靠,只能利用單核CPU。 辣雞 nodeJS.

艸!艸!艸!
搞mo shi~

但,大哥就是大哥,nodeJS在v0.8 的時候就已經加入了cluster的模塊。 完全打臉php. 雖然,現在php 也開始抄襲nodeJS, 退出php7, 但是,渣渣,你就只會抄...
233333
對不起啊,上面是我自已意淫的一段~ 以上內容,純屬調侃,如果雷同,純屬巧合。

Ok~ 我們來正式介紹一下nodeJS的多進程吧~

cluster的前世今生

以前,由于cluster 本身的不完善,可能由于多方面原因吧,實現性能不好。 結果是,pm2 包的 崛起。 輕松使用一個pm2 就可以開啟多進程,實現負載均衡的效果。

pm2 start app.js

pm2的內部和cluster內部實現其實是一個道理,都是封裝了一層child_process--fork. 而child_process--fork 則是封裝了unix 系統的fork 方法。 既然,都到這了,我們來看看官方給出的解釋吧。

fork() creates a new process by duplicating the calling process. The new process is referred to as the child process. The calling process is referred to as the parent process.The child process and the parent process run in separate memory spaces. At the time of fork() both memory spaces have the same content. Memory writes, file mappings (mmap(2)), and unmappings (munmap(2)) performed by one of the processes do not affect the other.

俺來翻譯一下,fork其實就是創建子進程的方法,新創建的進程被認為是子進程,而調用fork的進程則是父進程。 子進程和父進程本來是在獨立的內存空間中的。但當你使用了fork之后,兩者就處在同一個作用域內了。 但是,內存的讀寫,文件的map,都不會影響對方。

上面那段的意思就是,你創建的進程其實可以相互通信,并且被master進程 管理。

看圖~~~

其實就是這個意思。

Ok~ 這只是系統創建子進程的模型。那么在NodeJs中是怎樣實現進程之間的交互的呢?
很簡單監聽端口唄。。。

但是,實現通信不是很難,關鍵在于如果分配請求,這一點nodeJS 踩的坑確實很大。

nodeJS 實現進程分配的黑歷史

long time ago

nodeJS的master 開始并不是上帝, 他只是一個小小的太監,每次請求(妃子)來的時候,他只會默默的看著幾個worker小皇帝相互爭奪,如果某個worker勝出,則其他的worker也就草草了事,等下一個請求過來。所以說,每來一次請求,都會引起一場腥風血雨。而,我們體會最深的就是驚群現象,即,CPU爆表.

借用TJ大神的一幅圖,說明一下。


這里,master只是綁定端口,而不會對來的請求做任何處理。 通過將socket的fd給fork出來的進程。造成的結果就是4個人男人(worker)搶一個妃子(request). 那場面別提有多血腥了。

前面說過,cluster其實就是對child_process的一層封裝,那我們繼續往底層走一點。實現cluster多進程。 首先,我們需要了解,這幾個模塊的基本用法。net,child_process.

child_process

這個應該是nodeJS 進程最核心的模塊。 基本的方法,有幾個,不過我這里,只介紹比較核心的:spawn ,fork ,exec。如果大家有興趣,可以去child_process參考.

child_process.spawn(command, args)

該方法用來運行指定的程序。比如: node app.js.他是異步的命令,但不支持callback, 不過我們可以使用process.on來監聽結果。 他自帶3個參數.

command: 執行命令
args[Array]: 命令所帶的參數
options[Object]: 環境變量對象

OK~ 我們舉個一個簡單的demo: 試一試運行 touch apawn.js

const spawn = require('child_process').spawn;const touch = spawn('touch',['spawn.js']);touch.stdout.on('data', (data) => { console.log(`stdout: ${data}`);});touch.stderr.on('data', (data) => { console.log(`stderr: ${data}`);});touch.on('close', (code) => { console.log(`child process exited with code $[code]`);});

如果,正確的話,應該會輸
child process exited with code 0. 然后運行目錄會生成pawn.js文件。 當然,如果你需要運行多參數的命令的話這就有點蛋疼了。
所以,nodeJS 使用了exec對其進行很好的封裝,而且他支持回調函數,這比較能夠讓我們理解。

child_process.exec(order,cb(err[,stdout,stderr]));

order: 就是你執行的命令. 比如: rm spawn.js
cb: 就是命令執行成功后的回調函數。

const childProcess = require('child_process');const ls = childProcess.exec('rm spawn.js', function (error, stdout, stderr) {  if (error) {   console.log(error.stack);   console.log('Error code: '+error.code);  }  console.log('Child Process STDOUT: '+stdout);});

正常情況下會刪除spawn.js文件。

上面兩個只是簡單的運行進程的命令。 最后,(Boss總是最后出場的). 我們來瞧瞧fork方法的使用.
fork其實也是用來執行進程,比如,spawn("node",['app.js']),其實和fork('app.js') 是一樣的效果的。但是,fork牛逼的地方在于他在開啟一個子進程時,同時建立了一個信息通道(雙工的哦). 倆個進程之間使用process.on("message",fn)和process.send(...)進行信息的交流.

child_process.fork(order) //創建子進程

worker.on('message',cb) //監聽message事件

worker.send(mes) //發送信息

他和spawn類似都是通過返回的通道進行通信。舉一個demo, 兩個文件master.js和worker.js 來看一下.

//master.jsconst childProcess = require('child_process');const worker = childProcess.fork('worker.js');worker.on('message',function(mes){  console.log(`from worder, message: ${mes}`);});worker.send("this is master");//worker.jsprocess.on('message',function(mes){  console.log(`from master, message: ${mes}`);});process.send("this is worker");

運行,node app.js, 會輸出一下結果:

from master, message: this is masterfrom worker, message: this is worker

現在我們已經學會了,如何使用child_process來創建一個基本的進程了。
關于net 這一模塊,大家可以參考一下net模塊.

ok . 現在我們正式進入,模擬nodeJS cluster模塊通信的procedure了。

out of date 的cluster

這里先介紹一下,曾經的cluster實現的一套機理。同樣,再放一次圖


我們使用net和child_process來模仿一下。

//master.jsconst net = require('net');const fork = require('child_process').fork;var handle = net._createServerHandle('0.0.0.0', 3000);for(var i=0;i<4;i++) {  fork('./worker').send({}, handle);}//worker.jsconst net = require('net');//監聽master發送過來的信息process.on('message', function(m, handle) { start(handle);});var buf = 'hello nodejs'; ///返回信息var res = ['HTTP/1.1 200 OK','content-length:'+buf.length].join('/r/n')+'/r/n/r/n'+buf; //嵌套字function start(server) {  server.listen();  var num=0;  //監聽connection函數  server.onconnection = function(err,handle) {    num++;    console.log(`worker[${process.pid}]:${num}`);    var socket = new net.Socket({      handle: handle    });    socket.readable = socket.writable = true;    socket.end(res);  }}

ok~ 我們運行一下程序, 首先運行node master.js.
然后使用測試工具,siege.
siege -c 100 -r 2 http://localhost:3000
OK,我們看一下,到底此時的負載是否均衡。

worker[1182]:52worker[1183]:42worker[1184]:90worker[1181]:16

發現,這樣任由worker去爭奪請求,效率真的很低呀。每一次,觸發請求,都有可能導致驚群事件的發生啊喂。所以,后來cluster改變了一種模式,使用master來控制請求的分配,官方給出的算法其實就是round-robin 輪轉方法。

高富帥版cluster

現在具體的實現模型就變成這個.

由master來控制請求的給予。通過監聽端口,創建一個socket,將獲得的請求傳遞給子進程。

從tj大神那里借鑒的代碼demo:

//masterconst net = require('net');const fork = require('child_process').fork;var workers = [];for (var i = 0; i < 4; i++) {  workers.push(fork('./worker'));}var handle = net._createServerHandle('0.0.0.0', 3000);handle.listen();//將監聽事件移到master中handle.onconnection = function (err,handle) {  var worker = workers.pop(); //取出一個pop  worker.send({},handle);  workers.unshift(worker); //再放回取出的pop}//worker.jsconst net = require('net');process.on('message', function (m, handle) { start(handle);});var buf = 'hello Node.js';var res = ['HTTP/1.1 200 OK','content-length:'+buf.length].join('/r/n')+'/r/n/r/n'+buf;function start(handle) {  console.log('got a connection on worker, pid = %d', process.pid);  var socket = new net.Socket({    handle: handle  });  socket.readable = socket.writable = true;  socket.end(res);}

這里就經由master來掌控全局了. 當一個皇帝(worker)正在寵幸妃子的時候,master就會安排剩下的幾個皇帝排隊一個幾個的來。 其實中間的handle就會我們具體的業務邏輯. 如同:app.js.
ok~ 我們再來看一下cluster模塊實現多進程的具體寫法.

cluster模塊實現多進程

現在的cluster已經可以說完全做到的負載均衡。在cluster說明我已經做了闡述了。我們來看一下具體的實現吧

var cluster = require('cluster');var http = require('http');var numCPUs = require('os').cpus().length;if (cluster.isMaster) {  console.log('[master] ' + "start master...");  for (var i = 0; i < numCPUs; i++) {     cluster.fork();  }  cluster.on('listening', function (worker, address) {    console.log('[master] ' + 'listening: worker' + worker.id + ',pid:' + worker.process.pid + ', Address:' + address.address + ":" + address.port);  });} else if (cluster.isWorker) {   console.log('[worker] ' + "start worker ..." + cluster.worker.id);  var num = 0;  http.createServer(function (req, res) {    num++;    console.log('worker'+cluster.worker.id+":"+num);    res.end('worker'+cluster.worker.id+',PID:'+process.pid);  }).listen(3000);}

這里使用的是HTTP模塊,當然,完全也可以替換為socket模塊. 不過由于這樣書寫,將集群和單邊給混淆了。 所以,推薦寫法是將具體業務邏輯獨立出來.

var cluster = require('cluster');var numCPUs = require('os').cpus().length;if (cluster.isMaster) {  console.log('[master] ' + "start master...");  for (var i = 0; i < numCPUs; i++) {     cluster.fork();  }  cluster.on('listening', function (worker, address) {    console.log('[master] ' + 'listening: worker' + worker.id + ',pid:' + worker.process.pid + ', Address:' + address.address + ":" + address.port);  });} else if (cluster.isWorker) {  require('app.js');}//app.js就是開啟具體的業務邏輯了//app.js具體內容const net = require('net');//自動創建socketconst server = net.createServer(function(socket) { //'connection' listener  socket.on('end', function() {    console.log('server disconnected');  });  socket.on('data', function() {    socket.end('hello/r/n');  });});//開啟端口的監聽server.listen(8124, function() { //'listening' listener  console.log('working')});

接著我們開啟服務,node master.js
然后進行測試

siege -c 100 -r 2 http://localhost:8124

我這里開啟的是長連接. 每個worker處理的長連接數是有限的。所以,當有額外的連接到來時,worker會斷開當前沒有響應的連接,去處理新的連接。
不過,平常我們都是使用HTTP開啟 短連接,快速處理大并發的請求。
這是我改成HTTP短連接之后的結果

Transactions:         200 hitsAvailability:       100.00 %Elapsed time:        2.09 secsData transferred:      0.00 MBResponse time:        0.02 secsTransaction rate:      95.69 trans/secThroughput:        0.00 MB/secConcurrency:        1.74Successful transactions:     200Failed transactions:        0Longest transaction:      0.05Shortest transaction:      0.02

那,怎么模擬大并發嘞?
e e e e e e e e e ...
自己解決啊~

開玩笑的啦~ 不然我寫blog是為了什么呢? 就是為了傳播知識.
在介紹工具之前,我想先說幾個關于性能的基本概念
QPS(TPS),并發數,響應時間,吞吐量,吞吐率

你母雞的性能測試theories

自從我們和服務器扯上關系后,我們前端的性能測試真的很多。但這也是我們必須掌握的tip. 本來前端寶寶只需要看看控制臺,了解一下網頁運行是否運行順暢, 看看TimeLine,Profile 就可以了。 不過,作為一名有追求,有志于改變世界的童鞋來說。。。
md~ 又要學了...

ok~ 好了,在進入正題之前,我再放一次 線上的測試結果.

Transactions:         200 hitsAvailability:       100.00 %Elapsed time:        13.46 secsData transferred:      0.15 MBResponse time:        3.64 secsTransaction rate:      14.86 trans/secThroughput:        0.01 MB/secConcurrency:        54.15Successful transactions:     200Failed transactions:        0Longest transaction:      11.27Shortest transaction:      0.01

根據上面的數據,就可以得出,你網頁的大致性能了。
恩~ let's begin

吞吐率

關于吞吐率有多種解讀,一種是:描繪web服務器單位時間處理請求的能力。根據這個描述,其單位就為: req/sec. 另一種是: 單位時間內網絡上傳輸的數據量。 而根據這個描述的話,他的單位就為: MB/sec.
而這個指標就是上面數據中的Throughput. 當然,肯定是越大越好了

吞吐量

這個和上面的吞吐率很有點關系的。 吞吐量是在沒有時間的限制下,你一次測試的傳輸數據總和。 所以,沒有時間條件的測試,都是耍流氓。
這個對應于上面數據中的Data transferred.

事務 && TPS

熟悉數據庫操作的童鞋,應該知道,在數據庫中常常會提到一個叫做事務的概念。 在數據庫中,一個事務,常常代表著一個具體的處理流程和結果. 比如,我現在想要的數據是 2013-2015年,數學期末考試成績排名. 這個就是一個具體的事務,那么我們映射到數據庫中就是,取出2013-2015年的排名,然后取平均值,返回最后的排序結果。 可以看出,事務并不單單指單一的操作,他是由一個或一個以上 操作組合而成具有 實際意義的。 那,反映到前端測試,我們應該怎樣去定義呢? 首先,我們需要了解,前端的網絡交流其實就是 請求-響應模式. 也就是說,每一次請求,我們都可以理解為一次事務(trans).
所以,TPS(transaction per second)就可以理解為1sec內,系統能夠處理的請求數目.他的單位也就是: trans/sec . 你當然也可以理解為seq/sec.
所以說,TPS 應該是衡量一個系統承載力最優的一個標識.
TPS的計算公式很容易的出來就是: Transactions / Elapsed time.
不過, 凡事無絕對。 大家以后遇到測試的時候,應該就會知道的.

并發數

就是服務器能夠并發處理的連接數,具體我也母雞他的單位是什么。 官方給出的解釋是:

Concurrency is average number of simultaneous connections, a number which rises as server performance decreases.

這里我們就理解為,這就是一個衡量系統的承載力的一個標準吧。 當Concurrency 越高,表示 系統承載的越多,但性能也越低。

ok~ 但是我們如何利用這些數據,來確定我們的并發策略呢? e e e e e e e ...
當然, 一兩次測試的結果真的沒有什么卵用. 所以實際上,我們需要進行多次測試,然后畫圖才行。 當然,一些大公司,早就有一套完整的系統來計算你web服務器的瓶頸,以及 給出 最優的并發策略.
廢話不多說,我們來看看,如何分析,才能得出 比較好的 并發策略。

探究并發策略

首先,我們這里的并發需要進行區分. 一個是并發的請求數,一個是并發的用戶數. 這兩個對于服務器是完全不同的需求。
假如100個用戶同時向服務器分別進行10次請求,與1個用戶向服務器連續進行1000次請求。兩個的效果一樣么?

一個用戶向服務器連續進行1000次請求的過程中,任何時刻服務器的網卡接受緩存區中只有來自該用戶的1個請求,而100個用戶同時向服務器分別進行10次請求的過程中,服務器網卡接收緩沖區中最多有100個等待處理的請求,顯然這時候服務器的壓力更大。

所以上面所說的 并發用戶數和吞吐率 是完全不一樣的.
不過通常來說,我們更看重的是Concurrency(并發用戶數). 因為這樣更能反映出系統的 能力。 一般,我們都會對并發用戶數進行一些限制,比如apache的maxClients參數.
ok~ 我們來實例分析一下吧.

首先,我們拿到一份測試數據.

接著,我們進行數據分析.

根據并發數和吞吐率的關系得出下列的圖.


OK~ 我們會發現從大約130并發數的地方開始,吞吐率開始下降,而且越多下降的越厲害。 主要是因為,在前面部分隨著用戶數的上升,空閑的系統資源得到充分的利用,當然就和正太曲線一樣,總會有個頂點。 當到達一定值后,頂點就會出現了. 這就我們的系統的一個瓶頸.

接著,我們細化分析,響應時間和并發用戶數的相關性


同樣額道理,當并發數到達130左右,正對每個req的響應時間開始增加,越大越抖,這適合吞吐率是相關的。 所以,我們可以得出一個結論,該次連接 并發數 最好設置為100~150之間。 當然,這樣的分析很膚淺,不過,對于我們這些前端寶寶來說了解一下就足夠了。

接下來,我們使用工具來武裝自己的頭腦.
這里主要介紹一個測試工具,siege.

并發測試工具

事實上并發測試工具主要有3個siege,ab,還有webbench. 我這里之所以沒介紹webbench的原因,因為,我在嘗試安裝他時,老子,電腦差點就掛了(我的MAC pro)... 不過后面,被聰明的我 巧妙的挽回~ 所以,如果有其他大神在MAC x11 上成功安裝,可以私信小弟。讓我學習學習。
ok~ 吐槽完了。我們正式說一下siege吧

siege

安裝siege利用MAC神器 homebrew, 就是就和js前端世界的npm一樣.
安裝ing:

brew install siege

安裝成功--bingo
接著,我們來看一下語法吧.

-c NUM 設置并發的用戶數量.eg: -c 100;

-r NUM 設置發送幾輪的請求,即,總的請求數為: -cNum*-rNum但是, -r不能和-t一起使用(為什么呢?你猜).eg: -r 20

-t NUM 測試持續時間,指你運行一次測試需要的時間,在timeout后,結束測試.

-f file. 用來測試file里面的url路徑 eg: -f girls.txt.

-b . 就是詢問開不開啟基準測試(benchmark)。 這個參數不太重要,有興趣的同學,可以下去學習一下。

關于-c -r我就不介紹了。 大家有興趣,可以參考一下,我前一篇文章讓你升級的網絡知識. 這里主要介紹一下 -f 參數.
通常,如果我們想要測試多個頁面的話,可以新建一個文件,在文件中創建 你想測試的所有網頁地址.
比如:
//文件名為 urls.txt

www.example.comwww.example.org123.45.67.89

然后運行測試

siege -f your/file/path.txt -c 100 -t 10s

OK~ 關于進程和測試的內容就介紹到這了。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb
国产成人午夜视频网址| 中文字幕精品网| 国产精品尤物福利片在线观看| 97久久久免费福利网址| 久久久亚洲精选| 欧美剧在线观看| 色爱av美腿丝袜综合粉嫩av| 亚洲理论在线a中文字幕| 国产精品大片wwwwww| 亚洲天堂男人天堂女人天堂| 久久精品国产成人| 久久久黄色av| 久久久久久网站| 岛国av午夜精品| 国产精品盗摄久久久| 亚洲无亚洲人成网站77777| 日韩久久免费视频| 国产成人一区三区| 日韩免费av在线| 欧美激情一区二区三区成人| 亚洲电影免费观看高清完整版在线观看| 成人免费视频网址| 亚洲天堂免费观看| 亚洲免费视频一区二区| 欧美日韩激情小视频| 中文字幕精品一区二区精品| 亚洲电影在线看| 欧美大片免费看| 欧日韩在线观看| 国产精品女主播视频| 国产精品久久久999| 国色天香2019中文字幕在线观看| 日本一区二区三区在线播放| 国产一区二区三区欧美| 欧美一级bbbbb性bbbb喷潮片| 欧美精品在线播放| 亚洲欧美自拍一区| 欧美小视频在线观看| 亚洲欧洲一区二区三区在线观看| 成人h视频在线观看播放| 伊人伊人伊人久久| 2019国产精品自在线拍国产不卡| 国产日产欧美a一级在线| 欧美在线免费看| 亚洲网站在线观看| 日韩欧美999| 久久综合色88| 97在线观看视频国产| 亚洲美女av黄| 欧美刺激性大交免费视频| 久久精品中文字幕免费mv| 欧美一级bbbbb性bbbb喷潮片| 高清欧美电影在线| 91av在线国产| 91av视频导航| 色婷婷综合成人| 日韩成人xxxx| 国产一区二区丝袜高跟鞋图片| 成人免费观看网址| 亚洲激情视频网| 在线看片第一页欧美| 成人免费视频在线观看超级碰| 欧美日韩一区二区免费视频| 在线视频一区二区| 成人免费观看a| 亚洲综合在线小说| 97国产在线视频| 亚洲精品日韩激情在线电影| www国产精品视频| 欧美另类第一页| 日韩成人中文电影| 97超碰蝌蚪网人人做人人爽| 欧美性xxxxxxxxx| 97精品国产97久久久久久免费| 日韩精品极品在线观看| 日韩**中文字幕毛片| 亚洲性线免费观看视频成熟| 欧美性极品少妇精品网站| 欧美大胆a视频| 91成人在线观看国产| 久久久亚洲欧洲日产国码aⅴ| 深夜精品寂寞黄网站在线观看| 亚洲精品永久免费| 在线精品高清中文字幕| 综合网中文字幕| 日韩av在线电影网| 91免费版网站入口| 亚洲图片制服诱惑| 国产日本欧美在线观看| 中文字幕亚洲一区二区三区五十路| 国产精品一区二区三区久久| 色www亚洲国产张柏芝| 久久精品亚洲国产| 91久久精品视频| 亚洲午夜女主播在线直播| 欧美成人精品影院| 欧美在线视频观看免费网站| 九九视频这里只有精品| 亚洲一区二区久久久| 国产成人亚洲精品| 91精品久久久久久久久久久久久| 日韩欧美中文字幕在线观看| 欧美日韩一区二区免费视频| 日本一区二区三区四区视频| 日本老师69xxx| 亚洲春色另类小说| 伊人精品在线观看| 日本91av在线播放| 欧美在线激情视频| 中文字幕在线国产精品| 日韩欧美高清在线视频| 欧美成人剧情片在线观看| 欧美性色视频在线| 九九热这里只有精品6| 亚洲成在人线av| 欧美午夜激情视频| 欧美国产日产韩国视频| 欧美孕妇与黑人孕交| 超碰日本道色综合久久综合| 日韩在线免费av| 九九热精品在线| 国产v综合v亚洲欧美久久| 色哟哟亚洲精品一区二区| 国产精品综合网站| 这里只有视频精品| 欧美激情伊人电影| 久久中文精品视频| 美女撒尿一区二区三区| 亚洲综合在线中文字幕| 7m精品福利视频导航| 色偷偷av一区二区三区| 日韩美女主播视频| 91精品国产高清久久久久久久久| 91视频国产一区| 日韩网站免费观看| 亚洲国产精品一区二区久| 亚洲国产一区自拍| 久久亚洲国产成人| 亚洲国产成人精品久久久国产成人一区| 久久久亚洲国产| 国产精品扒开腿爽爽爽视频| 精品国产欧美成人夜夜嗨| 国产亚洲精品久久久优势| 一二美女精品欧洲| 国产一区玩具在线观看| 狠狠爱在线视频一区| 久久91超碰青草是什么| 国产欧美日韩亚洲精品| 一区二区中文字幕| 日韩精品福利网站| 欧美性jizz18性欧美| 日韩精品视频在线| 91久久精品国产91性色| 欧美日本精品在线| 欧美日韩美女视频| 国产中文日韩欧美| 亚洲变态欧美另类捆绑| 久久福利视频网| 国产精品久久激情| 日日狠狠久久偷偷四色综合免费| 久久视频在线观看免费| 国产精品手机播放| 国产精品专区h在线观看| 欧美孕妇性xx|