亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb

首頁 > 數據庫 > Redis > 正文

Redis源碼解析:集群手動故障轉移、從節點遷移詳解

2020-03-17 12:36:01
字體:
來源:轉載
供稿:網友

一:手動故障轉移

         Redis集群支持手動故障轉移。也就是向從節點發送”CLUSTER  FAILOVER”命令,使其在主節點未下線的情況下,發起故障轉移流程,升級為新的主節點,而原來的主節點降級為從節點。

         為了不丟失數據,向從節點發送”CLUSTER  FAILOVER”命令后,流程如下:

         a:從節點收到命令后,向主節點發送CLUSTERMSG_TYPE_MFSTART包;
         b:主節點收到該包后,會將其所有客戶端置于阻塞狀態,也就是在10s的時間內,不再處理客戶端發來的命令;并且在其發送的心跳包中,會帶有CLUSTERMSG_FLAG0_PAUSED標記;
         c:從節點收到主節點發來的,帶CLUSTERMSG_FLAG0_PAUSED標記的心跳包后,從中獲取主節點當前的復制偏移量。從節點等到自己的復制偏移量達到該值后,才會開始執行故障轉移流程:發起選舉、統計選票、贏得選舉、升級為主節點并更新配置;

         ”CLUSTER  FAILOVER”命令支持兩個選項:FORCE和TAKEOVER。使用這兩個選項,可以改變上述的流程。

         如果有FORCE選項,則從節點不會與主節點進行交互,主節點也不會阻塞其客戶端,而是從節點立即開始故障轉移流程:發起選舉、統計選票、贏得選舉、升級為主節點并更新配置。

         如果有TAKEOVER選項,則更加簡單粗暴:從節點不再發起選舉,而是直接將自己升級為主節點,接手原主節點的槽位,增加自己的configEpoch后更新配置。

         因此,使用FORCE和TAKEOVER選項,主節點可以已經下線;而不使用任何選項,只發送”CLUSTER  FAILOVER”命令的話,主節點必須在線。

        在clusterCommand函數中,處理”CLUSTER  FAILOVER”命令的部分代碼如下:

else if (!strcasecmp(c->argv[1]->ptr,"failover") &&       (c->argc == 2 || c->argc == 3)) {   /* CLUSTER FAILOVER [FORCE|TAKEOVER] */   int force = 0, takeover = 0;    if (c->argc == 3) {     if (!strcasecmp(c->argv[2]->ptr,"force")) {       force = 1;     } else if (!strcasecmp(c->argv[2]->ptr,"takeover")) {       takeover = 1;       force = 1; /* Takeover also implies force. */     } else {       addReply(c,shared.syntaxerr);       return;     }   }    /* Check preconditions. */   if (nodeIsMaster(myself)) {     addReplyError(c,"You should send CLUSTER FAILOVER to a slave");     return;   } else if (myself->slaveof == NULL) {     addReplyError(c,"I'm a slave but my master is unknown to me");     return;   } else if (!force &&         (nodeFailed(myself->slaveof) ||         myself->slaveof->link == NULL))   {     addReplyError(c,"Master is down or failed, "             "please use CLUSTER FAILOVER FORCE");     return;   }   resetManualFailover();   server.cluster->mf_end = mstime() + REDIS_CLUSTER_MF_TIMEOUT;    if (takeover) {     /* A takeover does not perform any initial check. It just      * generates a new configuration epoch for this node without      * consensus, claims the master's slots, and broadcast the new      * configuration. */     redisLog(REDIS_WARNING,"Taking over the master (user request).");     clusterBumpConfigEpochWithoutConsensus();     clusterFailoverReplaceYourMaster();   } else if (force) {     /* If this is a forced failover, we don't need to talk with our      * master to agree about the offset. We just failover taking over      * it without coordination. */     redisLog(REDIS_WARNING,"Forced failover user request accepted.");     server.cluster->mf_can_start = 1;   } else {     redisLog(REDIS_WARNING,"Manual failover user request accepted.");     clusterSendMFStart(myself->slaveof);   }   addReply(c,shared.ok); } 

首先檢查命令的最后一個參數是否是FORCETAKEOVER;

         如果當前節點是主節點;或者當前節點是從節點,但沒有主節點;或者當前從節點的主節點已經下線或者斷鏈,并且命令中沒有FORCE或TAKEOVER參數,則直接回復客戶端錯誤信息后返回;

         然后調用resetManualFailover,重置手動強制故障轉移的狀態;

         置mf_end為當前時間加5秒,該屬性表示手動強制故障轉移流程的超時時間,也用來表示當前是否正在進行手動強制故障轉移;

         如果命令最后一個參數為TAKEOVER,這表示收到命令的從節點無需經過選舉的過程,直接接手其主節點的槽位,并成為新的主節點。因此首先調用函數clusterBumpConfigEpochWithoutConsensus,產生新的configEpoch,以便后續更新配置;然后調用clusterFailoverReplaceYourMaster函數,轉變成為新的主節點,并將這種轉變廣播給集群中所有節點;

         如果命令最后一個參數是FORCE,這表示收到命令的從節點可以直接開始選舉過程,而無需達到主節點的復制偏移量之后才開始選舉過程。因此置mf_can_start為1,這樣在函數clusterHandleSlaveFailover中,即使在主節點未下線或者當前從節點的復制數據比較舊的情況下,也可以開始故障轉移流程;

         如果最后一個參數不是FORCE或TAKEOVER,這表示收到命令的從節點,首先需要向主節點發送CLUSTERMSG_TYPE_MFSTART包,因此調用clusterSendMFStart函數,向其主節點發送該包;

         主節點收到CLUSTERMSG_TYPE_MFSTART包后,在clusterProcessPacket函數中,是這樣處理的:

else if (type == CLUSTERMSG_TYPE_MFSTART) {   /* This message is acceptable only if I'm a master and the sender    * is one of my slaves. */   if (!sender || sender->slaveof != myself) return 1;   /* Manual failover requested from slaves. Initialize the state    * accordingly. */   resetManualFailover();   server.cluster->mf_end = mstime() + REDIS_CLUSTER_MF_TIMEOUT;   server.cluster->mf_slave = sender;   pauseClients(mstime()+(REDIS_CLUSTER_MF_TIMEOUT*2));   redisLog(REDIS_WARNING,"Manual failover requested by slave %.40s.",     sender->name); } 

  如果字典中找不到發送節點,或者發送節點的主節點不是當前節點,則直接返回;

         調用resetManualFailover,重置手動強制故障轉移的狀態;

         然后置mf_end為當前時間加5秒,該屬性表示手動強制故障轉移流程的超時時間,也用來表示當前是否正在進行手動強制故障轉移;

         然后設置mf_slave為sender,該屬性表示要進行手動強制故障轉移的從節點;

         然后調用pauseClients,使所有客戶端在之后的10s內阻塞;

         主節點在發送心跳包時,在構建包頭時,如果發現當前正處于手動強制故障轉移階段,則會在包頭中增加CLUSTERMSG_FLAG0_PAUSED標記:

void clusterBuildMessageHdr(clusterMsg *hdr, int type) {   ...   /* Set the message flags. */   if (nodeIsMaster(myself) && server.cluster->mf_end)     hdr->mflags[0] |= CLUSTERMSG_FLAG0_PAUSED;   ... }   

 

  從節點在clusterProcessPacket函數中處理收到的包,一旦發現主節點發來的,帶有CLUSTERMSG_FLAG0_PAUSED標記的包,就會將該主節點的復制偏移量記錄到server.cluster->mf_master_offset中:

int clusterProcessPacket(clusterLink *link) {   ...   /* Check if the sender is a known node. */   sender = clusterLookupNode(hdr->sender);   if (sender && !nodeInHandshake(sender)) {     ...     /* Update the replication offset info for this node. */     sender->repl_offset = ntohu64(hdr->offset);     sender->repl_offset_time = mstime();     /* If we are a slave performing a manual failover and our master      * sent its offset while already paused, populate the MF state. */     if (server.cluster->mf_end &&       nodeIsSlave(myself) &&       myself->slaveof == sender &&       hdr->mflags[0] & CLUSTERMSG_FLAG0_PAUSED &&       server.cluster->mf_master_offset == 0)     {       server.cluster->mf_master_offset = sender->repl_offset;       redisLog(REDIS_WARNING,         "Received replication offset for paused "         "master manual failover: %lld",         server.cluster->mf_master_offset);     }   } }   

         從節點在集群定時器函數clusterCron中,會調用clusterHandleManualFailover函數,判斷一旦當前從節點的復制偏移量達到了server.cluster->mf_master_offset,就會置server.cluster->mf_can_start為1。這樣在接下來要調用的clusterHandleSlaveFailover函數中,就會立即開始故障轉移流程了。

         clusterHandleManualFailover函數的代碼如下:

void clusterHandleManualFailover(void) {   /* Return ASAP if no manual failover is in progress. */   if (server.cluster->mf_end == 0) return;   /* If mf_can_start is non-zero, the failover was already triggered so the    * next steps are performed by clusterHandleSlaveFailover(). */   if (server.cluster->mf_can_start) return;   if (server.cluster->mf_master_offset == 0) return; /* Wait for offset... */   if (server.cluster->mf_master_offset == replicationGetSlaveOffset()) {     /* Our replication offset matches the master replication offset      * announced after clients were paused. We can start the failover. */     server.cluster->mf_can_start = 1;     redisLog(REDIS_WARNING,       "All master replication stream processed, "       "manual failover can start.");   } } 

 

  不管是從節點,還是主節點,在集群定時器函數clusterCron中,都會調用manualFailoverCheckTimeout函數,一旦發現手動故障轉移的超時時間已到,就會重置手動故障轉移的狀態,表示終止該過程。manualFailoverCheckTimeout函數代碼如下:

/* If a manual failover timed out, abort it. */ void manualFailoverCheckTimeout(void) {   if (server.cluster->mf_end && server.cluster->mf_end < mstime()) {     redisLog(REDIS_WARNING,"Manual failover timed out.");     resetManualFailover();   } } 

二:從節點遷移

         在Redis集群中,為了增強集群的可用性,一般情況下需要為每個主節點配置若干從節點。但是這種主從關系如果是固定不變的,則經過一段時間之后,就有可能出現孤立主節點的情況,也就是一個主節點再也沒有可用于故障轉移的從節點了,一旦這樣的主節點下線,整個集群也就不可用了。

         因此,在Redis集群中,增加了從節點遷移的功能。簡單描述如下:一旦發現集群中出現了孤立主節點,則某個從節點A就會自動變成該孤立主節點的從節點。該從節點A滿足這樣的條件:A的主節點具有最多的附屬從節點;A在這些附屬從節點中,節點ID是最小的(The acting slave is the slave among the masterswith the maximum number of attached slaves, that is not in FAIL state and hasthe smallest node ID)。

         該功能是在集群定時器函數clusterCron中實現的。這部分的代碼如下:

void clusterCron(void) {   ...   orphaned_masters = 0;   max_slaves = 0;   this_slaves = 0;   di = dictGetSafeIterator(server.cluster->nodes);   while((de = dictNext(di)) != NULL) {     clusterNode *node = dictGetVal(de);     now = mstime(); /* Use an updated time at every iteration. */     mstime_t delay;      if (node->flags &       (REDIS_NODE_MYSELF|REDIS_NODE_NOADDR|REDIS_NODE_HANDSHAKE))         continue;      /* Orphaned master check, useful only if the current instance      * is a slave that may migrate to another master. */     if (nodeIsSlave(myself) && nodeIsMaster(node) && !nodeFailed(node)) {       int okslaves = clusterCountNonFailingSlaves(node);        /* A master is orphaned if it is serving a non-zero number of        * slots, have no working slaves, but used to have at least one        * slave. */       if (okslaves == 0 && node->numslots > 0 && node->numslaves)         orphaned_masters++;       if (okslaves > max_slaves) max_slaves = okslaves;       if (nodeIsSlave(myself) && myself->slaveof == node)         this_slaves = okslaves;     }     ...   }   ...   if (nodeIsSlave(myself)) {     ...     /* If there are orphaned slaves, and we are a slave among the masters      * with the max number of non-failing slaves, consider migrating to      * the orphaned masters. Note that it does not make sense to try      * a migration if there is no master with at least *two* working      * slaves. */     if (orphaned_masters && max_slaves >= 2 && this_slaves == max_slaves)       clusterHandleSlaveMigration(max_slaves);   }   ... }  

  輪訓字典server.cluster->nodes,只要其中的節點不是當前節點,沒有處于REDIS_NODE_NOADDR或者握手狀態,就對該node節點做相應的處理:

         如果當前節點是從節點,并且node節點是主節點,并且node未被標記為下線,則首先調用函數clusterCountNonFailingSlaves,計算node節點未下線的從節點個數okslaves,如果node主節點的okslaves為0,并且該主節點負責的插槽數不為0,說明該node主節點是孤立主節點,因此增加orphaned_masters的值;如果該node主節點的okslaves大于max_slaves,則將max_slaves改為okslaves,因此,max_slaves記錄了所有主節點中,擁有最多未下線從節點的那個主節點的未下線從節點個數;如果當前節點正好是node主節點的從節點之一,則將okslaves記錄到this_slaves中,以上都是為后續做從節點遷移做的準備;

         輪訓完所有節點之后,如果存在孤立主節點,并且max_slaves大于等于2,并且當前節點剛好是那個擁有最多未下線從節點的主節點的眾多從節點之一,則調用函數clusterHandleSlaveMigration,滿足條件的情況下,進行從節點遷移,也就是將當前從節點置為某孤立主節點的從節點。

         clusterHandleSlaveMigration函數的代碼如下:

void clusterHandleSlaveMigration(int max_slaves) {   int j, okslaves = 0;   clusterNode *mymaster = myself->slaveof, *target = NULL, *candidate = NULL;   dictIterator *di;   dictEntry *de;   /* Step 1: Don't migrate if the cluster state is not ok. */   if (server.cluster->state != REDIS_CLUSTER_OK) return;   /* Step 2: Don't migrate if my master will not be left with at least    *     'migration-barrier' slaves after my migration. */   if (mymaster == NULL) return;   for (j = 0; j < mymaster->numslaves; j++)     if (!nodeFailed(mymaster->slaves[j]) &&       !nodeTimedOut(mymaster->slaves[j])) okslaves++;   if (okslaves <= server.cluster_migration_barrier) return;   /* Step 3: Idenitfy a candidate for migration, and check if among the    * masters with the greatest number of ok slaves, I'm the one with the    * smaller node ID.    *    * Note that this means that eventually a replica migration will occurr    * since slaves that are reachable again always have their FAIL flag    * cleared. At the same time this does not mean that there are no    * race conditions possible (two slaves migrating at the same time), but    * this is extremely unlikely to happen, and harmless. */   candidate = myself;   di = dictGetSafeIterator(server.cluster->nodes);   while((de = dictNext(di)) != NULL) {     clusterNode *node = dictGetVal(de);     int okslaves;     /* Only iterate over working masters. */     if (nodeIsSlave(node) || nodeFailed(node)) continue;     /* If this master never had slaves so far, don't migrate. We want      * to migrate to a master that remained orphaned, not masters that      * were never configured to have slaves. */     if (node->numslaves == 0) continue;     okslaves = clusterCountNonFailingSlaves(node);     if (okslaves == 0 && target == NULL && node->numslots > 0)       target = node;     if (okslaves == max_slaves) {       for (j = 0; j < node->numslaves; j++) {         if (memcmp(node->slaves[j]->name,               candidate->name,               REDIS_CLUSTER_NAMELEN) < 0)         {           candidate = node->slaves[j];         }       }     }   }   dictReleaseIterator(di);   /* Step 4: perform the migration if there is a target, and if I'm the    * candidate. */   if (target && candidate == myself) {     redisLog(REDIS_WARNING,"Migrating to orphaned master %.40s",       target->name);     clusterSetMaster(target);   } } 

 

         如果當前集群狀態不是REDIS_CLUSTER_OK,則直接返回;如果當前從節點沒有主節點,則直接返回;

         接下來計算,當前從節點的主節點,具有未下線從節點的個數okslaves;如果okslaves小于等于遷移閾值server.cluster_migration_barrier,則直接返回;

         接下來,開始輪訓字典server.cluster->nodes,針對其中的每一個節點node:

         如果node節點是從節點,或者處于下線狀態,則直接處理下一個節點;如果node節點沒有配置從節點,則直接處理下一個節點;

        調用clusterCountNonFailingSlaves函數,計算該node節點的未下線主節點數okslaves;如果okslaves為0,并且該node節點的numslots大于0,說明該主節點之前有從節點,但是都下線了,因此找到了一個孤立主節點target;

         如果okslaves等于參數max_slaves,說明該node節點就是具有最多未下線從節點的主節點,因此將當前節點的節點ID,與其所有從節點的節點ID進行比較,如果當前節點的名字更大,則將candidate置為具有更小名字的那個從節點;(其實從這里就可以直接退出返回了)

         輪訓完所有節點后,如果找到了孤立節點,并且當前節點擁有最小的節點ID,則調用clusterSetMaster,將target置為當前節點的主節點,并開始主從復制流程。

三:configEpoch沖突問題

         在集群中,負責不同槽位的主節點,具有相同的configEpoch其實是沒有問題的,但是有可能因為人為介入的原因或者BUG的問題,導致具有相同configEpoch的主節點都宣稱負責相同的槽位,這在分布式系統中是致命的問題;因此,Redis規定集群中的所有節點,必須具有不同的configEpoch。

         當某個從節點升級為新主節點時,它會得到一個大于當前所有節點的configEpoch的新configEpoch,所以不會導致具有重復configEpoch的從節點(因為一次選舉中,不會有兩個從節點同時勝出)。但是在管理員發起的重新分片過程的最后,遷入槽位的節點會自己更新自己的configEpoch,而無需其他節點的同意;或者手動強制故障轉移過程,也會導致從節點在無需其他節點同意的情況下更新configEpoch,以上的情況都可能導致出現多個主節點具有相同configEpoch的情況。

         因此,就需要一種算法,保證集群中所有節點的configEpoch都不相同。這種算法是這樣實現的:當某個主節點收到其他主節點發來的心跳包后,發現包中的configEpoch與自己的configEpoch相同,就會調用clusterHandleConfigEpochCollision函數,解決這種configEpoch沖突的問題。

         clusterHandleConfigEpochCollision函數的代碼如下:

void clusterHandleConfigEpochCollision(clusterNode *sender) {   /* Prerequisites: nodes have the same configEpoch and are both masters. */   if (sender->configEpoch != myself->configEpoch ||     !nodeIsMaster(sender) || !nodeIsMaster(myself)) return;   /* Don't act if the colliding node has a smaller Node ID. */   if (memcmp(sender->name,myself->name,REDIS_CLUSTER_NAMELEN) <= 0) return;   /* Get the next ID available at the best of this node knowledge. */   server.cluster->currentEpoch++;   myself->configEpoch = server.cluster->currentEpoch;   clusterSaveConfigOrDie(1);   redisLog(REDIS_VERBOSE,     "WARNING: configEpoch collision with node %.40s."     " configEpoch set to %llu",     sender->name,     (unsigned long long) myself->configEpoch); } 

 如果發送節點的configEpoch不等于當前節點的configEpoch,或者發送節點不是主節點,或者當前節點不是主節點,則直接返回;

        如果相比于當前節點的節點ID,發送節點的節點ID更小,則直接返回;

        因此,較小名字的節點能獲得更大的configEpoch,接下來首先增加自己的currentEpoch,然后將configEpoch賦值為currentEpoch。

         這樣,即使有多個節點具有相同的configEpoch,最終,只有具有最大節點ID的節點的configEpoch保持不變,其他節點都會增加自己的configEpoch,而且增加的值會不同,具有最小NODE ID的節點,最終具有最大的configEpoch。

總結

以上就是本文關于Redis源碼解析:集群手動故障轉移、從節點遷移詳解的全部內容,有不足之處,請留言指出,感謝朋友們對本站的支持!


注:相關教程知識閱讀請移步到Redis頻道。
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb
日韩亚洲国产中文字幕| 日本三级久久久| 爱福利视频一区| 色综合久久88色综合天天看泰| 这里只有精品在线播放| 欧美日韩精品二区| www.久久草.com| 日韩福利视频在线观看| 欧美激情2020午夜免费观看| 91天堂在线视频| 亚洲激情国产精品| 91精品国产综合久久久久久久久| 久久夜色精品国产亚洲aⅴ| 日韩av影视综合网| 欧美一级片久久久久久久| 欧美激情综合色| 午夜精品在线观看| 久久久久久国产| 国产一区二中文字幕在线看| 成人激情视频在线播放| 91香蕉国产在线观看| 韩国国内大量揄拍精品视频| 国产欧美在线看| 欧美巨大黑人极品精男| 91精品国产色综合久久不卡98口| 亚洲国产中文字幕久久网| 日韩av免费在线看| 亚洲国产欧美一区| 亚洲国产精品va在线看黑人动漫| 亚洲网站在线看| 国产亚洲成av人片在线观看桃| 亚洲第一福利在线观看| 青青草成人在线| 国产精品自拍小视频| 亚洲精品在线看| 亚洲欧洲av一区二区| 亚洲欧美中文日韩在线v日本| 亚洲国产天堂久久国产91| 亚洲а∨天堂久久精品喷水| 国产视频精品va久久久久久| 国产香蕉一区二区三区在线视频| 4k岛国日韩精品**专区| 国产一区二区三区三区在线观看| 91在线精品视频| 亚洲激情在线观看视频免费| 法国裸体一区二区| 亚洲加勒比久久88色综合| 久久久久久久久久久成人| 国产精品成熟老女人| 成人精品视频在线| 国产精品亚洲网站| 国产日韩av在线播放| 国产欧美精品一区二区三区介绍| 欧美激情精品久久久久久变态| 91九色单男在线观看| www.亚洲免费视频| 国产在线一区二区三区| 国产欧美日韩精品丝袜高跟鞋| 91中文字幕一区| 亚洲精品视频网上网址在线观看| 亚洲一区二区在线播放| 国产精品美女久久久久久免费| 亚洲在线一区二区| 亚洲男人av电影| 国产精品一区二区三区久久久| 97精品视频在线观看| 亚洲美女精品成人在线视频| 国产精品www色诱视频| 精品在线小视频| 日本久久精品视频| 欧美成人黄色小视频| 久久资源免费视频| 欧美丰满少妇xxxxx做受| 国产精品第一第二| 亚洲丁香久久久| 亚洲精品资源在线| 亚洲一区二区久久久久久| 国产美女精品免费电影| 亚洲伊人久久综合| 亚洲欧美激情精品一区二区| 久久久久久国产三级电影| 欧美精品在线免费观看| 午夜精品在线视频| 亚洲老司机av| 青草青草久热精品视频在线网站| 欧美一区第一页| 日韩小视频在线观看| 国产亚洲精品美女久久久| 欧美—级a级欧美特级ar全黄| 91美女福利视频高清| 97视频免费看| 欧美最猛性xxxxx(亚洲精品)| 91av在线国产| 不卡毛片在线看| 午夜精品美女自拍福到在线| 欧美精品在线观看| 成人妇女免费播放久久久| 91精品国产九九九久久久亚洲| 久久五月天综合| 亚洲性猛交xxxxwww| 国产精品久久一区| 国产精品爽爽爽| 国产精品爽爽爽爽爽爽在线观看| 日韩激情视频在线| 国产日韩欧美91| 亚洲成人黄色在线观看| 欧美在线免费观看| 亚洲国产精品女人久久久| 欧美精品亚州精品| 亚洲白拍色综合图区| 国内外成人免费激情在线视频网站| 国产视频欧美视频| 91国内在线视频| 久久久国产精品视频| 亲爱的老师9免费观看全集电视剧| 在线成人激情黄色| 欧美黄色小视频| 日韩视频永久免费观看| 成人免费大片黄在线播放| 一本久久综合亚洲鲁鲁| 欧美怡红院视频一区二区三区| 精品国产乱码久久久久久天美| 欧美激情精品久久久| 久久影院免费观看| 日韩欧美在线视频日韩欧美在线视频| 中国china体内裑精亚洲片| 69久久夜色精品国产69乱青草| 粉嫩老牛aⅴ一区二区三区| 日韩中文字幕视频在线观看| 国产精品h片在线播放| 精品无码久久久久久国产| 国产精品美女久久| 97在线免费观看视频| 日韩视频在线观看免费| 国产精品久久久久久久一区探花| 久久久久国产精品免费网站| 日韩在线资源网| 欧美色videos| 色小说视频一区| 神马国产精品影院av| 国产精品第2页| 丝袜美腿精品国产二区| 国产91精品高潮白浆喷水| 国产在线观看精品| 久久久久日韩精品久久久男男| 午夜精品在线视频| 精品亚洲一区二区三区四区五区| 国产精品久久久999| 亚洲欧美制服第一页| www国产亚洲精品久久网站| 亚洲欧美日韩一区二区在线| 欧美午夜视频在线观看| 成人激情综合网| 欧美肥老妇视频| 国产精品入口尤物| 亚洲欧洲一区二区三区在线观看| 亚洲天堂开心观看| 亚洲欧美日韩中文在线制服| 色妞色视频一区二区三区四区| 成人精品久久久| 深夜福利亚洲导航| 69av视频在线播放| 亚洲成人免费在线视频| 欧美另类暴力丝袜|