亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb

首頁(yè) > 學(xué)院 > 邏輯算法 > 正文

人工智能機(jī)器學(xué)習(xí)常用算法總結(jié)及各個(gè)常用算法精確率對(duì)比

2024-09-08 23:18:42
字體:
來(lái)源:轉(zhuǎn)載
供稿:網(wǎng)友

本文講解了機(jī)器學(xué)習(xí)常用算法總結(jié)和各個(gè)常用分類算法精確率對(duì)比。收集了現(xiàn)在比較熱門(mén)的TensorFlow、Sklearn,借鑒了Github和一些國(guó)內(nèi)外的文章。

機(jī)器學(xué)習(xí)的知識(shí)樹(shù),這個(gè)圖片是Github上的,有興趣的可以自己去看一下:

地址:https://github.com/trekhleb/homemade-machine-learning

簡(jiǎn)單的翻譯一下這個(gè)樹(shù):

英文 中文
Machine Learning 機(jī)器學(xué)習(xí)
Supervised Learning 監(jiān)督學(xué)習(xí)
Unsupervised Learning 非監(jiān)督學(xué)習(xí)
Reinforcement Learning 強(qiáng)化學(xué)習(xí)
Neural Networks and Deep Learning 神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)
Ensemble Learning 集成學(xué)習(xí)

以下是一部分算法的概念和應(yīng)用,僅供大家參考

監(jiān)督學(xué)習(xí)

監(jiān)督學(xué)習(xí)可以看作是原先的預(yù)測(cè)模型,有基礎(chǔ)的訓(xùn)練數(shù)據(jù),再將需要預(yù)測(cè)的數(shù)據(jù)進(jìn)行輸入,得到預(yù)測(cè)的結(jié)果(不管是連續(xù)的還是離散的)

決策樹(shù)(Decision Tree,DT)

決策樹(shù)是一種樹(shù)形結(jié)構(gòu),為人們提供決策依據(jù),決策樹(shù)可以用來(lái)回答yes和no問(wèn)題,它通過(guò)樹(shù)形結(jié)構(gòu)將各種情況組合都表示出來(lái),每個(gè)分支表示一次選擇(選擇yes還是no),直到所有選擇都進(jìn)行完畢,最終給出正確答案。

決策樹(shù)(decision tree)是一個(gè)樹(shù)結(jié)構(gòu)(可以是二叉樹(shù)或非二叉樹(shù))。在實(shí)際構(gòu)造決策樹(shù)時(shí),通常要進(jìn)行剪枝,這時(shí)為了處理由于數(shù)據(jù)中的噪聲和離群點(diǎn)導(dǎo)致的過(guò)分?jǐn)M合問(wèn)題。剪枝有兩種:

先剪枝――在構(gòu)造過(guò)程中,當(dāng)某個(gè)節(jié)點(diǎn)滿足剪枝條件,則直接停止此分支的構(gòu)造。

后剪枝――先構(gòu)造完成完整的決策樹(shù),再通過(guò)某些條件遍歷樹(shù)進(jìn)行剪枝。

樸素貝葉斯分類器(Naive Bayesian Model,NBM)

樸素貝葉斯分類器基于貝葉斯定理及其假設(shè)(即特征之間是獨(dú)立的,是不相互影響的),主要用來(lái)解決分類和回歸問(wèn)題。

具體應(yīng)用有:

標(biāo)記一個(gè)電子郵件為垃圾郵件或非垃圾郵件;

將新聞文章分為技術(shù)類、政治類或體育類;

檢查一段文字表達(dá)積極的情緒,或消極的情緒;

用于人臉識(shí)別軟件。

學(xué)過(guò)概率的同學(xué)一定都知道貝葉斯定理,這個(gè)在250多年前發(fā)明的算法,在信息領(lǐng)域內(nèi)有著無(wú)與倫比的地位。貝葉斯分類是一系列分類算法的總稱,這類算法均以貝葉斯定理為基礎(chǔ),故統(tǒng)稱為貝葉斯分類。樸素貝葉斯算法(Naive Bayesian) 是其中應(yīng)用最為廣泛的分類算法之一。樸素貝葉斯分類器基于一個(gè)簡(jiǎn)單的假定:給定目標(biāo)值時(shí)屬性之間相互條件獨(dú)立。

最小二乘法(Least squares)

你可能聽(tīng)說(shuō)過(guò)線性回歸。最小均方就是用來(lái)求線性回歸的。如下圖所示,平面內(nèi)會(huì)有一系列點(diǎn),然后我們求取一條線,使得這條線盡可能擬合這些點(diǎn)分布,這就是線性回歸。這條線有多種找法,最小二乘法就是其中一種。最小二乘法其原理如下,找到一條線使得平面內(nèi)的所有點(diǎn)到這條線的歐式距離和最小。這條線就是我們要求取得線。

邏輯回歸(Logistic Regression)

邏輯回歸模型是一個(gè)二分類模型,它選取不同的特征與權(quán)重來(lái)對(duì)樣本進(jìn)行概率分類,用一個(gè)log函數(shù)計(jì)算樣本屬于某一類的概率。即一個(gè)樣本會(huì)有一定的概率屬于一個(gè)類,會(huì)有一定的概率屬于另一類,概率大的類即為樣本所屬類。用于估計(jì)某種事物的可能性。

支持向量機(jī)(Support Vector Machine)

支持向量機(jī)(support vector machine)是一個(gè)二分類算法,它可以在N維空間找到一個(gè)(N-1)維的超平面,這個(gè)超平面可以將這些點(diǎn)分為兩類。也就是說(shuō),平面內(nèi)如果存在線性可分的兩類點(diǎn),SVM可以找到一條最優(yōu)的直線將這些點(diǎn)分開(kāi)。SVM應(yīng)用范圍很廣。

要將兩類分開(kāi),想要得到一個(gè)超平面,最優(yōu)的超平面是到兩類的margin達(dá)到最大,margin就是超平面與離它最近一點(diǎn)的距離,如下圖,Z2>Z1,所以綠色的超平面比較好。

K最近鄰算法(KNN,K-NearestNeighbor)

鄰近算法,或者說(shuō)K最近鄰(KNN,K-NearestNeighbor)分類算法是數(shù)據(jù)挖掘分類技術(shù)中最簡(jiǎn)單的方法之一。KNN算法的核心思想是如果一個(gè)樣本在特征空間中的k個(gè)最相鄰的樣本中的大多數(shù)屬于某一個(gè)類別,則該樣本也屬于這個(gè)類別,并具有這個(gè)類別上樣本的特性。該方法在確定分類決策上只依據(jù)最鄰近的一個(gè)或者幾個(gè)樣本的類別來(lái)決定待分樣本所屬的類別。 KNN方法在類別決策時(shí),只與極少量的相鄰樣本有關(guān)。由于KNN方法主要靠周?chē)邢薜泥徑臉颖荆皇强颗袆e類域的方法來(lái)確定所屬類別的,因此對(duì)于類域的交叉或重疊較多的待分樣本集來(lái)說(shuō),KNN方法較其他方法更為適合。

主要應(yīng)用領(lǐng)域是對(duì)未知事物的識(shí)別,即判斷未知事物屬于哪一類,判斷思想是,基于歐幾里得定理,判斷未知事物的特征和哪一類已知事物的的特征最接近。如上圖,綠色圓要被決定賦予哪個(gè)類,是紅色三角形還是藍(lán)色四方形?如果K=3,由于紅色三角形所占比例為2/3,綠色圓將被賦予紅色三角形那個(gè)類,如果K=5,由于藍(lán)色四方形比例為3/5,因此綠色圓被賦予藍(lán)色四方形類。由此也說(shuō)明了KNN算法的結(jié)果很大程度取決于K的選擇。

集成學(xué)習(xí)(Ensemble Learning)

集成學(xué)習(xí)就是將很多分類器集成在一起,每個(gè)分類器有不同的權(quán)重,將這些分類器的分類結(jié)果合并在一起,作為最終的分類結(jié)果。最初集成方法為貝葉斯決策。

集成算法用一些相對(duì)較弱的學(xué)習(xí)模型獨(dú)立地就同樣的樣本進(jìn)行訓(xùn)練,然后把結(jié)果整合起來(lái)進(jìn)行整體預(yù)測(cè)。集成算法的主要難點(diǎn)在于究竟集成哪些獨(dú)立的較弱的學(xué)習(xí)模型以及如何把學(xué)習(xí)結(jié)果整合起來(lái)。這是一類非常強(qiáng)大的算法,同時(shí)也非常流行。

常見(jiàn)的算法包括:

 Boosting, Bootstrapped Aggregation(Bagging),

 AdaBoost,堆疊泛化(Stacked Generalization, Blending),

 梯度推進(jìn)機(jī)(Gradient Boosting Machine, GBM),隨機(jī)森林(Random Forest)。

那么集成方法是怎樣工作的,為什么他們會(huì)優(yōu)于單個(gè)的模型?

他們拉平了輸出偏差:如果你將具有民主黨傾向的民意調(diào)查和具有共和黨傾向的民意調(diào)查取平均,你將得到一個(gè)中和的沒(méi)有傾向一方的結(jié)果。

它們減小了方差:一堆模型的聚合結(jié)果和單一模型的結(jié)果相比具有更少的噪聲。在金融領(lǐng)域,這被稱為多元化――多只股票的混合投資要比一只股票變化更小。這就是為什么數(shù)據(jù)點(diǎn)越多你的模型會(huì)越好,而不是數(shù)據(jù)點(diǎn)越少越好。

它們不太可能產(chǎn)生過(guò)擬合:如果你有一個(gè)單獨(dú)的沒(méi)有過(guò)擬合的模型,你是用一種簡(jiǎn)單的方式(平均,加權(quán)平均,邏輯回歸)將這些預(yù)測(cè)結(jié)果結(jié)合起來(lái),然后就沒(méi)有產(chǎn)生過(guò)擬合的空間了。

無(wú)監(jiān)督學(xué)習(xí)

聚類算法

聚類算法就是將一堆數(shù)據(jù)進(jìn)行處理,根據(jù)它們的相似性對(duì)數(shù)據(jù)進(jìn)行聚類。

聚類,就像回歸一樣,有時(shí)候人們描述的是一類問(wèn)題,有時(shí)候描述的是一類算法。聚類算法通常按照中心點(diǎn)或者分層的方式對(duì)輸入數(shù)據(jù)進(jìn)行歸并。所以的聚類算法都試圖找到數(shù)據(jù)的內(nèi)在結(jié)構(gòu),以便按照最大的共同點(diǎn)將數(shù)據(jù)進(jìn)行歸類。常見(jiàn)的聚類算法包括 k-Means算法以及期望最大化算法(Expectation Maximization, EM)。

聚類算法有很多種,具體如下:中心聚類、關(guān)聯(lián)聚類、密度聚類、概率聚類、降維、神經(jīng)網(wǎng)絡(luò)/深度學(xué)習(xí)。

K-均值算法(K-Means)

K-means算法是硬聚類算法,是典型的基于原型的目標(biāo)函數(shù)聚類方法的代表,它是數(shù)據(jù)點(diǎn)到原型的某種距離作為優(yōu)化的目標(biāo)函數(shù),利用函數(shù)求極值的方法得到迭代運(yùn)算的調(diào)整規(guī)則。K-means算法以歐式距離作為相似度測(cè)度,它是求對(duì)應(yīng)某一初始聚類中心向量V最優(yōu)分類,使得評(píng)價(jià)指標(biāo)J最小。算法采用誤差平方和準(zhǔn)則函數(shù)作為聚類準(zhǔn)則函數(shù)。K-means算法是很典型的基于距離的聚類算法,采用距離作為相似性的評(píng)價(jià)指標(biāo),即認(rèn)為兩個(gè)對(duì)象的距離越近,其相似度就越大。該算法認(rèn)為簇是由距離靠近的對(duì)象組成的,因此把得到緊湊且獨(dú)立的簇作為最終目標(biāo)。

通常,人們根據(jù)樣本間的某種距離或者相似性來(lái)定義聚類,即把相似的(或距離近的)樣本聚為同一類,而把不相似的(或距離遠(yuǎn)的)樣本歸在其他類。

主成分分析(Principal Component Analysis,PCA)

主成分分析是利用正交變換將一些列可能相關(guān)數(shù)據(jù)轉(zhuǎn)換為線性無(wú)關(guān)數(shù)據(jù),從而找到主成分。PCA方法最著名的應(yīng)用應(yīng)該是在人臉識(shí)別中特征提取及數(shù)據(jù)降維。

PCA主要用于簡(jiǎn)單學(xué)習(xí)與可視化中數(shù)據(jù)壓縮、簡(jiǎn)化。但是PCA有一定的局限性,它需要你擁有特定領(lǐng)域的相關(guān)知識(shí)。對(duì)噪音比較多的數(shù)據(jù)并不適用。

SVD矩陣分解(Singular Value Decomposition)

也叫奇異值分解(Singular Value Decomposition),是線性代數(shù)中一種重要的矩陣分解,是矩陣分析中正規(guī)矩陣酉對(duì)角化的推廣。在信號(hào)處理、統(tǒng)計(jì)學(xué)等領(lǐng)域有重要應(yīng)用。SVD矩陣是一個(gè)復(fù)雜的實(shí)復(fù)負(fù)數(shù)矩陣,給定一個(gè)m行、n列的矩陣M,那么M矩陣可以分解為M = UΣV。U和V是酉矩陣,Σ為對(duì)角陣。

PCA實(shí)際上就是一個(gè)簡(jiǎn)化版本的SVD分解。在計(jì)算機(jī)視覺(jué)領(lǐng)域,第一個(gè)臉部識(shí)別算法就是基于PCA與SVD的,用特征對(duì)臉部進(jìn)行特征表示,然后降維、最后進(jìn)行面部匹配。盡管現(xiàn)在面部識(shí)別方法復(fù)雜,但是基本原理還是類似的。

獨(dú)立成分分析(ICA)

獨(dú)立成分分析(Independent Component Analysis,ICA)是一門(mén)統(tǒng)計(jì)技術(shù),用于發(fā)現(xiàn)存在于隨機(jī)變量下的隱性因素。ICA為給觀測(cè)數(shù)據(jù)定義了一個(gè)生成模型。在這個(gè)模型中,其認(rèn)為數(shù)據(jù)變量是由隱性變量,經(jīng)一個(gè)混合系統(tǒng)線性混合而成,這個(gè)混合系統(tǒng)未知。并且假設(shè)潛在因素屬于非高斯分布、并且相互獨(dú)立,稱之為可觀測(cè)數(shù)據(jù)的獨(dú)立成分。

ICA與PCA相關(guān),但它在發(fā)現(xiàn)潛在因素方面效果良好。它可以應(yīng)用在數(shù)字圖像、檔文數(shù)據(jù)庫(kù)、經(jīng)濟(jì)指標(biāo)、心里測(cè)量等。

上圖為基于ICA的人臉識(shí)別模型。實(shí)際上這些機(jī)器學(xué)習(xí)算法并不是全都像想象中一樣復(fù)雜,有些還和高中數(shù)學(xué)緊密相關(guān)。

強(qiáng)化學(xué)習(xí)

Q-Learning算法

Q-learning要解決的是這樣的問(wèn)題:一個(gè)能感知環(huán)境的自治agent,怎樣通過(guò)學(xué)習(xí)選擇能達(dá)到其目標(biāo)的最優(yōu)動(dòng)作。

強(qiáng)化學(xué)習(xí)目的是構(gòu)造一個(gè)控制策略,使得Agent行為性能達(dá)到最大。Agent從復(fù)雜的環(huán)境中感知信息,對(duì)信息進(jìn)行處理。Agent通過(guò)學(xué)習(xí)改進(jìn)自身的性能并選擇行為,從而產(chǎn)生群體行為的選擇,個(gè)體行為選擇和群體行為選擇使得Agent作出決策選擇某一動(dòng)作,進(jìn)而影響環(huán)境。增強(qiáng)學(xué)習(xí)是指從動(dòng)物學(xué)習(xí)、隨機(jī)逼近和優(yōu)化控制等理論發(fā)展而來(lái),是一種無(wú)導(dǎo)師在線學(xué)習(xí)技術(shù),從環(huán)境狀態(tài)到動(dòng)作映射學(xué)習(xí),使得Agent根據(jù)最大獎(jiǎng)勵(lì)值采取最優(yōu)的策略;Agent感知環(huán)境中的狀態(tài)信息,搜索策略(哪種策略可以產(chǎn)生最有效的學(xué)習(xí))選擇最優(yōu)的動(dòng)作,從而引起狀態(tài)的改變并得到一個(gè)延遲回報(bào)值,更新評(píng)估函數(shù),完成一次學(xué)習(xí)過(guò)程后,進(jìn)入下一輪的學(xué)習(xí)訓(xùn)練,重復(fù)循環(huán)迭代,直到滿足整個(gè)學(xué)習(xí)的條件,終止學(xué)習(xí)。

Q-Learning是一種無(wú)模型的強(qiáng)化學(xué)習(xí)技術(shù)。具體來(lái)說(shuō),可以使用Q學(xué)習(xí)來(lái)為任何給定的(有限的)馬爾可夫決策過(guò)程(MDP)找到最優(yōu)的動(dòng)作選擇策略。它通過(guò)學(xué)習(xí)一個(gè)動(dòng)作價(jià)值函數(shù),最終給出在給定狀態(tài)下采取給定動(dòng)作的預(yù)期效用,然后遵循最優(yōu)策略。一個(gè)策略是代理在選擇動(dòng)作后遵循的規(guī)則。當(dāng)這種動(dòng)作值函數(shù)被學(xué)習(xí)時(shí),可以通過(guò)簡(jiǎn)單地選擇每個(gè)狀態(tài)中具有最高值的動(dòng)作來(lái)構(gòu)建最優(yōu)策略。 Q-learning的優(yōu)點(diǎn)之一是能夠比較可用操作的預(yù)期效用,而不需要環(huán)境模型。此外,Q學(xué)習(xí)可以處理隨機(jī)過(guò)渡和獎(jiǎng)勵(lì)的問(wèn)題,而不需要任何適應(yīng)。已經(jīng)證明,對(duì)于任何有限的MDP,Q學(xué)習(xí)最終找到一個(gè)最優(yōu)策略,從總體獎(jiǎng)勵(lì)的預(yù)期值返回到從當(dāng)前狀態(tài)開(kāi)始的所有連續(xù)步驟是最大可實(shí)現(xiàn)的意義。

機(jī)器學(xué)習(xí)常用Python包

sklearn

開(kāi)源機(jī)器學(xué)習(xí)模塊,包括分類、回歸、聚類系列算法,主要算法有SVM、邏輯回歸、樸素貝葉斯、Kmeans、DBSCAN等;也提供了一些語(yǔ)料庫(kù)。

學(xué)習(xí)地址:https://scikit-learn.org/stable/modules/classes.html

numpy

Python的語(yǔ)言擴(kuò)展,定義了數(shù)字的數(shù)組和矩陣。提供了存儲(chǔ)單一數(shù)據(jù)類型的多維數(shù)組(ndarray)和矩陣(matrix)。

學(xué)習(xí)地址:http://www.numpy.org/

scipy

其在numpy的基礎(chǔ)上增加了眾多的數(shù)學(xué)、科學(xué)以及工程計(jì)算中常用的模塊,例如線性代數(shù)、常微分方程數(shù)值求解、信號(hào)處理、圖像處理、稀疏矩陣等等。

學(xué)習(xí)地址:https://www.scipy.org/

pandas

直接處理和操作數(shù)據(jù)的主要package,提供了dataframe等方便處理表格數(shù)據(jù)的數(shù)據(jù)結(jié)構(gòu)

學(xué)習(xí)地址:http://pandas.pydata.org/

statsmodels

統(tǒng)計(jì)和計(jì)量經(jīng)濟(jì)學(xué)的package,包含了用于參數(shù)評(píng)估和統(tǒng)計(jì)測(cè)試的實(shí)用工具

學(xué)習(xí)地址:https://pypi.org/project/statsmodels/

matplotlib、pyplot、pylab

用于生成統(tǒng)計(jì)圖。pyplot 和 pylab屬于matplotlib的子模塊,所以只需安裝matplotlib,就會(huì)有pyplot和pylab的了。

學(xué)習(xí)地址:https://matplotlib.org/

jieba

中文分詞工具。

學(xué)習(xí)地址:https://github.com/fxsjy/jieba

Pattern

此庫(kù)更像是一個(gè)“全套”庫(kù),因?yàn)樗粌H提供了一些機(jī)器學(xué)習(xí)算法,而且還提供了工具來(lái)幫助你收集和分析數(shù)據(jù)。數(shù)據(jù)挖掘部分可以幫助你收集來(lái)自谷歌、推特和維基百科等網(wǎng)絡(luò)服務(wù)的數(shù)據(jù)。它也有一個(gè)Web爬蟲(chóng)和HTML DOM解析器?!耙脒@些工具的優(yōu)點(diǎn)就是:在同一個(gè)程序中收集和訓(xùn)練數(shù)據(jù)顯得更加容易。

學(xué)習(xí)地址:https://github.com/clips/pattern

各個(gè)算法精確率對(duì)比

此次算精確率對(duì)比,總語(yǔ)料樣本21282條,分類標(biāo)簽911個(gè),語(yǔ)料是企業(yè)的語(yǔ)料集,不對(duì)外公開(kāi)。精準(zhǔn)率是把整體樣本按照8:2的比例,分為80%的訓(xùn)練集,20%的測(cè)試集來(lái)算的,實(shí)驗(yàn)流程在每篇文章中都有詳細(xì)記載。數(shù)據(jù)量低于21282的是取了總樣本的部分?jǐn)?shù)據(jù)做的實(shí)驗(yàn),效果統(tǒng)計(jì)如下:

支持向量機(jī)(SupportVectorMachine)

升級(jí)版sklearn

Liblinear

sklearn

隨機(jī)森林(Random Forest)

樸素貝葉斯(Naive Bayesian Model)

K近鄰(K-NearestNeighbor)

邏輯回歸(LogisticRegression)

決策樹(shù)(Decision Tree)

本文簡(jiǎn)單介紹了人工智能機(jī)器學(xué)習(xí)常用算法總結(jié)及各個(gè)常用算法精確率對(duì)比,更多關(guān)于人工智能知識(shí)請(qǐng)查看下面的相關(guān)鏈接

發(fā)表評(píng)論 共有條評(píng)論
用戶名: 密碼:
驗(yàn)證碼: 匿名發(fā)表
日韩国产精品亚洲а∨天堂免| 日韩av不卡在线观看| 四虎永久在线观看免费网站网址| 色一情一乱一乱一区91av| 久久在线视频精品| 91精品国产欧美一区二区成人| 色视频在线免费观看| 亚洲男人天堂av网| 午夜不卡在线视频| 日韩专区欧美专区| 七七婷婷婷婷精品国产| 亚洲日本欧美在线| 91人人网站| 日本理论片2828理论片| 美女免费视频一区| 久久一区二区中文字幕| 麻豆传媒视频在线| 免费高清视频在线观看| 国产精品一区二区三区四区色| 野花国产精品入口| 日韩hd视频在线观看| 免费观看成人网| 美女又爽又黄免费动漫| y111111国产精品久久婷婷| 男插女免费视频| 2023av视频| av影院午夜一区| 在线播放黄色av| 亚洲成av人**亚洲成av**| 国产精品久久久网站| 国产精品久久久久福利| 夜夜未满十八勿进的爽爽影视| 黄色aaa视频| 欧美91精品久久久久国产性生爱| 中文字幕无码毛片免费看| 国产精品国产成人国产三级| 欧美另类videos黑人极品| 亚洲宅男天堂在线观看无病毒| 在线观影网站| 国产成人高清视频| ㊣最新国产の精品bt7086| 91女主播在线观看| 亚洲色图欧美另类| 鲁啊鲁视频在线精品| 国产精品嫩草久久久久| 五级黄高潮片90分钟视频| 高清视频一区| 日本免费网站在线观看| 欧美人与z0zoxxxx特| 国产手机视频在线观看| 国产综合精品一区二区三区| 91精品一区二区三区综合| 红桃视频成人在线观看| 欧美高清在线一区| 成人精品动漫一区二区三区| 亚洲欧美日韩国产成人精品影院| 精品精品国产三级a∨在线| 久草在线网址| 中文字幕黄色大片| 粉嫩高清一区二区三区精品视频| 亚洲精品久久久久久一区二区| 欧美日韩一二三四| 日本成人黄色| 日本久久精品一区二区| 国产尤物91| 青青草免费观看视频| 久久99国产精品麻豆| 中文字幕剧情在线观看一区| 视频免费在线看| 欧美精品中文字幕亚洲专区| 国产精品mv在线观看| 四虎成人免费| 极品盗摄国产盗摄合集| 亚洲精品色午夜无码专区日韩| 91九蝌蚪视频| 91av视频免费观看| 国产91精品久| 国产精品一品二区三区的使用体验| 韩国精品美女www爽爽爽视频| 午夜精品久久久久久久99樱桃| 黄色的电影在线-骚虎影院-骚虎视频| 成人亚洲综合天堂| 神马午夜精品91| 日本福利视频| 欧美精品一区二区蜜桃| 欧美日韩在线观看成人| 91高清在线| 91亚洲精品久久久蜜桃网站| 久久精品99久久久香蕉| 国产高清久久久| 亚洲蜜桃精久久久久久久久久久久| 欧美最猛性xxxxx免费| 超碰97人人射妻| 亚洲综合欧美色图| 国产精品99久久免费黑人人妻| 国产九九在线观看| 欧美在线观看一区二区| 国产精品视频入口| 亚洲精品自产拍| 伊人一区二区三区| 国内精品视频| 日本三级电影网站| free性m.freesex欧美| 国产日韩二区| 伊人久久在线观看| 给我免费观看片在线电影的| 1024日韩| 国产精品任我爽爆在线播放| 成人免费视频在线观看超级碰| 国产精一区二区三区| 99久久视频| 97涩在线观看视频| 97精品国产97久久久久久春色| 国产老女人精品毛片久久| 日本午夜精品视频| 免费成人在线网站| 欧美午夜激情小视频| 91伦理视频在线观看| 亚洲精品久久久久久久蜜桃| 午夜久久久久久久| 狠狠色成人综合网图片区| 欧美一区二区三区精美影视| 日本在线电影一区二区三区| 91丝袜高跟美女视频| 亚洲精品国产第一综合99久久| 国产欧美一二三区| 亚洲香蕉久久| 狠狠干天天爱| 极品尤物一区二区三区| 精品视频免费| 中文字幕av日韩| 国产人妖一区二区| 日韩一级片网址| 在线中文字幕第一区| 国产精品99| 国产精品免费无遮挡无码永久视频| 男女猛烈无遮挡| 成人黄色动漫| 99久久精品一区二区三区| 亚洲欧洲一区二区福利| 国产成人av电影免费在线观看| 性xxxx视频播放免费| 在线视频不卡一区二区| 中文字幕在线播放一区二区| 国产伦精品一区二区三区免费优势| 国产对白在线| 国产激情视频在线观看| 国模吧无码一区二区三区| 日韩精品一区不卡| wwwxx欧美| 国产亚洲一区二区三区在线观看| 日本在线不卡视频| 青青草原播放器| 日韩av资源在线| 亚洲特级片在线| 色之综合天天综合色天天棕色| 高h调教冰块play男男双性文| 男人插曲女人的视频| 国产精选久久| 色狠狠久久av五月综合| 国产精品区在线观看| 最后生还者第二季在线观看| 国产伦理久久久| 97在线免费公开视频| 国产精品久久久久77777丨| 自拍偷拍亚洲色图欧美| 91在线三级| 色aⅴ色av色av偷拍| 羞羞视频在线免费国产| 好吊一区二区三区| 一区二区三区av电影| 亚洲免费综合| 人妻无码久久一区二区三区免费| 亚洲.国产.中文慕字在线| 91精品在线一区| ass精品国模裸体欣赏pics| 少妇久久久久| 日本在线中文字幕一区| 国产精品9999久久久久仙踪林| 自拍偷拍视频在线| 久久99国产精品尤物| 天堂99x99es久久精品免费| 国产在线精品一区二区中文| 视频免费在线看| 成 人 免费 黄 色| 亚洲黄色在线看| 亚洲成人午夜在线| av在线播放资源| 三上悠亚国产精品一区二区三区| 不卡的电视剧免费网站有什么| 日本特黄a级片| 国产91丝袜在线观看| 青草热久免费精品视频| 午夜久久黄色| 91p在线观看| 日韩欧美亚洲日产国产| 香蕉久久夜色| 91wwwcom在线观看| 99视频在线观看一区三区| 94色蜜桃网一区二区三区| 欧美一区二区久久久| 日本一线产区和二线产区| 18禁裸男晨勃露j毛免费观看| 欧美女人交a| 疯狂欧美牲乱大交777| 男女午夜激情视频| 欧美福利视频网站| 91精品国产综合久久精品麻豆| 在线观看免费小视频| 日韩另类视频| 夜夜爽视频导航| 亚洲图片欧洲图片日韩av| 黄色污网站在线免费观看| 992tv人人草| 欧美日韩激情视频8区| 欧美日韩国产一区在线| 九九热99久久久国产盗摄| 国产精品久久久久aaaa九色| 久久99精品国产麻豆不卡| 动漫3d精品一区二区三区| 亚洲一区欧美激情| 日韩在线观看视频一区二区三区| 精品一区二区三区电影| 欧洲美女和动交zoz0z| 岛国精品在线| 日韩一区在线视频| 亚洲日本中文字幕区| 卡一卡二卡三在线观看| 欧美高清性hdvideosex| 情侣黄网站免费看| 久久综合亚洲| 欧美性猛交99久久久久99按摩| 日本肉体xxxx裸体784大胆| 亚洲精品国产品国语在线| 亚洲加勒比久久88色综合| 成人线上视频| 大桥未久av一区二区三区中文| 草久久免费视频| 91久久精品国产91性色| 91九色美女在线视频| 欧洲亚洲精品视频| 日韩精品免费一区| 精品国产欧美日韩不卡在线观看| 国产私拍福利精品视频二区| 国产丝袜在线| 奇米色777欧美一区二区| 美女久久久久久久| 一个人看的www在线免费观看| 丰满少妇大力进入| 午夜免费在线| 五月香视频在线观看| 精品一区二区三区三区| a级精品国产片在线观看| 欧美不卡三区| 欧洲综合视频| 动漫av在线免费观看| 精品一区二区三区香蕉蜜桃| 爱情岛论坛亚洲自拍| 欧美精品系列| av电影天堂一区二区在线观看| jizz蜜桃视频在线观看| 亚洲激情网站免费观看| 视频精品二区| 日本一区二区久久| 免费h片在线观看| av无码精品一区二区三区| 91精品国产经典在线观看| 国产在线xxx| 亚洲黄色av网址| 亚洲欧美激情一区二区| 黄色资源在线看| 久久久久成人网站| 国产一级片毛片| 精品国产伦一区二区三| 国产美女永久免费无遮挡| 亚洲人午夜色婷婷| 青青草91久久久久久久久| 91美女片黄在线| 国产精品久久77777| 久久这里精品国产99丫e6| 一区二区日韩免费看| 91久久久久| 亚洲永久免费观看| 亚洲s色大片| 性欧美xxx69hd高清| 欧美性受xxxx黑人| 污网站在线看| 欧美xxxx×黑人性爽| 色综合888| 国产真实乱子伦| 精一区二区三区| 97人洗澡人人免费公开视频碰碰碰| 中文字幕亚洲第一| 亚洲一区二区福利| 黄色一级视频片| 久久综合国产精品台湾中文娱乐网| 亚洲精品一区二区三区四区| 欧美视频在线观看网站| 亚洲大尺度视频在线观看| 免费精品视频| 精品久久福利| 亚洲男人av在线| 日韩五码电影| 国产又爽又黄免费软件| 欧美在线你懂得| 日韩一区二区三免费高清| 国产精品拍拍拍| 性欧美成人播放77777| 草久久免费视频| 亚洲视频成人| 少妇极品熟妇人妻无码| 久久中文字幕无码| 97视频热人人精品免费| 伊人精彩视频| 都市激情在线视频| 国产精品theporn动漫| 最近高清中文在线字幕在线观看1| 污污的视频在线免费观看| 岛国在线视频免费看| 国产一区二区三区高清| 精品噜噜噜噜久久久久久久久试看| 26uuu国产在线精品一区二区| 九九九免费视频| 91久久国产综合| 超级白嫩亚洲国产第一| 亚洲在线成人精品| 先锋影音中文字幕| 欧美不卡在线观看|