亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb

首頁 > 學(xué)院 > 開發(fā)設(shè)計(jì) > 正文

《機(jī)器學(xué)習(xí)實(shí)戰(zhàn)》中貝葉斯分類中導(dǎo)入RSS源例子

2019-11-14 17:41:32
字體:
供稿:網(wǎng)友

跟著書中代碼往下寫在這里卡住了,考慮到可能還會有其他同學(xué)也遇到了這樣的問題,記下來分享。

先吐槽一下,相信大部分網(wǎng)友在這里卡住的主要原因是偉大的GFW,所以無論是軟件FQ還是肉身FQ的小伙伴們估計(jì)是無論如何也看不到這篇博文的,不想往下看的請自覺使用FQ技能。

 

怎么安裝feedparser?

按書中提供的網(wǎng)址直接安裝feedparser會提示錯誤說沒有setuptools,然后去找setuptools,官方的說法是windows最好用ez_setup.py安裝,我確實(shí)下載不下來官網(wǎng)的那個ez_etup.py,這個帖子給出了解決方案:http://adesquared.WordPRess.com/2013/07/07/setting-up-python-and-easy_install-on-windows-7/

ez_setup.py

將這個文件直接拷貝到C://python27文件夾中,輸入命令行:python ez_setup.py install

然后轉(zhuǎn)到放feedparser安裝文件的文件夾中,命令行輸入:python setup.py install

 

作者提供的rss源鏈接“http://newyork.craigslist.org/stp/index.rss”不可訪問怎么辦?

書中作者的意思是以來自源 http://newyork.craigslist.org/stp/index.rss 中的文章作為分類為1的文章,以來自源 http://sfbay.craigslist.org/stp/index.rss 中的文章作為分類為0的文章

為了能夠跑通示例代碼,可以找兩可用的RSS源作為替代。

我用的是這兩個源:

NASA Image of the Day:http://www.nasa.gov/rss/dyn/image_of_the_day.rss

Yahoo Sports - NBA - Houston Rockets News:http://sports.yahoo.com/nba/teams/hou/rss.xml

也就是說,如果算法運(yùn)行正確的話,所有來自于 nasa 的文章將會被分類為1,所有來自于yahoo sports的休斯頓火箭隊(duì)新聞將會分類為0

 

使用自己定義的RSS源,當(dāng)程序運(yùn)行到trainNB0(array(trainMat),array(trainClasses))時(shí)會報(bào)錯,怎么辦?

從書中作者的例子來看,作者使用的源中文章數(shù)量較多,len(ny['entries']) 為 100,我找的幾個 RSS 源只有10-20個左右。

>>> import feedparser
>>>ny=feedparser.parse('http://newyork.craigslist.org/stp/index.rss')
>>> ny['entries']
>>> len(ny['entries'])
100

因?yàn)樽髡叩囊粋€RSS源有100篇文章,所以他可以在代碼中剔除了30個“停用詞”,隨機(jī)選擇20篇文章作為測試集,但是當(dāng)我們使用替代RSS源時(shí)我們只有10篇文章卻要取出20篇文章作為測試集,這樣顯然是會出錯的。只要自己調(diào)整下測試集的數(shù)量就可以讓代碼跑通;如果文章中的詞太少,減少剔除的“停用詞”數(shù)量可以提高算法的準(zhǔn)確度。

 

如果不想將出現(xiàn)頻率排序最高的30個單詞移除,該如何去掉“停用詞”?

可以把要去掉的停用詞存放到txt文件中,使用時(shí)讀取(替代移除高頻詞的代碼)。具體需要停用哪些詞可以參考這里 http://www.ranks.nl/stopwords

以下代碼想正常運(yùn)行需要將停用詞保存至stopword.txt中。

我的txt中保存了以下單詞,效果還不錯:

a
about
above
after
again
against
all
am
an
and
any
are
aren't
as
at
be
because
been
before
being
below
between
both
but
by
can't
cannot
could
couldn't
did
didn't
do
does
doesn't
doing
don't
down
during
each
few
for
from
further
had
hadn't
has
hasn't
have
haven't
having
he
he'd
he'll
he's
her
here
here's
hers
herself
him
himself
his
how
how's
i
i'd
i'll
i'm
i've
if
in
into
is
isn't
it
it's
its
itself
let's
me
more
most
mustn't
my
myself
no
nor
not
of
off
on
once
only
or
other
ought
our
ours
ourselves
out
over
own
same
shan't
she
she'd
she'll
she's
should
shouldn't
so
some
such
than
that
that's
the
their
theirs
them
themselves
then
there
there's
these
they
they'd
they'll
they're
they've
this
those
through
to
too
under
until
up
very
was
wasn't
we
we'd
we'll
we're
we've
were
weren't
what
what's
when
when's
where
where's
which
while
who
who's
whom
why
why's
with
won't
would
wouldn't
you
you'd
you'll
you're
you've
your
yours
yourself
yourselves

 

'''Created on Oct 19, 2010@author: Peter'''from numpy import *def loadDataSet():    postingList=[['my', 'dog', 'has', 'flea', 'problems', 'help','my','dog', 'please'],                 ['maybe', 'not', 'take', 'him', 'to', 'dog', 'park', 'stupid'],                 ['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],                 ['stop', 'posting', 'stupid', 'worthless', 'garbage'],                 ['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],                 ['quit', 'buying', 'worthless', 'dog', 'food', 'stupid']]    classVec = [0,1,0,1,0,1]    #1 is abusive, 0 not    return postingList,classVec                 def createVocabList(dataSet):    vocabSet = set([])  #create empty set    for document in dataSet:        vocabSet = vocabSet | set(document) #union of the two sets    return list(vocabSet)def bagOfWords2Vec(vocabList, inputSet):    returnVec = [0]*len(vocabList)    for word in inputSet:        if word in vocabList:            returnVec[vocabList.index(word)] += 1        else: print "the word: %s is not in my Vocabulary!" % word    return returnVecdef trainNB0(trainMatrix,trainCategory):    numTrainDocs = len(trainMatrix)    numWords = len(trainMatrix[0])    pAbusive = sum(trainCategory)/float(numTrainDocs)    p0Num = ones(numWords); p1Num = ones(numWords)      #change to ones()     p0Denom = 2.0; p1Denom = 2.0                        #change to 2.0    for i in range(numTrainDocs):        if trainCategory[i] == 1:            p1Num += trainMatrix[i]            p1Denom += sum(trainMatrix[i])        else:            p0Num += trainMatrix[i]            p0Denom += sum(trainMatrix[i])    p1Vect = log(p1Num/p1Denom)          #change to log()    p0Vect = log(p0Num/p0Denom)          #change to log()    return p0Vect,p1Vect,pAbusivedef classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):    p1 = sum(vec2Classify * p1Vec) + log(pClass1)    #element-wise mult    p0 = sum(vec2Classify * p0Vec) + log(1.0 - pClass1)    if p1 > p0:        return 1    else:         return 0    def bagOfWords2VecMN(vocabList, inputSet):    returnVec = [0]*len(vocabList)    for word in inputSet:        if word in vocabList:            returnVec[vocabList.index(word)] += 1    return returnVecdef testingNB():    print '*** load dataset for training ***'    listOPosts,listClasses = loadDataSet()    print 'listOPost:/n',listOPosts    print 'listClasses:/n',listClasses    print '/n*** create Vocab List ***'    myVocabList = createVocabList(listOPosts)    print 'myVocabList:/n',myVocabList    print '/n*** Vocab show in post Vector Matrix ***'    trainMat=[]    for postinDoc in listOPosts:        trainMat.append(bagOfWords2Vec(myVocabList, postinDoc))    print 'train matrix:',trainMat    print '/n*** train P0V p1V pAb ***'    p0V,p1V,pAb = trainNB0(array(trainMat),array(listClasses))    print 'p0V:/n',p0V    print 'p1V:/n',p1V    print 'pAb:/n',pAb    print '/n*** classify ***'    testEntry = ['love', 'my', 'dalmation']    thisDoc = array(bagOfWords2Vec(myVocabList, testEntry))    print testEntry,'classified as: ',classifyNB(thisDoc,p0V,p1V,pAb)    testEntry = ['stupid', 'garbage']    thisDoc = array(bagOfWords2Vec(myVocabList, testEntry))    print testEntry,'classified as: ',classifyNB(thisDoc,p0V,p1V,pAb)def textParse(bigString):    #input is big string, #output is word list    import re    listOfTokens = re.split(r'/W*', bigString)    return [tok.lower() for tok in listOfTokens if len(tok) > 2]     def spamTest():    docList=[]; classList = []; fullText =[]    for i in range(1,26):        wordList = textParse(open('email/spam/%d.txt' % i).read())        docList.append(wordList)        fullText.extend(wordList)        classList.append(1)        wordList = textParse(open('email/ham/%d.txt' % i).read())        docList.append(wordList)        fullText.extend(wordList)        classList.append(0)    vocabList = createVocabList(docList)#create vocabulary    trainingSet = range(50); testSet=[]           #create test set    for i in range(10):        randIndex = int(random.uniform(0,len(trainingSet)))        testSet.append(trainingSet[randIndex])        del(trainingSet[randIndex])      trainMat=[]; trainClasses = []    for docIndex in trainingSet:#train the classifier (get probs) trainNB0        trainMat.append(bagOfWords2VecMN(vocabList, docList[docIndex]))        trainClasses.append(classList[docIndex])    p0V,p1V,pSpam = trainNB0(array(trainMat),array(trainClasses))    errorCount = 0    for docIndex in testSet:        #classify the remaining items        wordVector = bagOfWords2VecMN(vocabList, docList[docIndex])        if classifyNB(array(wordVector),p0V,p1V,pSpam) != classList[docIndex]:            errorCount += 1            print "classification error",docList[docIndex]    print 'the error rate is: ',float(errorCount)/len(testSet)    #return vocabList,fullTextdef calcMostFreq(vocabList,fullText):    import Operator    freqDict = {}    for token in vocabList:        freqDict[token]=fullText.count(token)    sortedFreq = sorted(freqDict.iteritems(), key=operator.itemgetter(1), reverse=True)     return sortedFreq[:30]       def stopWords():    import re    wordList =  open('stopword.txt').read() # see http://www.ranks.nl/stopwords    listOfTokens = re.split(r'/W*', wordList)    return [tok.lower() for tok in listOfTokens]     print 'read stop word from /'stopword.txt/':',listOfTokens    return listOfTokensdef localWords(feed1,feed0):    import feedparser    docList=[]; classList = []; fullText =[]    print 'feed1 entries length: ', len(feed1['entries']), '/nfeed0 entries length: ', len(feed0['entries'])    minLen = min(len(feed1['entries']),len(feed0['entries']))    print '/nmin Length: ', minLen    for i in range(minLen):        wordList = textParse(feed1['entries'][i]['summary'])        print '/nfeed1/'s entries[',i,']/'s summary - ','parse text:/n',wordList        docList.append(wordList)        fullText.extend(wordList)        classList.append(1) #NY is class 1        wordList = textParse(feed0['entries'][i]['summary'])        print '/nfeed0/'s entries[',i,']/'s summary - ','parse text:/n',wordList        docList.append(wordList)        fullText.extend(wordList)        classList.append(0)    vocabList = createVocabList(docList)#create vocabulary    print '/nVocabList is ',vocabList    print '/nRemove Stop Word:'    stopWordList = stopWords()    for stopWord in stopWordList:        if stopWord in vocabList:            vocabList.remove(stopWord)            print 'Removed: ',stopWord##    top30Words = calcMostFreq(vocabList,fullText)   #remove top 30 words##    print '/nTop 30 words: ', top30Words##    for pairW in top30Words:##        if pairW[0] in vocabList:##            vocabList.remove(pairW[0])##            print '/nRemoved: ',pairW[0]    trainingSet = range(2*minLen); testSet=[]           #create test set    print '/n/nBegin to create a test set: /ntrainingSet:',trainingSet,'/ntestSet',testSet    for i in range(5):        randIndex = int(random.uniform(0,len(trainingSet)))        testSet.append(trainingSet[randIndex])        del(trainingSet[randIndex])    print 'random select 5 sets as the testSet:/ntrainingSet:',trainingSet,'/ntestSet',testSet    trainMat=[]; trainClasses = []    for docIndex in trainingSet:#train the classifier (get probs) trainNB0        trainMat.append(bagOfWords2VecMN(vocabList, docList[docIndex]))        trainClasses.append(classList[docIndex])    print '/ntrainMat length:',len(trainMat)    print '/ntrainClasses',trainClasses    print '/n/ntrainNB0:'    p0V,p1V,pSpam = trainNB0(array(trainMat),array(trainClasses))    #print '/np0V:',p0V,'/np1V',p1V,'/npSpam',pSpam    errorCount = 0    for docIndex in testSet:        #classify the remaining items        wordVector = bagOfWords2VecMN(vocabList, docList[docIndex])        classifiedClass = classifyNB(array(wordVector),p0V,p1V,pSpam)        originalClass = classList[docIndex]        result =  classifiedClass != originalClass        if result:            errorCount += 1        print '/n',docList[docIndex],'/nis classified as: ',classifiedClass,', while the original class is: ',originalClass,'. --',not result    print '/nthe error rate is: ',float(errorCount)/len(testSet)    return vocabList,p0V,p1Vdef testRSS():    import feedparser    ny=feedparser.parse('http://www.nasa.gov/rss/dyn/image_of_the_day.rss')    sf=feedparser.parse('http://sports.yahoo.com/nba/teams/hou/rss.xml')    vocabList,pSF,pNY = localWords(ny,sf)def testTopWords():    import feedparser    ny=feedparser.parse('http://www.nasa.gov/rss/dyn/image_of_the_day.rss')    sf=feedparser.parse('http://sports.yahoo.com/nba/teams/hou/rss.xml')    getTopWords(ny,sf)def getTopWords(ny,sf):    import operator    vocabList,p0V,p1V=localWords(ny,sf)    topNY=[]; topSF=[]    for i in range(len(p0V)):        if p0V[i] > -6.0 : topSF.append((vocabList[i],p0V[i]))        if p1V[i] > -6.0 : topNY.append((vocabList[i],p1V[i]))    sortedSF = sorted(topSF, key=lambda pair: pair[1], reverse=True)    print "SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**SF**"    for item in sortedSF:        print item[0]    sortedNY = sorted(topNY, key=lambda pair: pair[1], reverse=True)    print "NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**NY**"    for item in sortedNY:        print item[0]def test42():    print '/n*** Load DataSet ***'    listOPosts,listClasses = loadDataSet()    print 'List of posts:/n', listOPosts    print 'List of Classes:/n', listClasses    print '/n*** Create Vocab List ***'    myVocabList = createVocabList(listOPosts)    print 'Vocab List from posts:/n', myVocabList    print '/n*** Vocab show in post Vector Matrix ***'    trainMat=[]    for postinDoc in listOPosts:        trainMat.append(bagOfWords2Vec(myVocabList,postinDoc))    print 'Train Matrix:/n', trainMat    print '/n*** Train ***'    p0V,p1V,pAb = trainNB0(trainMat,listClasses)    print 'p0V:/n',p0V    print 'p1V:/n',p1V    print 'pAb:/n',pAb    

發(fā)表評論 共有條評論
用戶名: 密碼:
驗(yàn)證碼: 匿名發(fā)表
中国女人内谢69视频| 久久丫精品久久丫| 波多野结衣久久高清免费| 91 在线视频| 91国偷自产一区二区使用方法| 欧美激情综合五月色丁香小说| 日韩在线高清| 久久99久久久久久久噜噜| 久久99精品久久久久久久青青日本| 大地资源网3页在线观看| 精品人妻人人做人人爽| 色综合天天天天做夜夜夜夜做| 国产乱子视频| 久久综合国产精品| 久热中文字幕在线精品首页| 在线一级视频| 在线观看免费91| gai在线观看免费高清| 中文在线播放| 日韩一区欧美小说| 黄色无遮挡网站| 99久久综合99久久综合网站| 亚洲精品少妇一区二区| 樱花草国产18久久久久| 日日躁夜夜躁人人揉av五月天| 视频一区日韩精品| 国产精品白嫩美女在线观看| 国产又粗又长| 一区二区三区影视| 亚洲乱妇老熟女爽到高潮的片| 1000精品久久久久久久久| 日本亚洲精品| 69夜色精品国产69乱| 国产精品18hdxxxⅹ在线| 欧美在线短视频| 91精品国产91久久久久福利| 激情欧美一区二区三区黑长吊| 亚洲国产电影| 在线观看av中文字幕| 欧美性猛片xxxx免费看久爱| 精品国产av色一区二区深夜久久| 高清av免费看| 在线观看免费高清视频97| 国产精品久久久久久久久婷婷| 日本a级黄色| 内射国产内射夫妻免费频道| 国产精品白丝在线| 日本福利一区二区三区| 亚洲成人日韩| 欧美在线观看视频网站| 国产精品99精品久久免费| 黄色网址在线免费播放| 国产精品你懂的在线| xfplay每日更新av资源在线| 91精品国产高清久久久久久91| 国产福利精品av综合导导航| 亚洲成av人片www| 97中文字幕| 欧美成人aaa片一区国产精品| 向日葵视频成人app网址| 欧美三级三级三级| 欧美专区在线观看| 日韩在线黄色| 丰腴饱满的极品熟妇| 久草一区二区| 日韩av密桃| 新的色悠悠久久久| 在线综合视频网站| 一区二区三区激情视频| 男女无套免费网站| 成人av观看| 7777精品伊人久久久大香线蕉最新版| 欧美在线不卡视频| 国产精品免费观看在线| 亚洲av综合色区无码一区爱av| 国产乱子伦精品无码专区| 最近中文字幕mv免费高清在线| 亚洲欧洲一二区| 午夜天堂在线观看| 97超碰人人模人人爽人人看| 亚洲国产精品国自产拍久久| 亚洲第一区在线| 欧美黄色免费观看| 亚洲激情视频在线观看| 国产亚洲精品久| 波多野结衣久久| 一本色道久久综合亚洲精品图片| 日本三级视频网站| 国产精品麻豆一区二区三区| 精品国产伦理网| 黑人巨大40cm重口| 欧美视频亚洲色图| 国产ktv在线视频| 黄色网页在线免费看| 在线观看日本一区二区| 韩国av在线免费观看| 久久精品国产**网站演员| 欧美精品自拍偷拍动漫精品| 在线高清av| 久久综合精品国产一区二区三区| 色婷婷av金发美女在线播放| 中文天堂在线播放| 久久精品人人做人人爽| 羞羞视频立即看| 国产网站无遮挡| 九色porny丨入口在线| 国产综合久久久久久久久久久久| 日本系列第一页| 浅井舞香一区二区| 亚洲精品在线观看av| 717影院理论午夜伦不卡久久| 乱色精品无码一区二区国产盗| 在线精品国产欧美| 亚洲精品资源美女情侣酒店| 中文有码在线| 久久精品国产精品亚洲精品| 亚洲欧美日韩天堂一区二区| 久久99精品这里精品3| 中文字幕在线永久| 91免费视频网| 国产精品一区二区三区观看| 国产精品久久精品牛牛影视| 开心色怡人综合网站| 欧美另类高清视频在线| 爱爱视频免费在线观看| 亚洲欧美偷拍另类| 中文字幕亚洲一区二区三区五十路| 乱亲女h秽乱长久久久| 久久久777精品电影网影网| 青娱乐国产91| 97成人超碰免| 欧美久久久久久久| 一本一本久久| 久久黄色影院| 羞羞色国产精品网站| 婷婷国产成人精品视频| 日本一区福利在线| 国产探花一区二区| 波多野结衣在线aⅴ中文字幕不卡| 国产不卡精品| 成午夜精品一区二区三区软件| 国产精品中文字幕在线| 亚洲一级中文字幕| 一本色道88久久加勒比精品| 中文字幕精品网| 国产99久久久久| 精品视频一区二区在线| 欧美吻胸吃奶大尺度电影| 成人影院中文字幕| 亚洲成人精品影院| 永久免费看mv网站入口78| 国产三级香港三韩国三级| 91激情在线| 国产日产高清欧美一区二区三区| 青娱乐国产精品视频| 91精东传媒理伦片在线观看| xxx欧美尤物xxx| 国产精品88久久久久久| 亚洲香蕉伊在人在线观| 影音先锋欧美激情| 亚洲人成欧美中文字幕| 国产色在线 com| 在线免费不卡视频| 国产免费xxx| 欧美成人一二三| 亚洲黄色精品| 亚洲专区一区二区三区| 久久一综合视频| www.欧美日本韩国| 亚州av乱码久久精品蜜桃| 国产suv精品一区二区68| 久久久久久久久久久久久久av| 成人性做爰片免费视频| 国产激情在线观看视频| www.国产精品一区| 欧美黑人欧美精品刺激| 高清在线视频不卡| 一区二区三区四区在线免费视频| 久久亚洲国产| 韩日成人av| 欧美三级网色| 综合视频在线观看| 日韩中文字幕久久| 亚洲视频色图| 欧美日韩一级片网站| av电影院在线看| 在线国产一区二区| 在线国产福利网站| 一不卡在线视频| 久久无码精品丰满人妻| 日韩一级在线| 极品一线天粉嫩虎白馒头| 黄网站网址视频| 最近2019中文字幕一页二页| 99天天综合性| 一本二本三本亚洲码| 一区二区三区精品视频在线| 亚洲欧洲在线免费| 性国裸体高清亚洲| 国产hs免费高清在线观看| 噜噜噜狠狠夜夜躁精品仙踪林| 人妻无码中文字幕| 国产欧美日韩一区二区三区在线观看| 国产伦精品一区二区三区免费优势| 国产精品久久久久永久免费看| 在线观看你懂的视频| 欧美a大片欧美片| 国产国语**毛片高清视频| 欧美日韩偷拍视频| 少妇视频在线观看| 久色视频在线观看| 中文字幕一区二区久久人妻网站| 国产三级精品在线不卡| 女人天堂亚洲aⅴ在线观看| 三区在线观看| 成人h猎奇视频网站| 99re在线视频播放| 亚洲精品色图| 欧美一级大片免费看| 成人福利视频网| 欧美日韩中国免费专区在线看| 成人欧美一区二区三区黑人| jizz亚洲大全| 一区二区三区 在线观看视频| 国产精品无码自拍| 999精品视频一区二区三区| 日本年轻的继坶中文字幕| 中国大陆高清aⅴ毛片| 色老头在线一区二区三区| 欧美日韩一二三四区| 羞羞视频在线观看一区二区| 在线电影看在线一区二区三区| 国产精品视频大全| 香蕉视频在线观看黄| 欧美激情女人20p| 精品二区在线观看| 亚洲一区二区三区久久| 九色porny自拍| 久久久久久久蜜桃| 女人喷潮完整视频| 国产一级不卡毛片| 免费在线一区二区三区| 激情视频综合网| 九九这里只精品视在线99| 欧美三级在线免费观看| 蜜桃色永久入口| 国产传媒av在线| 亚洲国产精品第一区二区| 国产福利小视频| 久久大大胆人体| 免费自拍视频| 最近国语视频在线观看免费播放| 欧美日韩蜜桃| 欧美视频在线看| 国产一区二区看久久| 五月婷婷婷婷婷| 激情久久久久久| 91嫩草在线视频| 麻豆freexxxx性91精品| 成人性做爰片免费视频| 中文字幕乱在线伦视频乱在线伦视频| 91在线精品视频| 亚洲午夜伦理| 国产91麻豆视频| 日日嗨av一区二区三区四区| 国产xxx在线| 亚洲欧洲av| 国产性天天综合网| 伊人网在线视频| 欧美特级限制片免费在线观看| 福利电影一区| 免费视频网站在线观看入口| 美女流白浆视频| 久久久久久久久久网| 欧美色图亚洲自拍| 肉色超薄丝袜脚交| 992tv国产精品成人影院| av网站在线播放| 91精品久久久久久久99蜜桃| 欧美性色aⅴ视频一区日韩精品| 成人国产精品一区二区免费麻豆| 亚洲伦理久久| 91caoporn在线| 最新中文字幕亚洲| 全国精品久久少妇| 亚洲一区二区三区毛片| zzijzzij亚洲日本少妇熟睡| 午夜视频1000| 99精品国产99久久久久久福利| 久久精品视频中文字幕| 亚洲国产欧美日韩另类综合| 久久亚洲视频| 日韩精品一区二区三区蜜臀| 中文字幕高清在线播放| 久久久99999| 国产三区精品| 91激情视频在线观看| 美女胸又www又黄的网站| 天美一区二区三区| 午夜探花在线观看| 欧美 日韩 国产一区二区在线视频| 日韩av男人的天堂| 日韩在线国产精品| 黑人巨茎大战欧美白妇| 久久国产精品亚洲77777| 奇米影视一区二区三区小说| 亚洲女人被黑人巨大进入| 国内精品免费在线观看| 欧美另类视频在线| 亚洲国产成人不卡| 国产精品户外野外| 久久亚洲精华国产精华液| 黑人巨大精品欧美一区| 欧美日韩国产不卡在线看| 俺也去.com| 欧美亚洲尤物久久| 性欧美1819sex性高清| 欧美猛男性生活免费| 99成人在线| 水蜜桃久久夜色精品一区| ass极品水嫩小美女ass| 亚洲精品国产精品国自产观看浪潮| 天天干夜夜艹| av网站观看| 日本人dh亚洲人ⅹxx| 最近2018年手机中文在线| 日韩一级片播放| 美女把尿口扒开让男人桶在线观看|