亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb

首頁 > 編程 > Python > 正文

Python 爬蟲爬取指定博客的所有文章

2020-01-04 17:45:21
字體:
來源:轉載
供稿:網友
因為Google App Engine 被墻,我無法繼續完善我的Moven project 還有20+天才回去,怕到時候會忘記project的進度和細節就趁著個冷的什么都不想干的時候, 大概的總結一下
 

自上一篇文章 Z Story : Using Django with GAE Python 后臺抓取多個網站的頁面全文 后,大體的進度如下:
1.增加了Cron: 用來告訴程序每隔30分鐘 讓一個task 醒來, 跑到指定的那幾個博客上去爬取最新的更新
2.用google 的 Datastore 來存貯每次爬蟲爬下來的內容。。只存貯新的內容。。

就像上次說的那樣,這樣以來 性能有了大幅度的提高: 原來的每次請求后, 爬蟲才被喚醒 所以要花大約17秒的時間才能從后臺輸出到前臺而現在只需要2秒不到

3.對爬蟲進行了優化

1. Cron.yaml 來安排每個程序醒來的時間

經過翻文檔, 問問題終于弄明白google的cron的工作原理--實際上只是google每隔指定的時間虛擬地訪問一個我們自己指定的url…
因此在Django 下, 根本不需要寫一個純的python 程序 一定不要寫:
if __name__=="__main__": 
只需要自己配置一個url 放在views.py里:

def updatePostsDB(request):  #deleteAll()  SiteInfos=[]  SiteInfo={}  SiteInfo['PostSite']="L2ZStory"  SiteInfo['feedurl']="feed://l2zstory.wordpress.com/feed/"  SiteInfo['blog_type']="wordpress"  SiteInfos.append(SiteInfo)  SiteInfo={}  SiteInfo['PostSite']="YukiLife"  SiteInfo['feedurl']="feed://blog.sina.com.cn/rss/1583902832.xml"  SiteInfo['blog_type']="sina"  SiteInfos.append(SiteInfo)  SiteInfo={}  SiteInfo['PostSite']="ZLife"  SiteInfo['feedurl']="feed://ireallife.wordpress.com/feed/"  SiteInfo['blog_type']="wordpress"  SiteInfos.append(SiteInfo)  SiteInfo={}  SiteInfo['PostSite']="ZLife_Sina"  SiteInfo['feedurl']="feed://blog.sina.com.cn/rss/1650910587.xml"  SiteInfo['blog_type']="sina"  SiteInfos.append(SiteInfo)    try:    for site in SiteInfos:      feedurl=site['feedurl']      blog_type=site['blog_type']      PostSite=site['PostSite']      PostInfos=getPostInfosFromWeb(feedurl,blog_type)      recordToDB(PostSite,PostInfos)    Msg="Cron Job Done..."   except Exception,e:    Msg=str(e)    return HttpResponse(Msg)

cron.yaml 要放在跟app.yaml同一個級別上:
cron:
- description: retrieve newest posts
url: /task_updatePosts/
schedule: every 30 minutes

在url.py 里只要指向這個把task_updatePostsDB 指向url就好了

調試這個cron的過程可以用慘烈來形容。。。在stackoverflow上有很多很多人在問為什么自己的cron不能工作。。。我一開始也是滿頭是汗,找不著頭腦。。。最后僥幸弄好了,大體步驟也是空泛的很。。但是很樸實:
首先,一定要確保自己的程序沒有什么syntax error….然后可以自己試著手動訪問一下那個url 如果cron 正常的話,這個時候任務應該已經被執行了 最后實在不行的話多看看log…

2. Datastore的配置和利用--Using Datastore with Django

我的需求在這里很簡單--沒有join…所以我就直接用了最簡陋的django-helper..
這個models.py 是個重點:

 

復制代碼代碼如下:

from appengine_django.models import BaseModel
from google.appengine.ext import db

 

classPostsDB(BaseModel):
    link=db.LinkProperty()
    style="margin: 0px; padding: 0px; line-height: 25.2px; width: 660px; overflow: hidden; clear: both;">

import urllib#from BeautifulSoup import BeautifulSoupfrom pyquery import PyQuery as pqdef getArticleList(url):  lstArticles=[]  url_prefix=url[:-6]  Cnt=1    response=urllib.urlopen(url)  html=response.read()  d=pq(html)  try:    pageCnt=d("ul.SG_pages").find('span')    pageCnt=int(d(pageCnt).text()[1:-1])  except:    pageCnt=1  for i in range(1,pageCnt+1):    url=url_prefix+str(i)+".html"    #print url    response=urllib.urlopen(url)    html=response.read()    d=pq(html)    title_spans=d(".atc_title").find('a')    date_spans=d('.atc_tm')        for j in range(0,len(title_spans)):      titleObj=title_spans[j]      dateObj=date_spans[j]      article={}      article['link']= d(titleObj).attr('href')      article['title']= d(titleObj).text()      article['date']=d(dateObj).text()      article['desc']=getPageContent(article['link'])      lstArticles.append(article)  return lstArticles  def getPageContent(url):  #get Page Content  response=urllib.urlopen(url)  html=response.read()  d=pq(html)  pageContent=d("div.articalContent").text()  #print pageContent  return pageContentdef main():  url='http://blog.sina.com.cn/s/articlelist_1191258123_0_1.html'#Han Han  url="http://blog.sina.com.cn/s/articlelist_1225833283_0_1.html"#Gu Du Chuan Ling  url="http://blog.sina.com.cn/s/articlelist_1650910587_0_1.html"#Feng  url="http://blog.sina.com.cn/s/articlelist_1583902832_0_1.html"#Yuki  lstArticles=getArticleList(url)  for article in lstArticles:    f=open("blogs/"+article['date']+"_"+article['title']+".txt",'w')    f.write(article['desc'].encode('utf-8')) #特別注意對中文的處理    f.close()    #print article['desc']    if __name__=='__main__':  main()

對PyQuery的推薦。。
很遺憾的說, BueautifulSoup讓我深深的失望了。。。在我寫上篇文章的時候,當時有個小bug..一直找不到原因。。在我回家后,又搭上了很多時間試圖去弄明白為什么BueautifulSoup一直不能抓到我想要的內容。。。后來大體看了看它selector部分的源代碼覺得應該是它對于很多還有<script>tag的不規范html頁面的解析不準確。。。

我放棄了這個庫, 又試了lxml..基于xpath 很好用。。但是xpath的東西我老是需要查文檔。。。所以我又找了個庫PyQuery…可以用jQuery選擇器的工具。。。非常非常非常好用。。。。具體的用法就看上面吧。。。這個庫有前途。。。

隱憂 
因為pyquery基于lxml…而lxml的底層又是c…所以估計在gae上用不了。。。我這個爬蟲只能現在在我的電腦上爬好東西。。。然后push到server上。。。

總結

一句話, 我愛死Python了
兩句話, 我愛死Python了,我愛死Django了
三句話, 我愛死Python了,我愛死Django了,我愛死jQuery了。。。
四句號, 我愛死Python了,我愛死Django了,我愛死jQuery了,我愛死pyQuery了。。。

 

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb
亚洲欧洲在线观看| 亚洲一区二区中文字幕| 69av视频在线播放| 97在线视频观看| 国产成人精品午夜| 国产精品69久久久久| 97国产suv精品一区二区62| 国产视频在线一区二区| www.亚洲一二| 久久亚洲精品小早川怜子66| 国产区精品在线观看| 亚洲三级av在线| 亚洲国产精品电影| 九九热在线精品视频| 国产精品极品美女粉嫩高清在线| 136fldh精品导航福利| 中文字幕精品在线视频| 日本亚洲欧洲色| 久久久精品国产| 欧美日韩美女在线观看| 深夜成人在线观看| 欧美激情在线观看视频| 久久久久久999| 国产精品18久久久久久麻辣| 久久久久久12| 国产一区二区黄| 亚洲第一综合天堂另类专| 国产视频久久网| 国产精品一区二区三区久久久| 久久久黄色av| 国产成人一区二区| 欧美激情一区二区三区在线视频观看| 亚洲自拍另类欧美丝袜| 精品视频—区二区三区免费| 亚洲国产精品久久久久| 91久久在线播放| 欧美性猛交xxxx久久久| 欧美在线视频一二三| 亚洲自拍偷拍在线| 91精品免费久久久久久久久| 亚洲国产天堂久久综合网| 欧美精品18videos性欧美| 亚洲精品99999| 国产精品白丝av嫩草影院| 97人人爽人人喊人人模波多| 欧美午夜xxx| 91精品视频免费看| 日韩电视剧在线观看免费网站| 欧美极品在线视频| 91av在线播放| 91免费的视频在线播放| 欧美亚洲国产成人精品| 欧美日韩在线观看视频| 精品国产区一区二区三区在线观看| 久久久极品av| 久久精品人人做人人爽| 亚洲精品女av网站| 精品动漫一区二区| 久久久久久91香蕉国产| 国产91露脸中文字幕在线| 色综合天天狠天天透天天伊人| 日韩精品久久久久久久玫瑰园| 日韩精品极品在线观看播放免费视频| 亚洲欧洲日韩国产| 国产精品青青在线观看爽香蕉| 精品久久久久久久久国产字幕| 成人a免费视频| 91chinesevideo永久地址| 亚洲欧美国内爽妇网| 精品视频—区二区三区免费| 欧美激情视频一区| 亚洲午夜色婷婷在线| 一区二区三区国产视频| 国产成人精品久久亚洲高清不卡| 国产精品第8页| 日韩精品有码在线观看| 国产日本欧美视频| 国产精品自产拍高潮在线观看| 国模精品系列视频| 欧美日韩亚洲一区二区三区| 国产欧美日韩免费看aⅴ视频| 欧美另类交人妖| 久久精品电影网站| 国产欧美一区二区三区视频| 热re91久久精品国99热蜜臀| 神马久久桃色视频| 亚洲а∨天堂久久精品喷水| 68精品久久久久久欧美| 91国内揄拍国内精品对白| 亚洲精品在线视频| 色yeye香蕉凹凸一区二区av| 亚洲欧美激情在线视频| 亚洲91精品在线观看| 国产精品国产自产拍高清av水多| 最新69国产成人精品视频免费| 欧美激情小视频| 欧美精品激情在线| 欧美日韩性视频| 亚洲香蕉av在线一区二区三区| 丁香五六月婷婷久久激情| 中文字幕亚洲天堂| 国产精品免费一区| 成人性生交xxxxx网站| 亚洲第一中文字幕在线观看| 亚洲精品久久久久国产| 亚洲成av人影院在线观看| 国产香蕉一区二区三区在线视频| 97av在线视频免费播放| 清纯唯美亚洲综合| 午夜精品一区二区三区在线| 亚洲最大成人免费视频| 中文字幕日本欧美| 91国在线精品国内播放| 亚洲男人的天堂在线| 伊人久久五月天| 国产成人福利夜色影视| 国产大片精品免费永久看nba| www.欧美视频| 最好看的2019年中文视频| 日韩欧美主播在线| 日韩专区在线观看| 欧洲午夜精品久久久| 欧美日韩中国免费专区在线看| 日韩一级黄色av| 伊人久久大香线蕉av一区二区| 日韩av在线最新| 欧美国产欧美亚洲国产日韩mv天天看完整| 日韩在线免费高清视频| 欧美成aaa人片在线观看蜜臀| 992tv成人免费视频| 亚洲最大在线视频| 日韩免费av片在线观看| 欧美视频在线免费看| 日韩高清中文字幕| 91精品久久久久久久久| 免费成人高清视频| 欧美日韩免费观看中文| 欧美日韩一区二区三区在线免费观看| 亚洲精选中文字幕| 91成品人片a无限观看| 色噜噜亚洲精品中文字幕| 欧美另类交人妖| 久久久精品中文字幕| 欧美在线一区二区视频| 大胆人体色综合| 尤物tv国产一区| 一区二区三区视频观看| 日韩高清免费观看| 国产精品精品久久久久久| 国产成人黄色av| 亚洲人成自拍网站| 亚洲成人a**站| 青草青草久热精品视频在线网站| 国产精品日日做人人爱| 91精品国产99久久久久久| 大桥未久av一区二区三区| 亚洲欧美另类在线观看| 97免费中文视频在线观看| 欧美日韩综合视频网址| 国产精品视频公开费视频| 欧美精品久久久久久久久久| 九九精品在线观看| 日韩精品中文字幕有码专区| 日本欧美精品在线|