亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb

首頁 > 編程 > Python > 正文

使用Python的urllib和urllib2模塊制作爬蟲的實例教程

2020-01-04 17:49:56
字體:
來源:轉載
供稿:網友
這篇文章主要介紹了使用Python的urllib和urllib2模塊制作爬蟲的實例教程,展現了這兩個常用爬蟲制作模塊的基本用法,極度推薦!需要的朋友可以參考下
 

urllib
學習python完基礎,有些迷茫.眼睛一閉,一種空白的窒息源源不斷而來.還是缺少練習,遂拿爬蟲來練練手.學習完斯巴達python爬蟲課程后,將心得整理如下,供后續翻看.整篇筆記主要分以下幾個部分:

  • 1.做一個簡單的爬蟲程序
  • 2.小試牛刀--抓取百度貼吧圖片
  • 3.總結

1.做一個簡單的爬蟲程序
首先環境描述

  • Device: Mba 2012 Yosemite 10.10.1
  • Python: python 2.7.9
  • 編輯器: Sublime Text 3

這個沒有什么好說的,直接上代碼吧!

'''@ urllib為python自帶的一個網絡庫@ urlopen為urllib的一個方法,用于打開一個連接并抓取網頁, 然后通過read()方法把值賦給read()'''import urlliburl = "http://www.lifevc.com"#多嘴兩句,為什么要選lifevc呢,主要是最近它很惹我.html = urllib.urlopen(url)content = html.read()html.close()#可以通過print打印出網頁內容print content

很簡單,基本上沒有可說的,這個也就是python的魅力,幾行代碼就完成.
當然我們僅僅抓取網頁,沒有實在的價值.接下來我們就開始做一點有意義的事情.

2.小試牛刀
抓取百度貼吧圖片
其實也很簡單,因為要抓取圖片,還需要先分析一下網頁源代碼
(這里以知道基本html知識,瀏覽器以chrome為例)
如圖,這里簡要說下步驟,請參考.

打開網頁,右鍵點擊,選擇"inspect Element"(最下面這一項)
點擊下面彈起來的框框最左邊那個問號,問號會變成藍色
移動鼠標去點擊我們想要抓取的圖片(一個萌妹子)
如圖,我們就可以圖片在源碼中的位置了

使用Python的urllib和urllib2模塊制作爬蟲的實例教程

下面將源碼相關拷貝出來

<img class="BDE_Image" src="http://imgsrc.baidu.com/forum/w%3D580/sign=3d5aacaab21c8701d6b6b2ee177e9e6e/17a6d439b6003af329aece2e342ac65c1138b6d8.jpg" height="840" width="560" style="cursor: url(http://tb2.bdstatic.com/tb/static-pb/img/cur_zin.cur), pointer;">

經分析和對比(這里略掉),基本上可以看到要抓取的圖片幾個特征:

  • 在img標簽下
  • 在名為BDE_Image的類下面
  • 圖片格式為jpg

正則表達式后續我會更新,請關注

依照上述判斷,直接上代碼

'''@本程序用來下載百度貼吧圖片@re 為正則說明庫'''import urllibimport re# 獲取網頁html信息url = "http://tieba.baidu.com/p/2336739808"html = urllib.urlopen(url)content = html.read()html.close()# 通過正則匹配圖片特征,并獲取圖片鏈接img_tag = re.compile(r'class="BDE_Image" src="(.+?/.jpg)"')img_links = re.findall(img_tag, content)# 下載圖片 img_counter為圖片計數器(文件名)img_counter = 0for img_link in img_links:  img_name = '%s.jpg' % img_counter  urllib.urlretrieve(img_link, "//Users//Sean//Downloads//tieba//%s" %img_name)  img_counter += 1

如圖,我們就抓取你懂的圖片

使用Python的urllib和urllib2模塊制作爬蟲的實例教程

3.總結
如上兩節,我們就很輕松的就可以網頁或者圖片.
補充一點小技巧,如果遇到不是很明白的庫或者方法,可以通過以下方法進行初步了解.

  • dir(urllib)                     #查看當前庫有哪些方法
  • help(urllib.urlretrieve)        #查看跟當前方法相關的作用或者參數,官方比較權威

或者https://docs.python.org/2/library/index.html進項相關搜索.

當然百度也可以,但是效率太低.建議使用 http://xie.lu 進行相關搜索(你懂了,絕對滿意).
這里我們講解如何抓取網頁和下載圖片,在下面我們會講解如何抓取有限制抓取的網站.

urllib2
上面我們講解如何抓取網頁和下載圖片,在下一節里面我們會講解如何抓取有限制抓取的網站
首先,我們依然用我們上一節課的方法去抓取一個大家都用來舉例的網站<blog.cndn.net>,本文主要分以下幾個部分:

  • 1.抓取受限網頁
  • 2.對代碼進行一些優化

1.抓取受限網頁

首先使用我們上一節學到的知識測試一下:

'''@本程序用來抓取blog.csdn.net網頁'''import urlliburl = "http://blog.csdn.net/FansUnion"html = urllib.urlopen(url)#getcode()方法為返回Http狀態碼print html.getcode()html.close()#輸出
403

此處我們的輸出為403,代表拒絕訪問;同理200表示請求成功完成;404表示網址未找到.
可見csdn已做了相關屏蔽,通過第一節的方法是無法獲取網頁,在這里我們需要啟動一個新的庫:urllib2
但是我們也看到瀏覽器可以發那個文,是不是我們模擬瀏覽器操作,就可以獲取網頁信息.
老辦法,我們先來看看瀏覽器是如何提交請求給csdn服務器的.首先簡述一下方法:

  • 打開網頁,右鍵點擊,選擇"inspect Element"(最下面這一項)
  • 點擊下面彈起來的框框的Network選項卡
  • 刷新網頁,就可以看到Network選項卡抓取了很多信息
  • 找到其中一個信息展開,就能看到請求包的Header

使用Python的urllib和urllib2模塊制作爬蟲的實例教程

以下就是整理后的Header信息

Request Method:GETHost:blog.csdn.netReferer:http://blog.csdn.net/?ref=toolbar_logoUser-Agent:Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.104 Safari/537.36

然后根據提取的Header信息,利用urllib2的Request方法模擬瀏覽器向服務器提交請求,代碼如下:

# coding=utf-8'''@本程序用來抓取受限網頁(blog.csdn.net)@User-Agent:客戶端瀏覽器版本@Host:服務器地址@Referer:跳轉地址@GET:請求方法為GET'''import urllib2url = "http://blog.csdn.net/FansUnion"#定制自定義Header,模擬瀏覽器向服務器提交請求req = urllib2.Request(url)req.add_header('User-Agent', 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36')req.add_header('Host', 'blog.csdn.net')req.add_header('Referer', 'http://blog.csdn.net')req.add_header('GET', url)#下載網頁html并打印html = urllib2.urlopen(req)content = html.read()print contenthtml.close()

呵呵,你限制我,我就跳過你的限制.據說只要瀏覽器能夠訪問的,就能夠通過爬蟲抓取.

2.對代碼進行一些優化
簡化提交Header方法
發現每次寫那么多req.add_header對自己來說是一種折磨,有沒有什么方法可以只要復制過來就使用.答案是肯定的.

#input:help(urllib2.Request)#output(因篇幅關系,只取__init__方法)__init__(self, url, data=None, headers={}, origin_req_host=None, unverifiable=False)通過觀察,我們發現headers={},就是說可以以字典的方式提交header信息.那就動手試試咯!!#只取自定義Header部分代碼csdn_headers = {  "User-Agent": "Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/39.0.2171.95 Safari/537.36",  "Host": "blog.csdn.net",  'Referer': 'http://blog.csdn.net',  "GET": url  }req = urllib2.Request(url,headers=csdn_headers)

發現是不是很簡單,在這里感謝斯巴達的無私賜教.

提供動態頭部信息
如果按照上述方法進行抓取,很多時候會因為提交信息過于單一,被服務器認為是機器爬蟲進行拒絕.
那我們是不是有一些更為智能的方法提交一些動態的數據,答案肯定也是肯定的.而且很簡單,直接上代碼!

'''@本程序是用來動態提交Header信息@random 動態庫,詳情請參考<https://docs.python.org/2/library/random.html>'''# coding=utf-8import urllib2import randomurl = 'http://www.lifevc.com/'my_headers = [  'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0; .NET CLR 2.0.50727; .NET CLR 3.0.04506.30; .NET CLR 3.0.04506.648)',  'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0; .NET CLR 2.0.50727; InfoPath.1',  'Mozilla/4.0 (compatible; GoogleToolbar 5.0.2124.2070; Windows 6.0; MSIE 8.0.6001.18241)',  'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0)',  'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0; Sleipnir/2.9.8)',  #因篇幅關系,此處省略N條]random_header = random.choice(headers)# 可以通過print random_header查看提交的header信息req = urllib2.Request(url)req.add_header("User-Agent", random_header)req.add_header('Host', 'blog.csdn.net')req.add_header('Referer', 'http://blog.csdn.net')req.add_header('GET', url)content = urllib2.urlopen(req).read()print content

其實很簡單,這樣我們就完成了對代碼的一些優化.


發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
亚洲香蕉成人av网站在线观看_欧美精品成人91久久久久久久_久久久久久久久久久亚洲_热久久视久久精品18亚洲精品_国产精自产拍久久久久久_亚洲色图国产精品_91精品国产网站_中文字幕欧美日韩精品_国产精品久久久久久亚洲调教_国产精品久久一区_性夜试看影院91社区_97在线观看视频国产_68精品久久久久久欧美_欧美精品在线观看_国产精品一区二区久久精品_欧美老女人bb
久久在线免费观看视频| 98午夜经典影视| 色偷偷噜噜噜亚洲男人| 亚洲精品在线不卡| 欧美裸体男粗大视频在线观看| 国产在线观看精品一区二区三区| 国产精品网址在线| 国产精品小说在线| 精品毛片网大全| 久久精品国产一区二区三区| 亚洲激情久久久| 精品久久久久久久中文字幕| 欧美日韩国产综合新一区| 久久精品99久久香蕉国产色戒| 亚洲成人精品在线| 日本精品一区二区三区在线| 国产精品欧美激情| 久久久久国产一区二区三区| 国产精品美女在线观看| 国内精品视频久久| 色婷婷综合久久久久| 成人中文字幕+乱码+中文字幕| 国产精品久久久久久久久久免费| 伊人久久精品视频| 国产精品久久久久秋霞鲁丝| 久久久久女教师免费一区| 亚洲精品美女视频| 精品av在线播放| 久久精品青青大伊人av| 亚洲欧美日韩精品久久奇米色影视| 欧美极品在线播放| 91日本在线视频| 狠狠爱在线视频一区| 亚洲精品久久久久中文字幕二区| 成人有码视频在线播放| 91在线高清视频| 热久久视久久精品18亚洲精品| 免费不卡欧美自拍视频| 亚洲白虎美女被爆操| 日韩欧美成人免费视频| 亚洲人永久免费| 91视频国产高清| 亚洲sss综合天堂久久| 亚洲福利视频二区| 亚洲va欧美va国产综合剧情| 亚洲人成在线观看网站高清| 成人精品视频在线| 国产91在线高潮白浆在线观看| 超碰精品一区二区三区乱码| 欧美丰满少妇xxxx| 亚洲影视九九影院在线观看| 欧美重口另类videos人妖| 欧美性在线观看| 91久久精品久久国产性色也91| 欧美日韩在线影院| 午夜精品一区二区三区在线视频| 国产不卡视频在线| 欧美日韩第一视频| 久久影院中文字幕| 国内揄拍国内精品少妇国语| 97色在线视频| 91欧美视频网站| 国产成人精品在线播放| 超薄丝袜一区二区| 国产精品私拍pans大尺度在线| 91免费看片在线| 欧美激情图片区| 日本人成精品视频在线| 日韩黄色高清视频| 大荫蒂欧美视频另类xxxx| 日韩极品精品视频免费观看| 91黑丝高跟在线| 久热精品视频在线观看| 啊v视频在线一区二区三区| 欧美激情视频免费观看| 国产视频精品免费播放| 91探花福利精品国产自产在线| 日韩av在线不卡| 亚洲国产日韩欧美综合久久| 亚洲国产精品久久| 欧美日韩亚洲天堂| 国产美女久久久| 91av福利视频| 亚洲国产91精品在线观看| 亚洲高清福利视频| 欧美日韩电影在线观看| 国产999在线观看| 中文日韩电影网站| 久久成人这里只有精品| 欧美亚洲视频在线看网址| 欧美日韩国产成人在线| 欧美成人精品激情在线观看| 成人免费网视频| 少妇高潮 亚洲精品| 亚洲精品98久久久久久中文字幕| 亚洲精品ady| 久久久久久欧美| 国产精品久久婷婷六月丁香| 午夜精品99久久免费| 成人网在线观看| 日韩视频第一页| 国产精品久久久久久亚洲调教| 国产精品中文字幕在线观看| 国产精品久久久久久一区二区| 国产精品你懂得| 日韩国产高清视频在线| 日本精品一区二区三区在线| 日韩美女在线观看| 91精品视频在线| 色综合伊人色综合网| 欧美福利在线观看| 亚洲精品福利在线| 777午夜精品福利在线观看| 亚洲免费一级电影| 都市激情亚洲色图| 亚洲最大福利视频网| 国产日产久久高清欧美一区| 欧美电影在线观看完整版| 国产一区二区美女视频| 久久人人爽人人爽人人片av高清| 日韩成人免费视频| 久久国产精品久久精品| 欧美亚洲另类激情另类| 九九热这里只有精品免费看| 欧美日韩一区二区三区| 一区二区三区 在线观看视| 91精品国产色综合| 欧美高清视频在线播放| 欧美视频免费在线观看| 日韩欧美视频一区二区三区| 午夜精品一区二区三区av| 日韩欧美在线国产| 亚洲成人av片| 日韩美女中文字幕| 秋霞av国产精品一区| 日韩电影中文字幕av| 91夜夜未满十八勿入爽爽影院| 欧美亚洲在线播放| 欧美午夜xxx| 91精品国产亚洲| 国产精品wwwwww| 国产精品视频一区二区三区四| 国产精品91视频| 欧美亚洲成人精品| 深夜福利国产精品| 色婷婷久久av| 91欧美精品成人综合在线观看| 国产欧美精品va在线观看| 国产欧美一区二区三区久久人妖| 日韩男女性生活视频| 欧美电影在线观看高清| 精品久久久久久亚洲精品| 久久精品99无色码中文字幕| 国产精品草莓在线免费观看| 不卡中文字幕av| 91在线免费网站| 全亚洲最色的网站在线观看| 精品国产一区二区三区久久狼黑人| 日韩在线不卡视频| 亚洲男女性事视频| 91久久精品国产91久久| 亚洲欧美国产va在线影院| 亚洲欧美日韩在线高清直播| 久久91精品国产91久久久|