學Python,想必大家都是從爬蟲開始的吧。畢竟網上類似的資源很豐富,開源項目也非常多。
Python學習網絡爬蟲主要分3個大的版塊:抓取,分析,存儲
當我們在瀏覽器中輸入一個url后回車,后臺會發生什么?
簡單來說這段過程發生了以下四個步驟:
網絡爬蟲要做的,簡單來說,就是實現瀏覽器的功能。通過指定url,直接返回給用戶所需要的數據,而不需要一步步人工去操縱瀏覽器獲取。
抓取這一步,你要明確要得到的內容是什么?是HTML源碼,還是Json格式的字符串等。將得到內容逐一解析就好。具體的如何解析,以及如何處理數據,文章后面提供了非常詳細的且功能強大的開源庫列表。
當然了,爬去別人家的數據,很有可能會遭遇反爬蟲機制的,怎么辦?使用代理。
適用情況:限制IP地址情況,也可解決由于“頻繁點擊”而需要輸入驗證碼登陸的情況。
這種情況最好的辦法就是維護一個代理IP池,網上有很多免費的代理IP,良莠不齊,可以通過篩選找到能用的。
對于“頻繁點擊”的情況,我們還可以通過限制爬蟲訪問網站的頻率來避免被網站禁掉。
有些網站會檢查你是不是真的瀏覽器訪問,還是機器自動訪問的。這種情況,加上User-Agent,表明你是瀏覽器訪問即可。有時還會檢查是否帶Referer信息還會檢查你的Referer是否合法,一般再加上Referer。也就是偽裝成瀏覽器,或者反“反盜鏈”。
對于網站有驗證碼的情況,我們有三種辦法:
使用代理,更新IP。
使用cookie登陸。
驗證碼識別。
接下來我們重點聊聊驗證碼識別。這個python q-u-n 227--435---450就是小編期待大家一起交流討論,各種入門資料啊,進階資料啊,框架資料啊 免費領取
可以利用開源的Tesseract-OCR系統進行驗證碼圖片的下載及識別,將識別的字符傳到爬蟲系統進行模擬登陸。當然也可以將驗證碼圖片上傳到打碼平臺上進行識別。如果不成功,可以再次更新驗證碼識別,直到成功為止。
好了,爬蟲就簡單聊到這兒,有興趣的朋友可以去網上搜索更詳細的內容。
文末附上本文重點:實用Python庫大全。
網絡
urllib -網絡庫(stdlib)。
requests -網絡庫。
grab – 網絡庫(基于pycurl)。
pycurl – 網絡庫(綁定libcurl)。
urllib3 – Python HTTP庫,安全連接池、支持文件post、可用性高。
httplib2 – 網絡庫。
RoboBrowser – 一個簡單的、極具Python風格的Python庫,無需獨立的瀏覽器即可瀏覽網頁。
新聞熱點
疑難解答