Python爬蟲(chóng)urllib和requests的區(qū)別詳解
我們講了requests的用法以及利用requests簡(jiǎn)單爬取、保存網(wǎng)頁(yè)的方法,這節(jié)課我們主要講urllib和requests的區(qū)別。
1、獲取網(wǎng)頁(yè)數(shù)據(jù)
第一步,引入模塊。
兩者引入的模塊是不一樣的,這一點(diǎn)顯而易見(jiàn)。

第二步,簡(jiǎn)單網(wǎng)頁(yè)發(fā)起的請(qǐng)求。
urllib是通過(guò)urlopen方法獲取數(shù)據(jù)。
requests需要通過(guò)網(wǎng)頁(yè)的響應(yīng)類(lèi)型獲取數(shù)據(jù)。

第三步,數(shù)據(jù)封裝。
對(duì)于復(fù)雜的數(shù)據(jù)請(qǐng)求,我們只是簡(jiǎn)單的通過(guò)urlopen方法肯定是不行的。最后,如果你的時(shí)間不是很緊張,并且又想快速的提高,最重要的是不怕吃苦,建議你可以聯(lián)系維:762459510 ,那個(gè)真的很不錯(cuò),很多人進(jìn)步都很快,需要你不怕吃苦哦!大家可以去添加上看一下~
urllib中,我們知道對(duì)于有反爬蟲(chóng)機(jī)制的網(wǎng)站,我們需要對(duì)URL進(jìn)行封裝,以獲取到數(shù)據(jù)。我們可以回顧下前幾節(jié)課的內(nèi)容:

requests模塊中,就不需要這么復(fù)雜的操作,直接在第二步中,加入?yún)?shù)headers即可:

2、解析網(wǎng)頁(yè)數(shù)據(jù)
urllib和requests都可以通過(guò)bs4和re進(jìn)行數(shù)據(jù)的解析,requests還可以通過(guò)xpath進(jìn)行解析。具體解析方法之后會(huì)詳解
3.保存數(shù)據(jù)
urllib需要引入xlwt模塊進(jìn)行新建表格、sheet表格寫(xiě)入數(shù)據(jù).最后,如果你的時(shí)間不是很緊張,并且又想快速的提高,最重要的是不怕吃苦,建議你可以聯(lián)系維:762459510 ,那個(gè)真的很不錯(cuò),很多人進(jìn)步都很快,需要你不怕吃苦哦!大家可以去添加上看一下~

requests通過(guò)with…as直接虛入數(shù)據(jù):

到此這篇關(guān)于Python爬蟲(chóng)urllib和requests的區(qū)別詳解的文章就介紹到這了,更多相關(guān)Python爬蟲(chóng)urllib和requests的區(qū)別內(nèi)容請(qǐng)搜索本站以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持本站!
版權(quán)聲明:本站文章來(lái)源標(biāo)注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請(qǐng)保持原文完整并注明來(lái)源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非maisonbaluchon.cn所屬的服務(wù)器上建立鏡像,否則將依法追究法律責(zé)任。本站部分內(nèi)容來(lái)源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來(lái),僅供學(xué)習(xí)參考,不代表本站立場(chǎng),如有內(nèi)容涉嫌侵權(quán),請(qǐng)聯(lián)系alex-e#qq.com處理。
關(guān)注官方微信