--安裝爬蟲(chóng)需要的庫(kù)
C:\python37>pip install requests
Collecting requests
Downloading https://files.pythonhosted.org/packages/7d/e3/20f...84b/requests-2.21.0-py2.py3-none-any.whl (57kB)
100% |████████████████████████████████| 61kB 225kB/s
Collecting urllib3<1.25,>=1.21.1 (from requests)
Downloading https://files.pythonhosted.org/packages/62/00/ee1...79e/urllib3-1.24.1-py2.py3-none-any.whl (118kB)
100% |████████████████████████████████| 122kB 585kB/s
Collecting idna<2.9,>=2.5 (from requests)
Downloading https://files.pythonhosted.org/packages/14/2c/cd55...4c9/idna-2.8-py2.py3-none-any.whl (58kB)
100% |████████████████████████████████| 61kB 1.3MB/s
Collecting chardet<3.1.0,>=3.0.2 (from requests)
Downloading https://files.pythonhosted.org/packages/bc/a9/01ffe...b8/chardet-3.0.4-py2.py3-none-any.whl (133kB)
100% |████████████████████████████████| 143kB 267kB/s
Collecting certifi>=2017.4.17 (from requests)
Downloading https://files.pythonhosted.org/packages/9f/e0/ac...e8a/certifi-2018.11.29-py2.py3-none-any.whl (154kB)
100% |████████████████████████████████| 163kB 273kB/s
Installing collected packages: urllib3, idna, chardet, certifi, requests
Successfully installed certifi-2018.11.29 chardet-3.0.4 idna-2.8 requests-2.21.0 urllib3-1.24.1
什么是Urllib
Python內(nèi)置的Http請(qǐng)求庫(kù)
urllib.request 請(qǐng)求模塊 模擬瀏覽器
urllib.error 異常處理模塊
urllib.parse url解析模塊 工具模塊,如:拆分、合并
urllib.robotparser robots.txt 解析模塊
urllib是Python自帶的標(biāo)準(zhǔn)庫(kù),無(wú)需安裝,直接可以用。
提供了如下功能:
網(wǎng)頁(yè)請(qǐng)求
響應(yīng)獲取
代理和cookie設(shè)置
異常處理
URL解析
爬蟲(chóng)所需要的功能,基本上在urllib中都能找到,學(xué)習(xí)這個(gè)標(biāo)準(zhǔn)庫(kù),可以更加深入的理解后面更加便利的requests庫(kù)。
2和3的區(qū)別
Python2
import urllib2
response = urllib2.urlopen('http://www.baidu.com');
Python3
import urllib.request
response =urllib.request.urlopen('http://www.baidu.com');
用法:
urlOpen 發(fā)送請(qǐng)求給服務(wù)器。
urllib.request.urlopen(url,data=None[參數(shù)],[timeout,]*,cafile=None,capath=None,cadefault=false,context=None)
例子:
import urllib.requests
response=urllib.reqeust.urlopen('http://www.baidu.com')
print(response.read().decode('utf-8'))
創(chuàng)新互聯(lián)專注于寧陜網(wǎng)站建設(shè)服務(wù)及定制,我們擁有豐富的企業(yè)做網(wǎng)站經(jīng)驗(yàn)。 熱誠(chéng)為您提供寧陜營(yíng)銷型網(wǎng)站建設(shè),寧陜網(wǎng)站制作、寧陜網(wǎng)頁(yè)設(shè)計(jì)、寧陜網(wǎng)站官網(wǎng)定制、小程序定制開(kāi)發(fā)服務(wù),打造寧陜網(wǎng)絡(luò)公司原創(chuàng)品牌,更為您提供寧陜網(wǎng)站排名全網(wǎng)營(yíng)銷落地服務(wù)。
文章名稱:Python爬蟲(chóng)
當(dāng)前地址:http://aaarwkj.com/article48/iijoep.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供動(dòng)態(tài)網(wǎng)站、虛擬主機(jī)、軟件開(kāi)發(fā)、微信公眾號(hào)、App設(shè)計(jì)、電子商務(wù)
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)