這期內(nèi)容當(dāng)中小編將會(huì)給大家?guī)?lái)有關(guān)利用requests庫(kù)怎么制作一個(gè)Python爬蟲,文章內(nèi)容豐富且以專業(yè)的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。
#!/usr/local/env python # coding:utf-8 import requests #下面開始介紹requests的使用,環(huán)境語(yǔ)言是python3,使用下面的網(wǎng)址作為參考 #http://www.sse.com.cn/market/bonddata/data/tb/ request_param = {'jsonCallBack': 'jsonpCallback6588', 'isPagination': 'true', 'sqlId': 'COMMON_BOND_XXPL_ZQXX_L', 'BONDTYPE': '地×××府債券', 'pageHelp.pageSize': '25', 'pageHelp.pageNo': '2', 'pageHelp.beginPage': '2', 'pageHelp.cacheSize': '1', 'pageHelp.endPage': '21'} user_agent = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.146 Safari/537.36' referer = 'http://www.sse.com.cn/market/bonddata/data/ltb/' #設(shè)置headers headers = {'User-Agent': user_agent, 'Referer': referer} #設(shè)置代理 proxy = { "http":"http://113.214.13.1:8000" } # 需要請(qǐng)求的URL地址 request_url = 'http://query.sse.com.cn/commonQuery.do?' #設(shè)置請(qǐng)求地址 response = requests.get(request_url, headers=headers, proxies=proxy, params=request_param); print(response.status_code) #文本響應(yīng)內(nèi)容 print(response.text) #json格式響應(yīng)內(nèi)容 print(response.json()) #二進(jìn)制響應(yīng)內(nèi)容 print(response.content) #原始格式 print(response.raw)
上述就是小編為大家分享的利用requests庫(kù)怎么制作一個(gè)Python爬蟲了,如果剛好有類似的疑惑,不妨參照上述分析進(jìn)行理解。如果想知道更多相關(guān)知識(shí),歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。
新聞名稱:利用requests庫(kù)怎么制作一個(gè)Python爬蟲-創(chuàng)新互聯(lián)
網(wǎng)站路徑:http://aaarwkj.com/article0/gosoo.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站排名、全網(wǎng)營(yíng)銷推廣、微信公眾號(hào)、做網(wǎng)站、建站公司、云服務(wù)器
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容