欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

Python爬蟲,使用BeautifulSoup解析頁面結果

Python爬蟲,使用BeautifulSoup可以輕松解析頁面結果,下面是使用該方法爬取boss頁面的職位信息:包括職位名稱、薪資、地點、公司名稱、公司融資情況等信息。通過這個示例可以輕松看到BeautifulSoup的使用方法。

成都網(wǎng)站建設哪家好,找成都創(chuàng)新互聯(lián)公司!專注于網(wǎng)頁設計、成都網(wǎng)站建設、微信開發(fā)、小程序制作、集團成都企業(yè)網(wǎng)站定制等服務項目。核心團隊均擁有互聯(lián)網(wǎng)行業(yè)多年經(jīng)驗,服務眾多知名企業(yè)客戶;涵蓋的客戶類型包括:成都濕噴機等眾多領域,積累了大量豐富的經(jīng)驗,同時也獲得了客戶的一致稱贊!

import requests
from bs4 import BeautifulSoup
from middlewares import get_random_proxy,get_random_agent
import time

class Boss_Spider(object):
    def __init__(self, page=3):
        self.proxies = []
        self.verify_pro = []
        self.page = page
        self.headers = {}

    #第一步:獲取首頁所有招聘連接
    def Parse_pre(self):
        base_url = 'https://www.zhipin.com/'
        headers = get_random_agent()
        proxy = get_random_proxy()
        time.sleep(1)
        resp = requests.get(base_url, headers=headers)
        if resp.status_code == 200:
            soup = BeautifulSoup(resp.text, 'lxml')
            for job_menu in soup.find_all(class_='menu-sub'):
                for li in job_menu.find_all('li'):
                    job_type = li.find('h5').get_text()
                    for job_list in li.find_all('a'):
                        job_sub = job_list.get_text()
                        job_uri = job_list['href']
                        for i in range(0,11):
                            job_url = base_url + job_uri + '?page=%d&ka=page-%d' %(i,i)
                            requests.get(job_url,headers=headers,proxies=proxy)
                            meta = {
                                'job_type': job_type,
                                'job_sub': job_sub,
                            }
                            self.Parse_index(meta=meta,url=job_url)
    #爬取具體頁數(shù)據(jù)
    def Parse_index(self,meta,url):
        headers = get_random_agent()
        proxy = get_random_proxy()
        time.sleep(1)
        resp = requests.get(url, headers=headers)
        if resp.status_code == 200:
            soup = BeautifulSoup(resp.text, 'lxml')
            print(soup)
            for li in soup.find(class_='job-list').find_all('li'):
                print('###########')
                position = li.find(class_='job-title').get_text()
                salary = li.find(class_='red').get_text()
                add = li.find('p').get_text()
                need = li.find('p').find('em').get_text()
                company_name = li.find(class_='company-text').find('a').get_text()
                tag = li.find(class_='company-text').find('p')
                print(position,"$$$",salary,"$$$",add,"$$$",need,"$$$",company_name,"$$$",tag)

if __name__ == '__main__':
    b = Boss_Spider()
    b.Parse_pre()

運行輸出結果如下:
后端開發(fā) $$$ 15-30K $$$ 北京 朝陽區(qū) 朝外3-5年本科 $$$ $$$ 米花互動 $$$ 游戲不需要融資20-99人
###########
后端開發(fā)工程師 $$$ 35-55K $$$ 北京 朝陽區(qū) 望京經(jīng)驗不限本科 $$$ $$$ 云賬戶 $$$ 移動互聯(lián)網(wǎng)C輪100-499人
###########

當前標題:Python爬蟲,使用BeautifulSoup解析頁面結果
轉載源于:http://aaarwkj.com/article28/iipdcp.html

成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站策劃、靜態(tài)網(wǎng)站網(wǎng)站建設、小程序開發(fā)商城網(wǎng)站、App設計

廣告

聲明:本網(wǎng)站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經(jīng)允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)

商城網(wǎng)站建設
尤物在线免费观看视频| 欧美大片黄片在线观看| 一区二区三区视频观看在线| 91精品中综合久久久久| 国产精品亚洲在钱视频| 日韩av熟女中文字幕| 欧美亚洲精品在线观看| 日本韩国三级理伦久久久| 三级视频一区二区三区| 青青草原在线影视一区| 国产熟女真实乱精品视频| 少妇午夜福利一区二区| 国产又粗又爽视频免费| 亚洲午夜经典一区二区日韩| 国产精品呦呦国产精品尤物| 欧美大片免费在线播放| 亚洲精品欧美综合二区| 国产三级尤物在线观看| 久久久人妻91久久久久| 一区二区三区熟妇人妻视频| 激情啪啪啪的免费网站| 国产一区二区黄色录像| 男女午夜激情四射视频| 国产亚洲精品美女视频| 日本午夜精品在线观看| 久久久国产精品视频网站| 亚洲一区二区三区av电影| 国产精品一区二区三区播放| 亚洲激情一区在线观看| 亚洲福利网址一二三区| 精品一区精品二区国产日韩| 这里只有精品国产999| 日韩中文字幕视频一区| 日韩精品视频一区二区在线观看 | 日本av一区二区在线| 国产精品国产三级国产专播| 91九色视频免费观看| 粗长挺进新婚人妻诗岚| 伦理中文字幕一区二区| 午夜激情在线观看网页| 超碰免费在线公开97|