欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

Python爬蟲,使用BeautifulSoup解析頁面結果

Python爬蟲,使用BeautifulSoup可以輕松解析頁面結果,下面是使用該方法爬取boss頁面的職位信息:包括職位名稱、薪資、地點、公司名稱、公司融資情況等信息。通過這個示例可以輕松看到BeautifulSoup的使用方法。

成都網(wǎng)站建設哪家好,找成都創(chuàng)新互聯(lián)公司!專注于網(wǎng)頁設計、成都網(wǎng)站建設、微信開發(fā)、小程序制作、集團成都企業(yè)網(wǎng)站定制等服務項目。核心團隊均擁有互聯(lián)網(wǎng)行業(yè)多年經(jīng)驗,服務眾多知名企業(yè)客戶;涵蓋的客戶類型包括:成都濕噴機等眾多領域,積累了大量豐富的經(jīng)驗,同時也獲得了客戶的一致稱贊!

import requests
from bs4 import BeautifulSoup
from middlewares import get_random_proxy,get_random_agent
import time

class Boss_Spider(object):
    def __init__(self, page=3):
        self.proxies = []
        self.verify_pro = []
        self.page = page
        self.headers = {}

    #第一步:獲取首頁所有招聘連接
    def Parse_pre(self):
        base_url = 'https://www.zhipin.com/'
        headers = get_random_agent()
        proxy = get_random_proxy()
        time.sleep(1)
        resp = requests.get(base_url, headers=headers)
        if resp.status_code == 200:
            soup = BeautifulSoup(resp.text, 'lxml')
            for job_menu in soup.find_all(class_='menu-sub'):
                for li in job_menu.find_all('li'):
                    job_type = li.find('h5').get_text()
                    for job_list in li.find_all('a'):
                        job_sub = job_list.get_text()
                        job_uri = job_list['href']
                        for i in range(0,11):
                            job_url = base_url + job_uri + '?page=%d&ka=page-%d' %(i,i)
                            requests.get(job_url,headers=headers,proxies=proxy)
                            meta = {
                                'job_type': job_type,
                                'job_sub': job_sub,
                            }
                            self.Parse_index(meta=meta,url=job_url)
    #爬取具體頁數(shù)據(jù)
    def Parse_index(self,meta,url):
        headers = get_random_agent()
        proxy = get_random_proxy()
        time.sleep(1)
        resp = requests.get(url, headers=headers)
        if resp.status_code == 200:
            soup = BeautifulSoup(resp.text, 'lxml')
            print(soup)
            for li in soup.find(class_='job-list').find_all('li'):
                print('###########')
                position = li.find(class_='job-title').get_text()
                salary = li.find(class_='red').get_text()
                add = li.find('p').get_text()
                need = li.find('p').find('em').get_text()
                company_name = li.find(class_='company-text').find('a').get_text()
                tag = li.find(class_='company-text').find('p')
                print(position,"$$$",salary,"$$$",add,"$$$",need,"$$$",company_name,"$$$",tag)

if __name__ == '__main__':
    b = Boss_Spider()
    b.Parse_pre()

運行輸出結果如下:
后端開發(fā) $$$ 15-30K $$$ 北京 朝陽區(qū) 朝外3-5年本科 $$$ $$$ 米花互動 $$$ 游戲不需要融資20-99人
###########
后端開發(fā)工程師 $$$ 35-55K $$$ 北京 朝陽區(qū) 望京經(jīng)驗不限本科 $$$ $$$ 云賬戶 $$$ 移動互聯(lián)網(wǎng)C輪100-499人
###########

當前標題:Python爬蟲,使用BeautifulSoup解析頁面結果
轉載源于:http://aaarwkj.com/article28/iipdcp.html

成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站策劃、靜態(tài)網(wǎng)站網(wǎng)站建設、小程序開發(fā)商城網(wǎng)站、App設計

廣告

聲明:本網(wǎng)站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經(jīng)允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)

商城網(wǎng)站建設
亚洲成人免费电影91| 婷婷国产成人久久精品激情| 一区二区三区福利视频在线观看 | av中文字幕亚洲一区二区| 欧美a级黄片免费在线观看| 日韩精品中文字幕免费人妻| 亚洲欧美精品专区久久| 国产剧情av色诱女教师| 亚洲欧洲另类美女久久精品| 乱色精品熟女一区二区三区| 成人av影视中文字幕| 美女高潮呻吟免费观看久久久| 精品人妻一区二区在线99| 日韩不卡的在线视频| 国产丝袜肉丝在线播放| 美国一级黄片在线观看| 日韩欧美国产精品一区二区三区| 日韩高清在线亚洲专区不卡| 日韩亚洲中文一区三级黄片| 久久亚洲精品1区2区| 中文字幕乱码高清欧美日韩| 日韩一区二区三区91| 亚洲三级伦理中文字幕| 欧美一级特黄大片做受另类| 中出亚洲精品日韩在线视频 | 人人看男人的天堂东京| 天美传媒剧国产在线观看| 久久精品91久久久| 国产精品网站在线观看不卡| 国产美女冒白浆视频免费| 视频一区视频二区三区| 少妇高潮一区二区三区99| 亚洲日本韩国三级一区| 亚洲男人天堂超碰在线| 国产经典午夜福利在线| 91麻豆精品国产久久久| 日韩一级久久精品理论| 成人综合影视中文字幕| 免费精品一区二区三区欧美| 午夜少妇诱惑一区二区三区| 人妻中出中文字幕一区二区|