欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

基于Python爬取愛奇藝資源過程解析-創(chuàng)新互聯(lián)

像iqiyi這種視頻網(wǎng)站,現(xiàn)在下載視頻都需要下載相應(yīng)的客戶端。那么如何不用下載客戶端,直接下載非vip視頻?

創(chuàng)新互聯(lián)專業(yè)為企業(yè)提供啟東網(wǎng)站建設(shè)、啟東做網(wǎng)站、啟東網(wǎng)站設(shè)計、啟東網(wǎng)站制作等企業(yè)網(wǎng)站建設(shè)、網(wǎng)頁設(shè)計與制作、啟東企業(yè)網(wǎng)站模板建站服務(wù),十余年啟東做網(wǎng)站經(jīng)驗,不只是建網(wǎng)站,更提供有價值的思路和整體網(wǎng)絡(luò)服務(wù)。

選擇你想要爬取的內(nèi)容

該安裝的程序以及運行環(huán)境都配置好

下面這段代碼就是我在愛奇藝里搜素“英文名”,然后出來的視頻,共有20頁,那么我們便從第一頁開始,解析網(wǎng)頁,然后分析

分析每一頁網(wǎng)址,找出規(guī)律就可以直接得到所有頁面

然后根據(jù)每一個視頻的URL的標(biāo)簽,如'class' 'div' 'href'......通過bs4庫進行爬取

而其他的信息則是直接循環(huán)所爬取到的URL,在每一個里再通過標(biāo)簽去找

import requests
import pandas as pd
from bs4 import BeautifulSoup

#爬取URL 
headers={'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.79 Safari/537.36'}
b=[]
for i in range(1,2):
  url="https://so.iqiyi.com/so/q_英文名_ctg_t_0_page_"+str(i)+"_p_1_qc_0_rd__site__m_1_bitrate_"  #共20頁,根據(jù)每頁的網(wǎng)址變換規(guī)律進行拼接
  r=requests.get(url,headers=headers)  
  soup=BeautifulSoup(r.text,"html.parser")
  a=soup.findAll('a',{'class':'main-tit'}) 
  for i in a:
    if 'http://www.'in i.get('href')and 'html'in i.get('href'):
      b.append(i.get('href'))
print(b)


#爬取標(biāo)題
e=[]
for k in b:
  res=requests.get(k,headers=headers)
  Soup=BeautifulSoup(res.text,'html.parser')
  c=Soup.findAll('div',{'class':'feed-title-box'})
  for d in c:
    e.append(d.find('h2').text) 
print(e)

#爬取標(biāo)題下方描述
f=[]
for j in b:
  res=requests.get(j,headers=headers)
  Soup=BeautifulSoup(res.text,'html.parser')
  c=Soup.findAll('div',{'class':'qy-play-intro-feed'})
  for d in c:
    f.append(d.find('p',{'class':"intro-iterm__block"}).text)
print(f)


#爬取發(fā)布時間
h=[]
for j in b:
  res=requests.get(j,headers=headers)
  Soup=BeautifulSoup(res.text,'html.parser')
  c=Soup.findAll('div',{'class':'intro-iterm'})
  for d in c:
    ff=(d.find('span',{'class':"intro-iterm__txt"}))
    if ff==None:
      continue
  h.append(ff.text)
print(h)

# 爬取上傳作者
m=[]
for k in b:
  res=requests.get(k,headers=headers)
  Soup=BeautifulSoup(res.text,'html.parser')
  c=Soup.find('div',{'id':'block-P'})
  d=Soup.find('div',{'class':'qy-player-maker'})
  try:
    name=c.get(':uploader').split(',')[1].split(':')[1].replace('"','')#輸出是字符串的格式,所以用split切割。replace替換
  except:
    try:
      name=d.get(':uploader').split(',')[1].split(':')[1].replace('"','')
    except:
      m.append("匿名用戶")
  m.append(name)
print(m)

文章題目:基于Python爬取愛奇藝資源過程解析-創(chuàng)新互聯(lián)
路徑分享:http://aaarwkj.com/article20/deoico.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供響應(yīng)式網(wǎng)站、移動網(wǎng)站建設(shè)、商城網(wǎng)站、動態(tài)網(wǎng)站自適應(yīng)網(wǎng)站、外貿(mào)建站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

手機網(wǎng)站建設(shè)
亚洲熟女内射特写一区| 乱色精品熟女一区二区三区| 国产精品一区在线播放| 九九视频精品免费高清视频| 亚洲午夜一区二区精品| 欧美久久久久综合一区| 欧美另类精品一区二区| 国产成人综合亚洲不卡| 国产91九色视频在线| 欧美艳星一区二区三区四区| 国产a级一区二区三区| 欧美+亚洲+精品+三区| 欧美熟妇精品一区二区蜜桃| 久久久久久亚洲精品少妇| 日韩a国产v亚洲欧美精品| 国产原创中文剧情性感av| 日韩有码大片最新自拍| 6080yy精品一区二区三区| 日韩中文字幕在线乱码| 夫妻性生活免费看视频| 99久久久久国产精品免费| 我的农村中年激情熟妇| 午夜视频在线观看麻豆| 狠狠综合久久av一区二区大宝| 中国的性生活黄片免费观看| 熟妇丰满多毛的大阴户| 天天操夜夜操夜夜操| 亚洲精品一区国产精品av| 日本高清免费中文字幕| 国内一级片内射视频播放| 欧美性做爰片免费视频网| 欧美日韩三级国产在线| 成人中文字幕av电影| 日韩欧美亚洲制服丝袜| 国产精品久久123区| 日本熟妇中文字幕系列| 国产一区二区三区免费有码视频| 丝袜在线美腿视频网站| 91九色精品视频在线观看| 婷婷网色偷偷亚洲男人| 亚洲中少妇久久中文字幕|