欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

怎么用python抓取百度貼吧內(nèi)容-創(chuàng)新互聯(lián)

本篇內(nèi)容介紹了“怎么用python抓取百度貼吧內(nèi)容”的有關(guān)知識(shí),在實(shí)際案例的操作過(guò)程中,不少人都會(huì)遇到這樣的困境,接下來(lái)就讓小編帶領(lǐng)大家學(xué)習(xí)一下如何處理這些情況吧!希望大家仔細(xì)閱讀,能夠?qū)W有所成!

創(chuàng)新互聯(lián)主要業(yè)務(wù)有網(wǎng)站營(yíng)銷(xiāo)策劃、成都網(wǎng)站建設(shè)、網(wǎng)站設(shè)計(jì)、微信公眾號(hào)開(kāi)發(fā)、微信小程序開(kāi)發(fā)、H5網(wǎng)站設(shè)計(jì)、程序開(kāi)發(fā)等業(yè)務(wù)。一次合作終身朋友,是我們奉行的宗旨;我們不僅僅把客戶(hù)當(dāng)客戶(hù),還把客戶(hù)視為我們的合作伙伴,在開(kāi)展業(yè)務(wù)的過(guò)程中,公司還積累了豐富的行業(yè)經(jīng)驗(yàn)、全網(wǎng)營(yíng)銷(xiāo)推廣資源和合作伙伴關(guān)系資源,并逐漸建立起規(guī)范的客戶(hù)服務(wù)和保障體系。 

# -*- coding: utf-8
import urllib2
import urllib
import re,os
import time
import sys
reload(sys)
sys.setdefaultencoding('utf-8')

class Tiebar:
    #初始化數(shù)據(jù)
    def __init__(self,base_url,see_lz):
        self.base_url = base_url
        self.see_lz = '?see_lz=' + see_lz
        self.page = 1
        self.user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
        self.headers = { 'User-Agent' : self.user_agent }
        self.tool = Tool()
        self.out_put_file = 'd:/python/test/out.txt'
    #獲取頁(yè)面內(nèi)容的方法
    def get_cotent(self,page):
        try:
            url = self.base_url + self.see_lz + '&pn=' + str(page)
            request = urllib2.Request(url,headers=self.headers)
            response = urllib2.urlopen(request)
            act_url = response.geturl()
            print 'init url=',url,'act url=',act_url
            if url == act_url:
                content = response.read()
                return content
            else:
                return None
        except urllib2.URLError, e:
            if hasattr(e,"reason"):
                print u"連接貼吧頁(yè)面失敗,錯(cuò)誤原因",e.reason
                return None
    #獲取帖子主題
    def get_titile(self):
        content = self.get_cotent(1)
        pattern = re.compile('<h4 .*?>(.*?)</h4>')
        result = re.search(pattern,content)
        if result:
            return result.group(1).strip()
        else:
            return None
    #獲取帖子的頁(yè)數(shù)
    def get_page_num(self):
        content = self.get_cotent(1)
        pattern = re.compile('<li class="l_reply_num.*?.*?<span.*?>(.*?)',re.S)
        result = re.search(pattern,content)
        if result:
            return result.group(1).strip()
        else:
            return None
    #獲取帖子內(nèi)容
    def get_tiebar(self,page):
        content = self.get_cotent(page).decode('utf-8')
        str = ''
        if not content:
            print "抓取完畢"
            return None
        patt_content = re.compile('<a data-field=.*?class="p_author_name j_user_card".*?>(.*?)</a>.*?'
                    + '<div id=".*?" class="d_post_content j_d_post_content "> '
                    + '(.*?)',re.S)
        msg = re.findall(patt_content,content)
        for item in msg:
            str = str + '\n作者-----' + item[0] + '\n' + '帖子內(nèi)容-----' + item[1].strip() + '\n'
            str = self.tool.replace(str)
            # print u'作者',item[0],u'帖子內(nèi)容:',item[1]
        return str
    #寫(xiě)文件
    def writeStr2File(self,out_put_file,str1,append = 'a'):
        # 去掉文件,保留路徑。比如 'a/b/c/d.txt' 經(jīng)過(guò)下面代碼會(huì)變成 'a/b/c'
        subPath = out_put_file[:out_put_file.rfind('/')]
        # 如果給定的路徑中,文件夾不存在,則創(chuàng)建
        if not os.path.exists(subPath):
            os.makedirs(subPath)
        # 打開(kāi)文件并將 str 內(nèi)容寫(xiě)入給定的文件
        with open(out_put_file, append) as f:
            f.write(str1.strip()+'\n')


    def start_crawl(self):
        page_num = self.get_page_num()
        if page_num == None:
            print "url已失效,請(qǐng)重試!"
            return
        print u"該帖子共有" + str(page_num) + u"頁(yè)數(shù)據(jù)"
        for i in range(1,int(page_num)+1):
            print u"正在寫(xiě)入第" + str(i) + u"頁(yè)數(shù)據(jù)..."
            content = "正在寫(xiě)入第" + str(i) + u"頁(yè)數(shù)據(jù)------------------------------------\n" + self.get_tiebar(i)
            self.writeStr2File(self.out_put_file,content)


class Tool:
    #去除img標(biāo)簽
    patt_img = re.compile(r'<img.*?>')
    patt_herf = re.compile(r'<a.*?>|</a>')
    patt_br = re.compile(r'<br>{1,3}')


    def replace(self,content):
        content = re.sub(self.patt_img,"",content)
        content = re.sub(self.patt_herf,"",content)
        content = re.sub(self.patt_br,"\n",content)
        return content.strip()

tiebar = Tiebar('/tupian/20230522/error.html title = tiebar.get_titile()
# page_num = tiebar.get_page_num()
# print title,page_num
tiebar.start_crawl()

“怎么用python抓取百度貼吧內(nèi)容”的內(nèi)容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業(yè)相關(guān)的知識(shí)可以關(guān)注創(chuàng)新互聯(lián)-成都網(wǎng)站建設(shè)公司網(wǎng)站,小編將為大家輸出更多高質(zhì)量的實(shí)用文章!

新聞標(biāo)題:怎么用python抓取百度貼吧內(nèi)容-創(chuàng)新互聯(lián)
文章地址:http://aaarwkj.com/article30/gciso.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站排名、網(wǎng)站維護(hù)、電子商務(wù)App設(shè)計(jì)、品牌網(wǎng)站設(shè)計(jì)、外貿(mào)建站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶(hù)投稿、用戶(hù)轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀(guān)點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話(huà):028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)

網(wǎng)站優(yōu)化排名
欧美精品色精品免费观看| 成年人国产免费在线观看| av中文字幕乱码在线看| 变态另类日韩欧美高清| av免费在线不卡一区| 一区二区三区视频免费观看| 青青草原高清在线观看| 日韩欧美中文在线一区二区| 国产91白丝在线观看| 成熟人妻一区二区三区人妻| 五月激情开心久久婷婷| 国产高清自拍视频免费| 蜜桃视频中文字幕二区三区 | 最新日韩精品电影在线网| 亚洲欧美午夜不卡视频| 91精品免费播放在线观看| 国产中文精品字幕a区| 一本久久精品午夜福利| 91嫩草国产在线观看| 在线播放亚洲一区二区三区| 国产女人高潮流白丝视频| 人妻精品中文字幕一区二区在线| 国产在线视频不卡一线路| 国产精品五月婷婷六月丁香| 欧美日韩另类综合久久久| 激情综合色综合久久丁香| 91午夜福利偷拍视频| 日韩欧美啪啪一区二区| 日本免费91午夜视频| 日本精品a秘在线观看| 亚洲中文波霸中文字幕| 日韩av一区二区免费在线观看| 亚洲av日韩精品一区二区| 人妻日韩精品综合一二三四| 国产成人亚洲综合色影视| 十八禁在线观看点击进入| 五月婷婷六月丁香伊人网 | 日韩传媒在线观看视频| 色婷婷激情一区二区三区| 日本精品视频一区二区三区| 日韩精品在线免费观看了|