国产睡熟迷奷白丝护士系列精品,中文色字幕网站,免费h网站在线观看的,亚洲开心激情在线

      <sup id="hb9fh"></sup>
          1. 千鋒教育-做有情懷、有良心、有品質的職業(yè)教育機構

            手機站
            千鋒教育

            千鋒學習站 | 隨時隨地免費學

            千鋒教育

            掃一掃進入千鋒手機站

            領取全套視頻
            千鋒教育

            關注千鋒學習站小程序
            隨時隨地免費學習課程

            當前位置:首頁  >  技術干貨  > Scrapy與Selenium完美結合獲取小紅書漲粉榜單

            Scrapy與Selenium完美結合獲取小紅書漲粉榜單

            來源:千鋒教育
            發(fā)布人:wjy
            時間: 2022-06-07 09:51:00 1654566660

              Scrapy框架與Selenium我們前面都介紹過,本次給大家分享的是兩者如何配合使用。

              本次我們獲取千瓜的數據:http://www.qian-gua.com/rank/category/

            Scrapy與Selenium完美結合獲取小紅書漲粉榜單111

             

              不好意思!接下來這個頁面你會很郁悶!

            Scrapy與Selenium完美結合獲取小紅書漲粉榜單133

             

              我們想獲取更多的日榜達人的數據怎么操作?借助selenium哦!為了獲取更多我們結合Scrapy完成此次的爬蟲任務。

              任務要求:

              Python3環(huán)境

              Scrapy框架

              Selenium 可以參照https://selenium-python-zh.readthedocs.io/en/latest/

              谷歌瀏覽器+ChromeDriver

              ChromeDriver的下載地址:https://chromedriver.storage.googleapis.com/index.html

              首先我們創(chuàng)建項目:scrapy startproject qiangua_spider

              然后進入qiangua_spider目錄下,執(zhí)行:scrapy genspider qiangua qian-gua.com

              在Pycharm中打開創(chuàng)建的項目,目錄結構如下:

            Scrapy與Selenium完美結合獲取小紅書漲粉榜單510

             

              修改settings.py文件ROBOTSTXT_OBEY 為 False

              編寫items.py文件內容如下:

            Scrapy與Selenium完美結合獲取小紅書漲粉榜單569

             

              代碼如下:

            import scrapy

            class QianguaSpiderItem(scrapy.Item):
                # define the fields for your item here like:
                name = scrapy.Field()
                level = scrapy.Field()
                fans = scrapy.Field()
                likeCollect = scrapy.Field()

              編寫spider.py爬蟲文件,如果不登陸我們是無法看的更多的小紅書達人們的賬號排行、漲粉等信息。如果想看的更多則需要登陸才可以。

              流程與思路:

              先進入http://www.qian-gua.com/rank/category/

              點擊右上角的登陸(此過程需要有千瓜的賬號才可以)

              有兩種登陸方式,我們可以選擇微信掃碼登陸,或者手機登陸(本案例采用手機登陸)

              獲取登陸的Cookies

              保存Cookies并訪問

              http://api.qian-gua.com/Rank/GetBloggerRank?pageSize=50&pageIndex=頁碼數&dateCode=20211104&period=1&originRankType=2&rankType=2&tagId=0&_=時間戳

              得到json數據并解析數據

              在上述的流程中1-4,我們都是結合selenium完成的。

              代碼如下

            import json
            import time
            import scrapy
            from selenium import webdriver
            from qiangua_spider.items import QianguaSpiderItem


            class QianguaSpider(scrapy.Spider):
                name = 'qiangua'
                allowed_domains = ['www.qian-gua.com']
                # start_urls = ['http://www.qian-gua.com/rank/category/']

                headers = {
                    'Origin': 'http://app.qian-gua.com',
                    'Host': 'api.qian-gua.com',
                    'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/14.1.2 Safari/605.1.15'
                }

                def start_requests(self):
                    driver = webdriver.Chrome()
                    url = 'http://www.qian-gua.com/rank/category/'
                    driver.get(url)
                    driver.implicitly_wait(5)
                    driver.find_element_by_xpath('//div[@class="loggin"]/a').click()
                    time.sleep(2)
                    driver.find_element_by_xpath('//div[@class="login-tab"]/span[2]').click()
                    driver.find_element_by_xpath('//input[@class="js-tel"]').send_keys('15010185644')
                    driver.find_element_by_xpath('//input[@class="js-pwd"]').send_keys('qiqining123')
                    driver.find_element_by_xpath('//button[@class="btn-primary js-login-tel-pwd"]').click()
                    time.sleep(2)
                    cookies = driver.get_cookies()
                    driver.close()

                    jsonCookies = json.dumps(cookies)  # 通過jsoncookies寫入文件
                    with open('qianguaCookies.json', 'w') as f:
                        f.write(jsonCookies)
                    print(cookies)
                    with open('qianguaCookies.json', 'r', encoding='utf-8') as f:
                        listcookies = json.loads(f.read())  # 獲取cookies

                    cookies_dict = dict()
                    for cookie in listcookies:
                        # 在保存成dict時,我們其實只要cookies中的namevalue,而domain等其他都可以不要
                        cookies_dict[cookie['name']] = cookie['value']
            # 更多的數據需要開通會員才可以,我們當前獲取了top30的數據
                    for page in range(1, 2):
                        t = time.time()
                        timestamp = str(t).replace(".", '')[:13]
                        data_url = "http://api.qian-gua.com/Rank/GetBloggerRank?pageSize=50&pageIndex=" + str(
                            page) + "&dateCode=20211104&period=1&originRankType=2&rankType=2&tagId=0&_=" + timestamp

                        yield scrapy.Request(url=data_url, cookies=cookies_dict, callback=self.parse, headers=self.headers)

                def parse(self, response):
                    rs = json.loads(response.text)
                    if rs.get('Msg')=='ok':
                        blogger_list = rs.get('Data').get("ItemList")
                        for blogger in blogger_list:
                            name = blogger.get('BloggerName')
                            level = blogger.get('LevelName','')
                            fans = blogger.get('Fans')
                            likeCollect = blogger.get('LikeCollectCount')
                            item = QianguaSpiderItem()
                            item['name'] = name
                            item['level'] = level
                            item['fans'] = fans
                            item['likeCollect'] = likeCollect
                            yield item

              最后我們添加pipelines.py保存解析的數據,我們是將數據保存到csv文件中

              代碼如下:

            import csv
            from itemadapter import ItemAdapter


            class QianguaSpiderPipeline:
                def __init__(self):
                    self.stream = open('blogger.csv', 'w', newline='', encoding='utf-8')
                    self.f = csv.writer(self.stream)

                def open_spider(self, spider):
                    print("爬蟲開始...")

                def process_item(self, item, spider):
                    data = [item.get('name'), item.get('level'), item.get('fans'), item.get('likeCollect')]
                    self.f.writerow(data)

                def close_spider(self, spider):
                    self.stream.close()
                    print('爬蟲結束!')

              務必記得將settings.py中pipelines部分的代碼注釋取消掉

            ITEM_PIPELINES = {
               'qiangua_spider.pipelines.QianguaSpiderPipeline': 300,
            }

              執(zhí)行爬蟲

              scrapy crawl qiangua

              結果很令我們滿意

            Scrapy與Selenium完美結合獲取小紅書漲粉榜單4773

             

            更多關于python培訓的問題,歡迎咨詢千鋒教育在線名師。千鋒教育擁有多年IT培訓服務經驗,采用全程面授高品質、高體驗培養(yǎng)模式,擁有國內一體化教學管理及學員服務,助力更多學員實現高薪夢想。

            tags:
            聲明:本站稿件版權均屬千鋒教育所有,未經許可不得擅自轉載。
            10年以上業(yè)內強師集結,手把手帶你蛻變精英
            請您保持通訊暢通,專屬學習老師24小時內將與您1V1溝通
            免費領取
            今日已有369人領取成功
            劉同學 138****2860 剛剛成功領取
            王同學 131****2015 剛剛成功領取
            張同學 133****4652 剛剛成功領取
            李同學 135****8607 剛剛成功領取
            楊同學 132****5667 剛剛成功領取
            岳同學 134****6652 剛剛成功領取
            梁同學 157****2950 剛剛成功領取
            劉同學 189****1015 剛剛成功領取
            張同學 155****4678 剛剛成功領取
            鄒同學 139****2907 剛剛成功領取
            董同學 138****2867 剛剛成功領取
            周同學 136****3602 剛剛成功領取
            相關推薦HOT