校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃

主頁 > 知識(shí)庫 > python實(shí)現(xiàn)Scrapy爬取網(wǎng)易新聞

python實(shí)現(xiàn)Scrapy爬取網(wǎng)易新聞

熱門標(biāo)簽:百應(yīng)ai電銷機(jī)器人鄭州 ai地圖標(biāo)注 女王谷地圖標(biāo)注 地圖標(biāo)注推廣單頁 廈門crm外呼系統(tǒng)如何 長(zhǎng)春人工智能電銷機(jī)器人官網(wǎng) n400電話申請(qǐng)多少錢 如何在地圖標(biāo)注文字 西藏快速地圖標(biāo)注地點(diǎn)

1. 新建項(xiàng)目

在命令行窗口下輸入scrapy startproject scrapytest, 如下


然后就自動(dòng)創(chuàng)建了相應(yīng)的文件,如下

2. 修改itmes.py文件

打開scrapy框架自動(dòng)創(chuàng)建的items.py文件,如下

# Define here the models for your scraped items
#
# See documentation in:
# https://docs.scrapy.org/en/latest/topics/items.html

import scrapy


class ScrapytestItem(scrapy.Item):
 # define the fields for your item here like:
 # name = scrapy.Field()
 pass

編寫里面的代碼,確定我要獲取的信息,比如新聞標(biāo)題,url,時(shí)間,來源,來源的url,新聞的內(nèi)容等

class ScrapytestItem(scrapy.Item):
 # define the fields for your item here like:
 # name = scrapy.Field()

 title = scrapy.Field()
 timestamp = scrapy.Field()
 category = scrapy.Field()
 content = scrapy.Field()
 url = scrapy.Field()
 
 pass

3. 定義spider,創(chuàng)建一個(gè)爬蟲模板

3.1 創(chuàng)建crawl爬蟲模板

在命令行窗口下面 創(chuàng)建一個(gè)crawl爬蟲模板(注意在文件的根目錄下面,指令檢查別輸入錯(cuò)誤,-t 表示使用后面的crawl模板),會(huì)在spider文件夾生成一個(gè)news163.py文件

scrapy genspider -t crawl codingce news.163.com

然后看一下這個(gè)‘crawl'模板和一般的模板有什么區(qū)別,多了鏈接提取器還有一些爬蟲規(guī)則,這樣就有利于我們做一些深度信息的爬取

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule


class CodingceSpider(CrawlSpider):
 name = 'codingce'
 allowed_domains = ['163.com']
 start_urls = ['http://news.163.com/']

 rules = (
  Rule(LinkExtractor(allow=r'Items/'), callback='parse_item', follow=True),
 )

 def parse_item(self, response):
  item = {}
  #item['domain_id'] = response.xpath('//input[@id="sid"]/@value').get()
  #item['name'] = response.xpath('//div[@id="name"]').get()
  #item['description'] = response.xpath('//div[@id="description"]').get()
  return item

3.2 補(bǔ)充知識(shí):selectors選擇器

支持xpath和css,xpath語法如下

/html/head/title

/html/head/title/text()

//td (深度提取的話就是兩個(gè)/)

//div[@class=‘mine']

3.3. 分析網(wǎng)頁內(nèi)容

在谷歌chrome瀏覽器下,打在網(wǎng)頁新聞的網(wǎng)站,選擇查看源代碼,確認(rèn)我們可以獲取到itmes.py文件的內(nèi)容(其實(shí)那里面的要獲取的就是查看了網(wǎng)頁源代碼之后確定可以獲取的)

確認(rèn)標(biāo)題、時(shí)間、url、來源url和內(nèi)容可以通過檢查和標(biāo)簽對(duì)應(yīng)上,比如正文部分

主體

標(biāo)題

時(shí)間

分類

4. 修改spider下創(chuàng)建的爬蟲文件

4.1 導(dǎo)入包

打開創(chuàng)建的爬蟲模板,進(jìn)行代碼的編寫,除了導(dǎo)入系統(tǒng)自動(dòng)創(chuàng)建的三個(gè)庫,我們還需要導(dǎo)入news.items(這里就涉及到了包的概念了,最開始說的–init–.py文件存在說明這個(gè)文件夾就是一個(gè)包可以直接導(dǎo)入,不需要安裝)

注意:使用的類ExampleSpider一定要繼承自CrawlSpider,因?yàn)樽铋_始我們創(chuàng)建的就是一個(gè)‘crawl'的爬蟲模板,對(duì)應(yīng)上

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from scrapytest.items import ScrapytestItem


class CodingceSpider(CrawlSpider):
 name = 'codingce'
 allowed_domains = ['163.com']

 start_urls = ['http://news.163.com/']

 rules = (
  Rule(LinkExtractor(allow=r'.*\.163\.com/\d{2}/\d{4}/\d{2}/.*\.html'), callback='parse', follow=True),
 )

 def parse(self, response):
  item = {}
  content = 'br>'.join(response.css('.post_content p::text').getall())
  if len(content)  100:
   return

  return item

Rule(LinkExtractor(allow=r'..163.com/\d{2}/\d{4}/\d{2}/..html'), callback=‘parse', follow=True), 其中第一個(gè)allow里面是書寫正則表達(dá)式的(也是我們核心要輸入的內(nèi)容),第二個(gè)是回調(diào)函數(shù),第三個(gè)表示是否允許深入

最終代碼

from datetime import datetime
import re

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from scrapytest.items import ScrapytestItem


class CodingceSpider(CrawlSpider):
 name = 'codingce'
 allowed_domains = ['163.com']

 start_urls = ['http://news.163.com/']

 rules = (
  Rule(LinkExtractor(allow=r'.*\.163\.com/\d{2}/\d{4}/\d{2}/.*\.html'), callback='parse', follow=True),
 )

 def parse(self, response):
  item = {}
  content = 'br>'.join(response.css('.post_content p::text').getall())
  if len(content)  100:
   return

  title = response.css('h1::text').get()

  category = response.css('.post_crumb a::text').getall()[-1]
  print(category, "=======category")
  time_text = response.css('.post_info::text').get()
  timestamp_text = re.search(r'\d{4}-\d{2}-\d{2} \d{2}:\d{2}:\d{2}', time_text).group()
  timestamp = datetime.fromisoformat(timestamp_text)
  print(title, "=========title")
  print(content, "===============content")
  print(timestamp, "==============timestamp")
  print(response.url)
  return item

到此這篇關(guān)于python實(shí)現(xiàn)Scrapy爬取網(wǎng)易新聞的文章就介紹到這了,更多相關(guān)python Scrapy爬取網(wǎng)易新聞內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Python爬蟲之教你利用Scrapy爬取圖片
  • python基于scrapy爬取京東筆記本電腦數(shù)據(jù)并進(jìn)行簡(jiǎn)單處理和分析
  • Scrapy+Selenium自動(dòng)獲取cookie爬取網(wǎng)易云音樂個(gè)人喜愛歌單
  • 如何在scrapy中集成selenium爬取網(wǎng)頁的方法
  • 使用scrapy ImagesPipeline爬取圖片資源的示例代碼
  • scrapy與selenium結(jié)合爬取數(shù)據(jù)(爬取動(dòng)態(tài)網(wǎng)站)的示例代碼
  • Python利用Scrapy框架爬取豆瓣電影示例
  • Python scrapy增量爬取實(shí)例及實(shí)現(xiàn)過程解析
  • Python爬蟲實(shí)戰(zhàn)之使用Scrapy爬取豆瓣圖片

標(biāo)簽:綿陽 廊坊 亳州 內(nèi)江 黔東 拉薩 興安盟 渭南

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《python實(shí)現(xiàn)Scrapy爬取網(wǎng)易新聞》,本文關(guān)鍵詞  python,實(shí)現(xiàn),Scrapy,爬取,網(wǎng)易,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《python實(shí)現(xiàn)Scrapy爬取網(wǎng)易新聞》相關(guān)的同類信息!
  • 本頁收集關(guān)于python實(shí)現(xiàn)Scrapy爬取網(wǎng)易新聞的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃
    亚洲电影第三页| 午夜伦欧美伦电影理论片| 久久欧美一区二区| 久久这里只有精品6| 国产色婷婷亚洲99精品小说| 国产日韩欧美高清在线| 日韩美女久久久| 久久久久国产精品厨房| 国产精品超碰97尤物18| 亚洲精品你懂的| 亚洲国产精品一区二区久久恐怖片| 亚洲欧美日韩国产中文在线| 亚洲成a人v欧美综合天堂下载| 看国产成人h片视频| 成人免费观看av| 日韩av中文在线观看| 黄一区二区三区| 91免费在线播放| 欧美精品 国产精品| 国产午夜精品美女毛片视频| 欧美成人女星排名| 国产精品美女久久久久aⅴ| 亚洲男人的天堂一区二区| 免费久久精品视频| 久久99蜜桃精品| 97久久超碰精品国产| 欧美一区二区福利在线| 亚洲欧洲精品一区二区三区不卡| 亚洲二区在线视频| 国产一区二区精品久久99| 91麻豆精品秘密| 精品处破学生在线二十三| 亚洲欧美偷拍三级| 另类欧美日韩国产在线| 91亚洲精品久久久蜜桃| 久久日一线二线三线suv| 亚洲一二三四在线观看| 国产成人精品综合在线观看| 欧美丰满少妇xxxbbb| 中文字幕欧美区| 免费观看在线色综合| 色综合久久中文字幕综合网| 久久综合九色综合欧美就去吻| 欧美在线观看视频在线| 欧美激情一区三区| 美女性感视频久久| www.欧美日韩国产在线| 久久婷婷综合激情| 青青青伊人色综合久久| 欧美日韩精品一二三区| 国产欧美日韩视频一区二区 | 日本sm残虐另类| 色香蕉久久蜜桃| 欧美国产一区二区| 九九视频精品免费| 国产精品系列在线观看| 欧美日韩精品福利| 亚洲综合激情另类小说区| 91视频xxxx| 337p亚洲精品色噜噜| 一区二区高清在线| 成人18精品视频| 国产欧美视频在线观看| 国产成人一级电影| 国产日韩av一区二区| 日本亚洲三级在线| 91精品一区二区三区久久久久久 | 91免费在线播放| 国产精品视频你懂的| 国产成人精品免费视频网站| 精品国产露脸精彩对白| 综合婷婷亚洲小说| 色婷婷激情一区二区三区| 国产精品二三区| av一区二区不卡| 中文字幕在线观看一区二区| 粉嫩在线一区二区三区视频| 中文天堂在线一区| 色综合视频在线观看| 自拍偷拍国产精品| 欧美日韩国产乱码电影| 日韩av一级电影| 日韩一区二区三区四区五区六区| 丝袜美腿亚洲色图| 日韩欧美一区电影| 国产成人三级在线观看| 亚洲欧美激情插| 欧美日产在线观看| 狠狠色狠狠色综合| 在线观看91av| 国产精品亚洲第一区在线暖暖韩国 | 亚洲国产精品久久人人爱蜜臀| 青青国产91久久久久久| 久久久亚洲精华液精华液精华液| 国产精品18久久久久久久网站| 久久久噜噜噜久噜久久综合| 成人免费观看视频| 水野朝阳av一区二区三区| 日韩视频免费观看高清完整版 | 亚洲精品一区二区三区精华液| 日韩黄色免费网站| 欧美韩国日本综合| 337p粉嫩大胆噜噜噜噜噜91av | 亚洲影院免费观看| 1区2区3区欧美| 亚洲国产电影在线观看| 国产亚洲一区二区三区在线观看 | 欧美精彩视频一区二区三区| 精品99一区二区三区| 日韩欧美资源站| 91麻豆精品国产91久久久久久久久| 在线观看亚洲精品| 欧洲人成人精品| 日本精品一区二区三区四区的功能| av毛片久久久久**hd| 成人av在线资源网站| 高清久久久久久| 成人污视频在线观看| 成人精品免费看| 99视频超级精品| 91影院在线免费观看| 色综合天天性综合| 在线免费视频一区二区| 在线观看一区不卡| 91精品国产91久久久久久一区二区| 欧美二区在线观看| 精品精品国产高清a毛片牛牛| 久久夜色精品国产噜噜av| 国产亚洲欧美日韩在线一区| 国产精品乱码妇女bbbb| 中文字幕佐山爱一区二区免费| 一级日本不卡的影视| 天天综合天天做天天综合| 奇米影视在线99精品| 精品无人码麻豆乱码1区2区 | 色婷婷综合中文久久一本| 色哦色哦哦色天天综合| 欧美老女人在线| 欧美精品一区二区三| 最近日韩中文字幕| 日韩精品视频网| 国产精品1024久久| 欧美在线观看一区二区| 日韩精品一区二区在线| 国产精品色婷婷久久58| 亚洲国产精品人人做人人爽| 麻豆国产一区二区| 99精品久久99久久久久| 欧美日韩视频在线观看一区二区三区| 日韩视频免费直播| 亚洲日本青草视频在线怡红院| 亚洲.国产.中文慕字在线| 国产精品一线二线三线| 欧洲人成人精品| 国产视频一区在线观看| 亚洲综合在线视频| 国内精品久久久久影院色| 91一区二区在线| 精品久久一二三区| 亚洲一区二区三区四区五区中文| 久久av资源站| 91福利区一区二区三区| 2023国产精品自拍| 偷拍与自拍一区| 91在线精品一区二区| 精品久久人人做人人爱| 亚洲一二三区不卡| 高清成人免费视频| 欧美成人aa大片| 亚洲丶国产丶欧美一区二区三区| 国产精品1区2区| 日韩视频一区在线观看| 一区二区三区四区中文字幕| 粉嫩欧美一区二区三区高清影视| 在线播放日韩导航| 亚洲欧美成aⅴ人在线观看| 国产一区二区三区观看| 欧美一区二区免费| 亚洲国产色一区| 色综合久久中文字幕| 国产精品三级在线观看| 久久国产精品72免费观看| 欧美日韩国产经典色站一区二区三区| 国产精品久久久久久久久免费相片| 免费久久精品视频| 在线视频国内自拍亚洲视频| 国产精品久久久久9999吃药| 狠狠色狠狠色综合系列| 欧美视频三区在线播放| 国产日韩精品一区二区浪潮av| 日韩精品免费专区| 欧美性极品少妇| 综合欧美亚洲日本| 麻豆国产精品官网| 欧美一区二区国产| 免费观看成人鲁鲁鲁鲁鲁视频| 欧美浪妇xxxx高跟鞋交| 日韩国产欧美在线观看| 欧美一区二区三区视频| 免费观看日韩av|