校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃

主頁 > 知識(shí)庫 > python爬蟲scrapy基本使用超詳細(xì)教程

python爬蟲scrapy基本使用超詳細(xì)教程

熱門標(biāo)簽:深圳網(wǎng)絡(luò)外呼系統(tǒng)代理商 騰訊地圖標(biāo)注有什么版本 鎮(zhèn)江人工外呼系統(tǒng)供應(yīng)商 400電話辦理費(fèi)用收費(fèi) 申請(qǐng)辦個(gè)400電話號(hào)碼 外呼系統(tǒng)前面有錄音播放嗎 千呼ai電話機(jī)器人免費(fèi) 高德地圖標(biāo)注字母 柳州正規(guī)電銷機(jī)器人收費(fèi)

一、介紹

官方文檔:中文2.3版本

下面這張圖大家應(yīng)該很熟悉,很多有關(guān)scrapy框架的介紹中都會(huì)出現(xiàn)這張圖,感興趣的再去查詢相關(guān)資料,當(dāng)然學(xué)會(huì)使用scrapy才是最主要的。

二、基本使用

2.1 環(huán)境安裝

1.linux和mac操作系統(tǒng)

pip install scrapy

2.windows系統(tǒng)

  1. 先安裝wheel:pip install wheel
  2. 下載twisted:下載地址
  3. 安裝twisted:pip install Twisted‑17.1.0‑cp36‑cp36m‑win_amd64.whl(記得帶后綴)
  4. pip install pywin32
  5. pip install scrapy

3.Anaconda(推薦)

在我一開始學(xué)python使用的就是python3.8,在安裝各種庫的時(shí)候,總會(huì)有各種報(bào)錯(cuò),真的有點(diǎn)讓人奔潰。Anaconda在安裝過程中就會(huì)安裝一些常用的庫,其次,當(dāng)我們想要安裝其他庫時(shí)也很方便。當(dāng)然大家也可以選擇安裝其他的一些軟件,

2.2 scrapy使用流程

這里默認(rèn)大家已經(jīng)安裝好scrapy庫,大家要記得要在命令行里輸入以下命令啊。(我使用的anaconda的命令行)

創(chuàng)建工程

scrapy startproject projectName


進(jìn)入工程目錄:這里一定要進(jìn)入到剛才創(chuàng)建好的目錄中

cd projectName

創(chuàng)建爬蟲文件:創(chuàng)建的爬蟲文件會(huì)出現(xiàn)在之前創(chuàng)建好的spiders文件夾下

scrapy genspider spiderName www.xxx.com

編寫相關(guān)代碼

執(zhí)行爬蟲文件

scrapy crawl spiderName

2.3 文件解析

import scrapy

class HelloSpider(scrapy.Spider):
 name = 'hello' # 爬蟲名稱

 # 允許的域名:限定start_urls列表當(dāng)中哪些url可以進(jìn)行請(qǐng)求的發(fā)送
 # 通常情況下我們不會(huì)使用
 # allowed_domains = ['www.baidu.com'] 

 # 起始的url列表:scrapy會(huì)自動(dòng)對(duì)start_urls列表中的每一個(gè)url發(fā)起請(qǐng)求
 # 我們可以手動(dòng)添加我們需要訪問的url
 start_urls = ['https://www.baidu.com/','https://www.csdn.net/']

 def parse(self, response): # 當(dāng)scrapy自動(dòng)向start_urls中的每一個(gè)url發(fā)起請(qǐng)求后,會(huì)將響應(yīng)對(duì)象保存在response對(duì)象中
 # 代碼一般是在parse方法中寫
 print("response:",response)

2.4 settings.py一些常見的設(shè)置

相當(dāng)于requests中的headers參數(shù)中的User-Agent

USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.150 Safari/537.36 Edg/88.0.705.68'

可以忽略或者不遵守robots協(xié)議

ROBOTSTXT_OBEY = False 

只有程序出現(xiàn)錯(cuò)誤的情況下,才顯示日志文件,程序正常執(zhí)行時(shí)只會(huì)輸出我們想要的結(jié)果

LOG_LEVEL='ERROR' == scrapy crawl spiderName --nolog
//二者是等價(jià)的,當(dāng)然還是推薦使用前者

未加LOG_LEVEL='ERROR'

LOG_LEVEL='ERROR'之后

scrapy 爬取文件保存為CSV文件中文亂碼的解決辦法

//下面的設(shè)置可能會(huì)導(dǎo)致繁體出現(xiàn),可以逐個(gè)試一下
FEED_EXPORT_ENCODING = "gb18030"
FEED_EXPORT_ENCODING = "utf-8"
FEED_EXPORT_ENCODING = "gbk"

三、實(shí)例

3.1 實(shí)例要求

目的:爬取百度網(wǎng)頁的百度熱榜

 

3.2 實(shí)例代碼

實(shí)例代碼

 

3.3 輸出結(jié)果

結(jié)果

到此這篇關(guān)于python爬蟲scrapy基本使用超詳細(xì)教程的文章就介紹到這了,更多相關(guān)python爬蟲scrapy使用內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Python爬蟲基礎(chǔ)講解之scrapy框架
  • Python爬蟲實(shí)戰(zhàn)之使用Scrapy爬取豆瓣圖片
  • Python爬蟲框架-scrapy的使用
  • python scrapy項(xiàng)目下spiders內(nèi)多個(gè)爬蟲同時(shí)運(yùn)行的實(shí)現(xiàn)
  • Python爬蟲之教你利用Scrapy爬取圖片
  • python爬蟲scrapy框架之增量式爬蟲的示例代碼
  • 一文讀懂python Scrapy爬蟲框架
  • Python爬蟲之Scrapy環(huán)境搭建案例教程

標(biāo)簽:哈爾濱 烏蘭察布 郴州 合肥 烏蘭察布 海南 平頂山 大慶

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《python爬蟲scrapy基本使用超詳細(xì)教程》,本文關(guān)鍵詞  python,爬蟲,scrapy,基本,使用,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《python爬蟲scrapy基本使用超詳細(xì)教程》相關(guān)的同類信息!
  • 本頁收集關(guān)于python爬蟲scrapy基本使用超詳細(xì)教程的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    主站蜘蛛池模板: 平果县| 建始县| 秦皇岛市| 临沭县| 连云港市| 辉南县| 安龙县| 巴彦县| 黔江区| 裕民县| 永州市| 齐齐哈尔市| 托克托县| 青铜峡市| 延安市| 西昌市| 无锡市| 台南市| 巴彦淖尔市| 邢台县| 新乡市| 平利县| 青岛市| 广水市| 岱山县| 安平县| 蒙阴县| 乐清市| 望奎县| 东兴市| 正镶白旗| 潜山县| 花莲县| 石狮市| 庄浪县| 丽水市| 拜泉县| 肥西县| 颍上县| 通许县| 阜康市|