校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃

主頁 > 知識庫 > 教你如何利用python3爬蟲爬取漫畫島-非人哉漫畫

教你如何利用python3爬蟲爬取漫畫島-非人哉漫畫

熱門標簽:預覽式外呼系統 銀川電話機器人電話 電銷機器人錄音要學習什么 企業彩鈴地圖標注 外賣地址有什么地圖標注 煙臺電話外呼營銷系統 如何地圖標注公司 長春極信防封電銷卡批發 上海正規的外呼系統最新報價

    最近學了一點點python爬蟲的知識,面向百度編程爬了一本小說之后感覺有點不滿足,于是突發奇想嘗試爬一本漫畫下來看看。

一、效果展示

  首先是我們想要爬取的漫畫網頁:http://www.manhuadao.cn/

   網頁截圖:

   

其次是爬取下來的效果:

每一回的文件夾里面是這樣的: (因為網站圖片的問題...所以就成了這個鬼樣子)

二、分析原理

1、準備:需要vscode或者其他能夠編譯運行python的軟件,推薦python版本3.X ,否則有可能出現編譯問題。

       下載所需模塊:win+R進入命令行,輸入pipinstall 模塊名>即可下載。例如:

pip install beautifulsoup4

2、原理: 模擬瀏覽器點擊->打開漫畫網頁鏈接->獲取網頁源碼->定位每一章漫畫的鏈接->模擬點擊->獲取圖片頁面源碼->定位圖片鏈接->下載圖片

三、實際操作(代碼附在最后)

  1、引入模塊 (這里不再詳述)

    

  2、模擬瀏覽器訪問網頁  

    (1)、這里我們打開漫畫的目錄頁,如下: url = ”http://www.manhuadao.cn/Home/ComicDetail?id=58ddb07827a7c1392c234628“ ,此鏈接就是目錄頁鏈接。

    (2)、按F12打開此網頁的源碼(谷歌瀏覽器),選中上方NetWork,Ctrl+R刷新。

    (3)、找到加載網頁的源碼文件,點擊Headers,如下圖: StatusCode表示網頁返回的代碼,值為200時表示訪問成功。

      

    (4)、headers中的參數為下面紅框User-Agent。

response = requests.get(url=url, headers=headers)  # 模擬訪問網頁
print(response)  # 此處應輸出   Response [200]>
print(response.text)   # 輸出網頁源碼

     兩個輸出分別輸出:

   輸出返回200表示訪問成功。

   (節選)

    (5)、將html代碼存入 data 中,xpath定位每一章鏈接。點擊上方Element,點擊:

      

      將鼠標移至目錄處:

      

      右邊代碼區域出現每一章鏈接:

data = etree.HTML(response.text)
# tp = data.xpath('//ul[@class="read-chapter"]/li/a[@class="active"]/@href')
tp = data.xpath('//*[@class="yesReader"]/@href')
zhang_list = tp   # tp為鏈接列表

  輸出zhang_list,結果如下:

    (6)、獲取圖片鏈接(獲取方式同上一步)

    點進第一章,同上一步,尋找到圖片鏈接:

i=1
for next_zhang in zhang_list:    # 在章節列表中循環
    i=i+1
    j=0
    hui_url = r_url+next_zhang
    name1 = "第"+str(i)+"回"
    file = 'C:/Users/wangyueke/Desktop/'+keyword+'/{}/'.format(name1)   # 創建文件夾
    if not os.path.exists(file):
        os.makedirs(file)
        print('創建文件夾:', file)
    response = requests.get(url=hui_url, headers=headers)    # 模擬訪問每一章鏈接
    data = etree.HTML(response.text)
    # tp = data.xpath('//div[@class="no-pic"]//img/@src')
    tp = data.xpath('//div[@class="main-content"]//ul//li//div[@class="no-pic"]//img/@src')   # 定位
    ye_list = tp

    (7)、下載圖片

for k in ye_list:    # 在每一章的圖片鏈接列表中循環
    download_url = tp[j]
    print(download_url)
    j=j+1
    file_name="第"+str(j)+"頁"
    response = requests.get(url=download_url)    # 模擬訪問圖片鏈接
    with open(file+file_name+".jpg","wb") as f:
        f.write(response.content)

五、代碼

'''
用于爬取非人哉漫畫
目標網址:http://www.manhuadao.cn/
開始時間:2019/8/14 20:01:26
完成時間:2019/8/15 11:04:56
作者:kong_gu
'''
import requests
import json
import time
import os
from lxml import etree
from bs4 import BeautifulSoup


def main():
    keyword="非人哉"
    file = 'E:/{}'.format(keyword)
    if not os.path.exists(file):
        os.mkdir(file)
        print('創建文件夾:',file)
    r_url="http://www.manhuadao.cn/"
    url = "http://www.manhuadao.cn/Home/ComicDetail?id=58ddb07827a7c1392c234628"
    headers = {  # 模擬瀏覽器訪問網頁
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) \\Chrome/75.0.3770.142 Safari/537.36'}
    response = requests.get(url=url, headers=headers)
    # print(response.text)   # 輸出網頁源碼
    data = etree.HTML(response.text)
    # tp = data.xpath('//ul[@class="read-chapter"]/li/a[@class="active"]/@href')
    tp = data.xpath('//*[@class="yesReader"]/@href')
    zhang_list = tp
    i=1
    for next_zhang in zhang_list:
        i=i+1
        j=0
        hui_url = r_url+next_zhang
        name1 = "第"+str(i)+"回"
        file = 'C:/Users/wangyueke/Desktop/'+keyword+'/{}/'.format(name1)    # 這里需要自己設置路徑
        if not os.path.exists(file):
            os.makedirs(file)
            print('創建文件夾:', file)
        response = requests.get(url=hui_url, headers=headers)
        data = etree.HTML(response.text)
        # tp = data.xpath('//div[@class="no-pic"]//img/@src')
        tp = data.xpath('//div[@class="main-content"]//ul//li//div[@class="no-pic"]//img/@src')
        ye_list = tp
        for k in ye_list:
            download_url = tp[j]
            print(download_url)
            j=j+1
            file_name="第"+str(j)+"頁"
            response = requests.get(url=download_url)
            with open(file+file_name+".jpg","wb") as f:
                f.write(response.content)


if __name__ == '__main__':
    main()

到此這篇關于利用python3爬蟲爬取漫畫島-非人哉漫畫的文章就介紹到這了,更多相關python3爬蟲漫畫島內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • 關于python爬蟲應用urllib庫作用分析
  • python爬蟲Scrapy框架:媒體管道原理學習分析
  • python爬蟲Mitmproxy安裝使用學習筆記
  • Python爬蟲和反爬技術過程詳解
  • python爬蟲之Appium爬取手機App數據及模擬用戶手勢
  • 爬蟲Python驗證碼識別入門
  • Python爬蟲技術
  • Python爬蟲爬取商品失敗處理方法
  • Python獲取江蘇疫情實時數據及爬蟲分析
  • Python爬蟲之Scrapy環境搭建案例教程
  • Python爬蟲中urllib3與urllib的區別是什么
  • Python爬蟲分析匯總

標簽:盤錦 西寧 湖北 佳木斯 宜昌 潮州 上饒 珠海

巨人網絡通訊聲明:本文標題《教你如何利用python3爬蟲爬取漫畫島-非人哉漫畫》,本文關鍵詞  教你,如何,利用,python3,爬蟲,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《教你如何利用python3爬蟲爬取漫畫島-非人哉漫畫》相關的同類信息!
  • 本頁收集關于教你如何利用python3爬蟲爬取漫畫島-非人哉漫畫的相關信息資訊供網民參考!
  • 推薦文章
    校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃
    日韩经典中文字幕一区| 91在线观看下载| 99精品1区2区| 久久综合久久综合亚洲| 一区二区三区四区国产精品| 国产精品自拍毛片| 在线播放中文一区| 夜夜嗨av一区二区三区中文字幕| 国产精品一区在线观看你懂的| 91精品国模一区二区三区| 亚洲欧美日韩成人高清在线一区| 国产精品一级在线| 日韩欧美黄色影院| 爽爽淫人综合网网站| 色天使色偷偷av一区二区| 久久久精品国产免大香伊| 欧美bbbbb| 91精品视频网| 亚洲不卡一区二区三区| 色婷婷综合久久久| 亚洲摸摸操操av| yourporn久久国产精品| 国产日韩视频一区二区三区| 亚洲成人免费视频| 亚洲h动漫在线| 精品国产免费人成电影在线观看四季| 亚洲激情自拍偷拍| 91网址在线看| 亚洲欧美电影一区二区| 国产成人午夜高潮毛片| 久久久久久久久97黄色工厂| 国产综合色在线视频区| 日韩免费观看高清完整版 | 激情综合网最新| 91精品国产欧美一区二区成人| 亚洲444eee在线观看| 欧美日本一区二区| 免费观看日韩av| 久久久精品免费网站| 大白屁股一区二区视频| 国产精品看片你懂得| 91丨porny丨最新| 亚洲一区电影777| 91.麻豆视频| 国产伦精品一区二区三区免费迷 | 97aⅴ精品视频一二三区| 亚洲人成在线播放网站岛国| 欧美专区亚洲专区| 香蕉成人啪国产精品视频综合网| 91麻豆精品国产91久久久资源速度 | 日韩在线一二三区| 欧美女孩性生活视频| 久久精品999| 欧美经典一区二区| 色8久久人人97超碰香蕉987| 日日夜夜一区二区| 久久久久久97三级| 欧美中文字幕不卡| 麻豆成人在线观看| 国产精品久久久久久福利一牛影视 | 精品国产免费人成在线观看| 国产**成人网毛片九色| 亚洲综合一区在线| 日韩视频在线永久播放| 高清不卡一区二区| 亚洲第一二三四区| 国产婷婷精品av在线| 欧美日韩免费一区二区三区视频| 久久99久久久欧美国产| 亚洲色图丝袜美腿| 日韩午夜中文字幕| 99久久久精品| 久久99久久久久久久久久久| 国产精品国产三级国产aⅴ入口 | 亚洲一区二区欧美日韩| 欧美精品一区二区三区蜜臀| 欧美在线视频全部完| 国产精品自产自拍| 日韩电影在线看| 亚洲男女一区二区三区| 26uuu欧美| 一区精品在线播放| 日韩精品一区二| 欧美亚洲尤物久久| 不卡在线视频中文字幕| 韩国毛片一区二区三区| 五月天网站亚洲| 亚洲视频在线观看一区| 国产日韩精品一区二区三区| 91精品久久久久久蜜臀| 欧美三级视频在线播放| 91日韩在线专区| 成人aaaa免费全部观看| 国产乱码精品1区2区3区| 日韩av网站在线观看| 一区二区久久久久| 国产精品久久国产精麻豆99网站| 精品美女在线播放| 欧美一区二区三区色| 欧美日韩国产系列| 欧美影院一区二区三区| 色哟哟在线观看一区二区三区| 国产成人鲁色资源国产91色综| 精品一区二区三区免费毛片爱 | 亚洲精品va在线观看| 中文字幕亚洲成人| 国产精品国产三级国产普通话蜜臀 | 精品一二线国产| 麻豆精品国产传媒mv男同| 日韩国产精品久久久| 欧美aaaaaa午夜精品| 日韩精品电影一区亚洲| 日本女人一区二区三区| 日本伊人色综合网| 秋霞成人午夜伦在线观看| 日韩av一区二区在线影视| 日韩av在线免费观看不卡| 乱一区二区av| 国产精品影视天天线| 国产成a人亚洲精| www.亚洲国产| 一本一道综合狠狠老| 欧美日韩亚洲综合| 欧美一区二区三区在| 久久综合色天天久久综合图片| 久久久久久9999| 亚洲日穴在线视频| 亚洲国产一区二区视频| 秋霞电影一区二区| 国产一区欧美二区| 99久久精品免费看国产免费软件| 91片黄在线观看| 制服丝袜亚洲色图| 久久亚洲综合av| 亚洲视频狠狠干| 秋霞国产午夜精品免费视频| 国产九色sp调教91| 91福利在线观看| 精品国产一区二区在线观看| 久久久久高清精品| 国产精品456露脸| 成人禁用看黄a在线| 欧美久久一区二区| 国产日韩亚洲欧美综合| 一区二区在线观看不卡| 偷拍一区二区三区四区| 国产·精品毛片| 欧美日韩三级视频| 国产午夜一区二区三区| 一区二区三区中文字幕在线观看| 日韩av在线发布| 99国产精品一区| 精品久久久久一区二区国产| 亚洲色图在线视频| 麻豆视频观看网址久久| 色综合天天综合网天天看片| 日韩欧美卡一卡二| 亚洲一区二区三区四区中文字幕| 激情小说欧美图片| 色婷婷国产精品| 欧美高清在线视频| 蜜桃精品视频在线观看| 色综合激情久久| 中文字幕欧美日韩一区| 免费在线观看成人| 色妞www精品视频| 国产日韩欧美精品综合| 日韩电影在线看| 欧美性xxxxxxxx| 国产精品久久久久久福利一牛影视| 日本成人在线不卡视频| 在线免费观看成人短视频| 国产婷婷色一区二区三区| 日本伊人午夜精品| 欧美日韩精品系列| 中文字幕制服丝袜成人av| 久久99精品网久久| 91.xcao| 丝袜亚洲另类欧美| 欧美色男人天堂| 一区二区三区在线看| 91在线观看视频| 国产精品高潮久久久久无| 国产精品一卡二| 久久久久国产精品麻豆| 韩国v欧美v日本v亚洲v| 日韩一级成人av| 欧美a一区二区| 欧美一区二区美女| 日韩激情视频网站| 69堂国产成人免费视频| 日韩极品在线观看| 91精品国产福利在线观看 | 亚洲精品成人在线| 99久久久久久| 亚洲欧美日韩小说| 色噜噜夜夜夜综合网| 一区二区三区四区激情| 欧美性高清videossexo| 亚洲成人综合在线|