校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃

主頁 > 知識庫 > python爬蟲之pyppeteer庫簡單使用

python爬蟲之pyppeteer庫簡單使用

熱門標(biāo)簽:如何地圖標(biāo)注公司 外賣地址有什么地圖標(biāo)注 銀川電話機(jī)器人電話 長春極信防封電銷卡批發(fā) 煙臺電話外呼營銷系統(tǒng) 預(yù)覽式外呼系統(tǒng) 上海正規(guī)的外呼系統(tǒng)最新報(bào)價(jià) 企業(yè)彩鈴地圖標(biāo)注 電銷機(jī)器人錄音要學(xué)習(xí)什么

pyppeteer

介紹Pyppeteer之前先說一下Puppeteer,Puppeteer是谷歌出品的一款基于Node.js開發(fā)的一款工具,主要是用來操縱Chrome瀏覽器的 API,通過Javascript代碼來操縱Chrome瀏覽器,完成數(shù)據(jù)爬取、Web程序自動測試等任務(wù)。

pyppeteer 是非官方 Python 版本的 Puppeteer 庫,瀏覽器自動化庫,由日本工程師開發(fā)。

Puppeteer 是 Google 基于 Node.js 開發(fā)的工具,調(diào)用 Chrome 的 API,通過 JavaScript 代碼來操縱 Chrome 完成一些操作,用于網(wǎng)絡(luò)爬蟲、Web 程序自動測試等。

pyppeteer 使用了 Python 異步協(xié)程庫asyncio,可整合 Scrapy 進(jìn)行分布式爬蟲。

puppet 木偶,puppeteer 操縱木偶的人。

pyppeteer和puppeteer的不同點(diǎn)

pyppeteer支持字典和關(guān)鍵字傳參,puppeteer只支持字典傳參

# puppeteer支支持字典傳參
browser = await launch({'headless':True})

# pyppeteer支持字典和關(guān)鍵字傳參
browser = await launch({'headless':True})
browser = await launch(headless=True)

元素選擇器方法名$變?yōu)閝uerySelector

# puppeteer使用$符
page.$()/page.%%()/page.$x()
# pyppeteer使用python風(fēng)格的函數(shù)名
page.querySelector()/page.querySelectorAll()/page.xpath()

# 簡寫方式
page.J()/page.JJ()/page.Jx()

page.evluate()和page.querySelectorEval()的參數(shù)

puppeteer的evaluate()方法使用JavaScript原生函數(shù)或JavaScript表達(dá)式字符串。pyppeteer的evaluate()方法只使用JavaScript字符串,該字符串可以是函數(shù)也可以是表達(dá)式,pyppeteer會進(jìn)行自動判斷。但有時(shí)會判斷錯誤,如果字符串被判斷成了函數(shù),并且報(bào)錯,可以添加參數(shù)force_expr=True,強(qiáng)制pyppeteer作為表達(dá)式處理。

獲取網(wǎng)頁內(nèi)容:

content = await page.evaluate('document.body.textContent',force_expr=True)

獲取元素的內(nèi)部文字:

element = await page.querySelector('h1')
title = await page.evaluate('(element) => element.textContent',element)

安裝

1、安裝pyppeteer

pip install pyppeteer

2、安裝chromium

pyppeteer-install

簡單使用

import asyncio
from pyppeteer import launch

async def main():
    url = 'https://www.toutiao.com/'
    # headless參數(shù)設(shè)置為Falase,則變成有頭模式
    browser = await launch(headless=False, ignoreDefaultArgs=['--enable-automation'])
    page = await browser.newPage()
    
    # 設(shè)置頁面視圖大小
    await page.setViewport(viewport={'width':1600,'herght':900})
    
    # 是否啟用JS,enabled設(shè)為False,則無渲染效果
    await page.setJavaScriptEnable(enabled=True)
    
    # 等待時(shí)間1000毫秒
    res = await page.goto(url,options={'timeout':1000})
    resp_headers = res.headers  # 響應(yīng)頭
    resp_status = res.status    # 響應(yīng)狀態(tài)
    
    # 等待
    await asyncio.sleep(2)
    await page.waitFor(1000)
    # 第二種方法 ,在while循環(huán)里強(qiáng)行查詢某元素進(jìn)行等待
    while not await page.querySelector('.t')
    
    # 滾動到頁面底部
    await page.evaluate('window.scrollBy(0,document.body.scrollHeight)')
    
    await page.screenshot({'path':'test.png'})
    
    # 打印網(wǎng)頁cookies
    print(await page.cookies())
    
    # 獲取所有html內(nèi)容
    print(await page.content())
    
    
    dimensions = await page.evaluate(pageFunction='''() => {
    		return {
    			width:document.documentElement.clentWidth,    // 頁面寬度
    			height:document.documentElement.clentHeight,  // 頁面高度
    			deviceScaleFactor: window.devicePixelRatio,  // 像素比1.0000000149011612
    			}
    		}''',force_expr=False)   # force_expr=False  執(zhí)行的是函數(shù)
    print(dimensions)
    
    content = await page.evaluate(pageFunction='document.body.textContent',force_expr=True)    # 只獲得文本 執(zhí)行js腳本,force_expr=True  執(zhí)行的是表達(dá)式
    print(content)
    
    # 打印當(dāng)前頁面的標(biāo)題
    print(await page.title())
    
    
    # 抓取新聞內(nèi)容  可以使用xpath表達(dá)式
    '''
    pyppeteer 三種解析方式
    page.querySelector()
    page.querySelectorAll()
    page.xpath()
    簡寫方式為:
    page.J()
    page.JJ()
    page.Jx()
    '''
    element = await page.querySelector(".feed-infinite-wrapper > ul>li")
    print(element)
    
    
    element = await page.querySelectorAll(".title-box a")
    for item in element:
        print(await item.getProperty('textContent'))
        # 獲取文本內(nèi)容
        title_str = await (await item.getProperty('textContent')).jsonValue()
        
        title_link = await (await item.getProperty('textContent')).jsonValue()
        
        # 獲取屬性值
        # title = await (await item.getProperty('class')).jsonValue()
        print(title_str,title_link)
    await browser.close()


asyncio.get_event_loop().run_until_complete(main())

模擬文本輸入和點(diǎn)擊

# 模擬輸入賬號密碼 參數(shù){'delay':reand_int()}  延遲輸入時(shí)間
await page.type('#kw',"百度",delay=100)
await page.type('#TPL_username_1',"asdasd")

await page.waitFor(1000)
await page.click('#su')

移除Chrome正受到自動測試軟件的控制

browser = await launch(headless=False, ignoreDefaultArgs=['--enable-automation'])
# 添加ignoreDefaultArgs=['--enable-automation'] 參數(shù)

爬取京東商城

from bs4 import BeautifulSoup
from pyppeteer import launch
import asyncio


def screen_size():
    return 1600,900


async def main(url):
    browser = await launch({"args":['--no-sandbox'],}) # "headless":False
    page = await browser.newPage()
    width, height = screen_size()
    await page.setViewport(viewport={'width':width,'height':height})
    await page.setJavaScriptEnabled(enabled=True)
    await page.setUserAgent('Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.77 Safari/537.36')
    await page.goto(url)

    await page.evaluate('window.scrollBy(0, document.body.scrollHeight)')

    await asyncio.sleep(1)

    # content = await page.content()
    li_list = await page.xpath('//*[@id="J_goodsList"]/ul/li')

    item_list = []
    for li in li_list:
        a = await li.xpath('.//div[@class="p-img"]/a')
        detail_url = await (await a[0].getProperty('href')).jsonValue()
        promo_words = await (await a[0].getProperty('title')).jsonValue()
        a_ = await li.xpath('.//div[@class="p-commit"]/strong/a')
        p_commit = await (await a_[0].getProperty('textContent')).jsonValue()
        i = await li.xpath('./div/div[3]/strong/i')
        price = await (await i[0].getProperty('textContent')).jsonValue()
        em = await li.xpath('./div/div[4]/a/em')
        title = await (await em[0].getProperty('textContent')).jsonValue()
        item = {
            "title" : title,
            "detail_url" : detail_url,
            "promp_words" : promo_words,
            "p_commit" : p_commit,
            "price" : price
        }
        item_list.append(item)

    await page_close(browser)
    return item_list


async def page_close(browser):
    for _page in await browser.pages():
        await _page.close()
    await browser.close()


url = 'https://search.jd.com/Search?keyword=%E6%89%8B%E6%9C%BAwq='\

		'%E6%89%8B%E6%9C%BApvid=e07184578b8442c58ddd65b221020e99page={}s=56click=0 '
task_list = []
for i in range(1,4):
    page = i * 2 - 1
    task_list.append(main(url.format(page)))

results = asyncio.get_event_loop().run_until_complete(asyncio.gather(*task_list))

for i in results:
    print(i,len(i))

print('*'*100)

到此這篇關(guān)于python爬蟲之pyppeteer庫的文章就介紹到這了,更多相關(guān)python爬蟲pyppeteer庫內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • python爬蟲 Pyppeteer使用方法解析
  • python爬蟲神器Pyppeteer入門及使用
  • python pyppeteer 破解京東滑塊功能的代碼
  • python基于pyppeteer制作PDF文件
  • 詳解pyppeteer(python版puppeteer)基本使用

標(biāo)簽:佳木斯 盤錦 宜昌 珠海 潮州 西寧 湖北 上饒

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《python爬蟲之pyppeteer庫簡單使用》,本文關(guān)鍵詞  python,爬蟲,之,pyppeteer,庫,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《python爬蟲之pyppeteer庫簡單使用》相關(guān)的同類信息!
  • 本頁收集關(guān)于python爬蟲之pyppeteer庫簡單使用的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃
    www一区二区| 在线视频国产一区| 国产乱对白刺激视频不卡| 风流少妇一区二区| 欧美精品第一页| 国产精品久线在线观看| 免费精品视频在线| 91成人免费网站| 一色屋精品亚洲香蕉网站| 国产一区二区三区| 欧美一区二区三区视频在线| 一区二区三区中文字幕在线观看| 国产毛片一区二区| 欧美sm美女调教| 丝袜美腿亚洲综合| 欧美日韩极品在线观看一区| 亚洲人精品一区| 成人激情免费电影网址| 国产片一区二区| 国模无码大尺度一区二区三区 | 欧美国产丝袜视频| 久久机这里只有精品| 欧美一级理论片| 欧美成人精精品一区二区频| 亚洲高清在线视频| 在线视频观看一区| 亚洲与欧洲av电影| 色婷婷av一区二区| 九一久久久久久| 欧美一区二区三区免费在线看| 污片在线观看一区二区| 欧美日韩黄色一区二区| 三级在线观看一区二区 | 日韩欧美中文一区| 日本强好片久久久久久aaa| 欧美日韩小视频| 日一区二区三区| 日韩三级在线免费观看| 精品一区二区在线看| 日韩精品一区二区三区在线观看| 久久精品国产999大香线蕉| 精品久久久久久久久久久院品网 | 丝袜国产日韩另类美女| 91女神在线视频| 日韩毛片一二三区| 色老汉一区二区三区| 一区二区三区在线免费观看| 欧美日韩视频在线观看一区二区三区| 亚洲大型综合色站| 日韩欧美黄色影院| 国产成人亚洲精品狼色在线| 国产精品成人免费| 欧美在线看片a免费观看| 日韩av电影天堂| 欧美精品一区二区三区蜜臀| 丰满亚洲少妇av| 亚洲曰韩产成在线| 26uuuu精品一区二区| eeuss影院一区二区三区| 伊人开心综合网| 日韩精品一区二区三区老鸭窝| 成人妖精视频yjsp地址| 亚洲一区二区av电影| 日韩欧美精品在线| 91免费精品国自产拍在线不卡| 日韩中文字幕不卡| 国产日韩欧美麻豆| 欧美视频精品在线观看| 乱中年女人伦av一区二区| 国产精品欧美一区二区三区| 欧美日韩一区小说| 国产大陆亚洲精品国产| 亚洲成a人在线观看| 久久久www成人免费毛片麻豆 | av在线不卡网| 午夜久久久影院| 国产精品乱人伦中文| 在线91免费看| 国产成人99久久亚洲综合精品| 亚洲国产精品久久人人爱蜜臀 | 久久老女人爱爱| 欧美日韩精品是欧美日韩精品| 成人污污视频在线观看| 蜜桃视频免费观看一区| 亚洲狼人国产精品| 国产清纯美女被跳蛋高潮一区二区久久w | 国产精品国产自产拍高清av王其| 在线播放日韩导航| 色婷婷国产精品| 高清久久久久久| 久久 天天综合| 日韩精品亚洲专区| 亚洲综合一二区| 日韩一区在线看| 久久亚洲精品国产精品紫薇| 欧美片网站yy| 欧美性生活一区| 色偷偷88欧美精品久久久| 国产91丝袜在线观看| 久久99精品国产麻豆不卡| 亚洲成人动漫在线观看| 亚洲资源中文字幕| 亚洲欧美日韩中文播放 | 奇米影视一区二区三区小说| 一二三区精品视频| 中文字幕综合网| 中文成人综合网| 国产日韩欧美激情| 久久久精品欧美丰满| 26uuu国产一区二区三区| 日韩一区二区视频| 欧美一区二区三区的| 制服丝袜av成人在线看| 欧美日韩三级一区| 宅男在线国产精品| 91精品欧美一区二区三区综合在| 欧美日韩1234| 欧美人xxxx| 日韩久久精品一区| 精品国产乱码久久久久久牛牛| 日韩欧美中文字幕制服| 欧美xxx久久| 国产欧美一区二区精品性色超碰 | 久久久久国产成人精品亚洲午夜| 久久亚洲免费视频| 日本一区二区成人在线| 中文字幕一区二区三区在线播放 | 国产精品久久二区二区| 亚洲色图视频网站| 亚洲精品免费电影| 亚洲电影在线免费观看| 人人狠狠综合久久亚洲| 国产中文一区二区三区| 成人一区二区视频| 一本久久a久久精品亚洲| 精品视频免费在线| 日韩欧美国产综合在线一区二区三区| 日韩欧美视频一区| 国产精品久久久久久久久久久免费看 | 日本欧美加勒比视频| 国产一区二区在线影院| 99精品久久久久久| 欧美日韩精品系列| 久久综合九色综合欧美98| 中文av一区二区| 亚洲国产aⅴ天堂久久| 国模一区二区三区白浆| 99精品热视频| 日韩一区二区在线观看视频| 国产精品欧美精品| 石原莉奈在线亚洲三区| 丁香五精品蜜臀久久久久99网站| 色狠狠桃花综合| 精品99999| 亚洲伦理在线精品| 极品少妇xxxx偷拍精品少妇| 99精品久久免费看蜜臀剧情介绍| 欧美一区二区网站| ...av二区三区久久精品| 日韩av不卡一区二区| av亚洲精华国产精华精华 | 久久 天天综合| 色综合咪咪久久| 久久久久成人黄色影片| 日日夜夜精品免费视频| 不卡视频在线看| 日韩一卡二卡三卡四卡| 怡红院av一区二区三区| 韩国精品主播一区二区在线观看 | 91亚洲精品久久久蜜桃| 日韩三级电影网址| 亚洲成a人片在线不卡一二三区 | 日韩视频在线观看一区二区| 中文字幕一区二区三区不卡在线 | 欧美顶级少妇做爰| 一区二区三区日韩精品视频| 国产成人av福利| 欧美成人激情免费网| 午夜欧美在线一二页| av在线这里只有精品| 国产嫩草影院久久久久| 国产一区二区三区香蕉| 91麻豆精品国产91久久久久| 夜色激情一区二区| 99国产精品国产精品毛片| 日本一区免费视频| 国产综合久久久久影院| 日韩欧美一区二区在线视频| 亚洲午夜在线观看视频在线| 99热精品一区二区| 国产精品美女视频| 成人一级片网址| 国产精品三级av在线播放| 国产成人在线电影| 欧美国产日产图区| 成人精品视频一区| 欧美国产一区视频在线观看| 懂色av一区二区三区蜜臀| 国产精品丝袜久久久久久app| 成人午夜激情影院|