校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃

主頁 > 知識庫 > 詳解使用scrapy進行模擬登陸三種方式

詳解使用scrapy進行模擬登陸三種方式

熱門標簽:千呼ai電話機器人免費 外呼系統前面有錄音播放嗎 柳州正規電銷機器人收費 高德地圖標注字母 申請辦個400電話號碼 深圳網絡外呼系統代理商 騰訊地圖標注有什么版本 鎮江人工外呼系統供應商 400電話辦理費用收費

scrapy有三種方法模擬登陸方式:
- 直接攜帶cookies
- 找url地址,發送post請求存儲cookie
- 找到對應的form表單,自動解析input標簽,自動解析post請求的url地址,自動帶上數據,自動發送請求

1、攜帶cookies登陸github

import scrapy
import re
 
class Login1Spider(scrapy.Spider):
  name = 'login1'
  allowed_domains = ['github.com']
  start_urls = ['https://github.com/NoobPythoner'] # 這是一個需要登陸以后才能訪問的頁面
 
  def start_requests(self): # 重構start_requests方法
    # 這個cookies_str是抓包獲取的
    cookies_str = '...' # 抓包獲取
    # 將cookies_str轉換為cookies_dict
    cookies_dict = {i.split('=')[0]:i.split('=')[1] for i in cookies_str.split('; ')}
    yield scrapy.Request(
      self.start_urls[0],
      callback=self.parse,
      cookies=cookies_dict
    )
 
  def parse(self, response): # 通過正則表達式匹配用戶名來驗證是否登陸成功
    result_list = re.findall(r'noobpythoner|NoobPythoner', response.body.decode())
    print(result_list)
    pass

注意:

scrapy中cookie不能夠放在headers中,在構造請求的時候有專門的cookies參數,能夠接受字典形式的coookie
在setting中設置ROBOTS協議、USER_AGENT

2、使用scrapy.FormRequest()登錄

通過scrapy.FormRequest能夠發送post請求,同時需要添加fromdata參數作為請求體,以及callback

 yield scrapy.FormRequest(
       "https://github.com/session",
       formdata={
         "authenticity_token":authenticity_token,
         "utf8":utf8,
         "commit":commit,
         "login":"****",
         "password":"****"
       },
       callback=self.parse_login
     )

3、使用scrapy.Formrequest.from_response登陸github

import scrapy
import re
 
class Login3Spider(scrapy.Spider):
  name = 'login3'
  allowed_domains = ['github.com']
  start_urls = ['https://github.com/login']
 
  def parse(self, response):
    yield scrapy.FormRequest.from_response(
      response, # 傳入response對象,自動解析
      # 可以通過xpath來定位form表單,當前頁只有一個form表單時,將會自動定位
      formxpath='//*[@id="login"]/form', 
      formdata={'login': '****', 'password': '***'},
      callback=self.parse_login
    )
 
  def parse_login(self,response):
    ret = re.findall(r"noobpythoner|NoobPythoner", response.text)
    print(ret)

到此這篇關于詳解使用scrapy進行模擬登陸三種方式的文章就介紹到這了,更多相關scrapy模擬登陸內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Scrapy模擬登錄趕集網的實現代碼
  • Scrapy框架實現的登錄網站操作示例
  • python爬蟲框架scrapy實現模擬登錄操作示例

標簽:海南 烏蘭察布 大慶 烏蘭察布 郴州 合肥 平頂山 哈爾濱

巨人網絡通訊聲明:本文標題《詳解使用scrapy進行模擬登陸三種方式》,本文關鍵詞  詳解,使用,scrapy,進行,模擬,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《詳解使用scrapy進行模擬登陸三種方式》相關的同類信息!
  • 本頁收集關于詳解使用scrapy進行模擬登陸三種方式的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 荔浦县| 康马县| 平和县| 东乌| 白银市| 白水县| 阳朔县| 宁波市| 当阳市| 兴安盟| 鱼台县| 五河县| 旺苍县| 花垣县| 绥江县| 周宁县| 会同县| 合川市| 云梦县| 昌乐县| 恩平市| 临城县| 高邮市| 延边| 贡嘎县| 固镇县| 宁远县| 石河子市| 泰州市| 新平| 内丘县| 东乌珠穆沁旗| 神木县| 遂溪县| 文昌市| 临洮县| 施甸县| 安平县| 永登县| 苍溪县| 金坛市|