校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃

主頁 > 知識庫 > 解決python存數據庫速度太慢的問題

解決python存數據庫速度太慢的問題

熱門標簽:400電話申請服務商選什么 千陽自動外呼系統 清遠360地圖標注方法 江蘇客服外呼系統廠家 在哪里辦理400電話號碼 西藏智能外呼系統五星服務 平頂山外呼系統免費 工廠智能電話機器人 原裝電話機器人

問題

在項目中遇到一個問題,需要從文本中讀取三萬條數據寫入mysql數據庫,文件中為用@分割的sql語句,但是在讀取的過程中發現速度過慢,三萬八千條數據需要220秒,問題代碼片段如下:

def read_to_mysql(filecata, targetDir):
 '''
 用來寫入數據庫,寫入后會剪貼掉文件
 filecata 為保存有文件地址的list,已去掉尾部的空格
 :param filecata: 文件目錄
 :param targetDir: 要復制的目標目錄
 :return:
 '''
 root_dir = os.path.abspath(os.path.join(os.getcwd(), "./"))
 config = configparser.ConfigParser()
 config.read(root_dir + "/config.ini")
 __host = config.get("DatabaseOfWRT", "host")
 __database_name = config.get("DatabaseOfWRT", "database")
 __user_name = config.get("DatabaseOfWRT", "username")
 __user_passwaord = config.get("DatabaseOfWRT", "password")
 __charset = config.get("DatabaseOfWRT", "charset")
 conn = pymysql.connect(
  host=__host,
  user=__user_name, password=__user_passwaord,
  database=__database_name,
  charset=__charset
 )
 cursor = conn.cursor()
 with open(filecata, "r", encoding='utf-8') as f:
  data = f.read() # 讀取文件
  data_list = data.split('@')
  del data_list[-1]
  starttime = int(time.time())
  for data_str in data_list:
   data_str = str(data_str)
   sql = data_str + ';'
   cursor.execute(sql)
   conn.commit()
   print(flag)
 copy_del_file(filecata, targetDir) # 用來剪切的函數,此處不影響,因而省略
 cursor.close()
 conn.close()

解決方案

經測試發現,影響速度的主要原因是commit(),因為沒過幾秒提交一次即可,但是因為提交的字符長度有限制,所以要設置一個合理的時間讀取,代碼修改如下:

def read_to_mysql(filecata, targetDir):
 '''
 用來寫入數據庫,寫入后會剪貼掉文件
 filecata 為保存有文件地址的list,已去掉尾部的空格
 :param filecata:
 :param targetDir: 要復制的目標目錄
 :return:
 '''
 root_dir = os.path.abspath(os.path.join(os.getcwd(), "./"))
 config = configparser.ConfigParser()
 config.read(root_dir + "/config.ini")
 __host = config.get("DatabaseOfWRT", "host")
 __database_name = config.get("DatabaseOfWRT", "database")
 __user_name = config.get("DatabaseOfWRT", "username")
 __user_passwaord = config.get("DatabaseOfWRT", "password")
 __charset = config.get("DatabaseOfWRT", "charset")
 conn = pymysql.connect(
  host=__host,
  user=__user_name, password=__user_passwaord,
  database=__database_name,
  charset=__charset
 )
 cursor = conn.cursor()
 with open(filecata, "r", encoding='utf-8') as f:
  data = f.read() # 讀取文件
  data_list = data.split('@')
  del data_list[-1]
  starttime = int(time.time())
  for data_str in data_list:
   endtime = int(time.time())
   data_str = str(data_str)
   sql = data_str + ';'
   cursor.execute(sql)
   if endtime - starttime ==10: # 每過十秒提交一次
    starttime = int(time.time())
    conn.commit()
 conn.commit()
 copy_del_file(filecata, targetDir)
 cursor.close()
 conn.close()
 return flag

此時寫入三萬八千條數據需要9秒

補充:python 連數據庫cursur.fetchall ()速度慢的解決方案

解決游標遍歷慢的方法:

一行一行去遍歷,而不是一下全部讀取出來

將cursur.fetchall()更改為for i in cursur:

補充:python 讀取文件時速度的問題

"""舉例 讀取文件"""
# 第一種方式
with open('test.txt', 'r', encoding='utf-8') as f:
 info = f.readlines()
 for line in info:
 pass
# 第二種方式
with open('test.txt', 'r', encoding='utf-8') as f:
 for line in f:
 pass

對于以上兩種方式讀取文件,各自有各自的用途,當用兩種方式都可以時,第二種方式的效率是第一種的幾個量級, readlines()將文件內容讀取到內存的list中,操作雖然方便,但是消耗內存,運行效率慢。

原生的f是將文件內容讀到生成器中, 當需要操作時,從生成器中循環出來,速度很快,操作大文件時建議用第二種方式!

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。

您可能感興趣的文章:
  • 基于python不同開根號的速度對比分析
  • python各種excel寫入方式的速度對比
  • Python3如何使用多線程升程序運行速度
  • python+pygame實現坦克大戰小游戲的示例代碼(可以自定義子彈速度)
  • Python requests及aiohttp速度對比代碼實例
  • Python庫安裝速度過慢解決方案
  • 一行代碼讓 Python 的運行速度提高100倍

標簽:股票 錦州 西安 安慶 日照 白城 天水 隨州

巨人網絡通訊聲明:本文標題《解決python存數據庫速度太慢的問題》,本文關鍵詞  解決,python,存,數據庫,速度,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《解決python存數據庫速度太慢的問題》相關的同類信息!
  • 本頁收集關于解決python存數據庫速度太慢的問題的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 新和县| 温州市| 河南省| 白银市| 澎湖县| 丽江市| 板桥市| 黄山市| 神农架林区| 赤壁市| 凌云县| 晋中市| 龙门县| 永丰县| 庄河市| 金川县| 灌云县| 北流市| 曲阳县| 海宁市| 乌恰县| 水城县| 聂荣县| 台湾省| 寿阳县| 杂多县| 铁岭市| 伽师县| 新安县| 甘洛县| 高淳县| 离岛区| 厦门市| 黔南| 清河县| 佛坪县| 准格尔旗| 都江堰市| 枞阳县| 嵊泗县| 临安市|