校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃

主頁 > 知識(shí)庫 > PyTorch模型轉(zhuǎn)TensorRT是怎么實(shí)現(xiàn)的?

PyTorch模型轉(zhuǎn)TensorRT是怎么實(shí)現(xiàn)的?

熱門標(biāo)簽:高德地圖標(biāo)注是免費(fèi)的嗎 梅州外呼業(yè)務(wù)系統(tǒng) 大連crm外呼系統(tǒng) 地圖標(biāo)注視頻廣告 百度地圖標(biāo)注位置怎么修改 無錫客服外呼系統(tǒng)一般多少錢 老人電話機(jī)器人 北京電信外呼系統(tǒng)靠譜嗎 洪澤縣地圖標(biāo)注

轉(zhuǎn)換步驟概覽

  • 準(zhǔn)備好模型定義文件(.py文件)
  • 準(zhǔn)備好訓(xùn)練完成的權(quán)重文件(.pth或.pth.tar)
  • 安裝onnx和onnxruntime
  • 將訓(xùn)練好的模型轉(zhuǎn)換為.onnx格式
  • 安裝tensorRT

環(huán)境參數(shù)

ubuntu-18.04
PyTorch-1.8.1
onnx-1.9.0
onnxruntime-1.7.2
cuda-11.1
cudnn-8.2.0
TensorRT-7.2.3.4

PyTorch轉(zhuǎn)ONNX

Step1:安裝ONNX和ONNXRUNTIME

網(wǎng)上找到的安裝方式是通過pip

pip install onnx
pip install onnxruntime

如果使用的是Anaconda環(huán)境,conda安裝也是可以的。

conda install -c conda-forge onnx
conda install -c conda-forge onnxruntime

Step2:安裝netron

netron是用于可視化網(wǎng)絡(luò)結(jié)構(gòu)的,便于debug。

pip install netron

Step3 PyTorch轉(zhuǎn)ONNx

安裝完成后,可以根據(jù)下面code進(jìn)行轉(zhuǎn)換。

#--*-- coding:utf-8 --*--
import onnx 
# 注意這里導(dǎo)入onnx時(shí)必須在torch導(dǎo)入之前,否則會(huì)出現(xiàn)segmentation fault
import torch
import torchvision 

from model import Net

model= Net(args).cuda()#初始化模型
checkpoint = torch.load(checkpoint_path)
net.load_state_dict(checkpoint['state_dict'])#載入訓(xùn)練好的權(quán)重文件
print ("Model and weights LOADED successfully")

export_onnx_file = './net.onnx'
x = torch.onnx.export(net,
					torch.randn(1,1,224,224,device='cuda'), #根據(jù)輸入要求初始化一個(gè)dummy input
					export_onnx_file,
					verbose=False, #是否以字符串形式顯示計(jì)算圖
					input_names = ["inputs"]+["params_%d"%i for i in range(120)],#輸入節(jié)點(diǎn)的名稱,這里也可以給一個(gè)list,list中名稱分別對(duì)應(yīng)每一層可學(xué)習(xí)的參數(shù),便于后續(xù)查詢
					output_names = ["outputs"],# 輸出節(jié)點(diǎn)的名稱
					opset_version  = 10,#onnx 支持采用的operator set, 應(yīng)該和pytorch版本相關(guān)
					do_constant_folding = True,
					dynamic_axes = {"inputs":{0:"batch_size"}, 2:"h", 3:"w"}, "outputs":{0: "batch_size"},})

net = onnx.load('./erfnet.onnx') #加載onnx 計(jì)算圖
onnx.checker.check_model(net) # 檢查文件模型是否正確
onnx.helper.printable_graph(net.graph) #輸出onnx的計(jì)算圖

dynamic_axes用于指定輸入、輸出中的可變維度。輸入輸出的batch_size在這里都設(shè)為了可變,輸入的第2和第3維也設(shè)置為了可變。

Step 4:驗(yàn)證ONNX模型

下面可視化onnx模型,同時(shí)測(cè)試模型是否正確運(yùn)行

import netron
import onnxruntime
import numpy as np
from PIL import Image
import cv2

netron.start('./net.onnx')
test_image = np.asarray(Image.open(test_image_path).convert('L'),dtype='float32') /255.
test_image = cv2.resize(np.array(test_image),(224,224),interpolation = cv2.INTER_CUBIC)
test_image = test_image[np.newaxis,np.newaxis,:,:]
session = onnxruntime.InferenceSession('./net.onnx')
outputs = session.run(None, {"inputs": test_image})
print(len(outputs))
print(outputs[0].shape)
#根據(jù)需要處理一下outputs[0],并可視化一下結(jié)果,看看結(jié)果是否正常

ONNX轉(zhuǎn)TensorRT

Step1:從NVIDIA下載TensorRT下載安裝包 https://developer.nvidia.com/tensorrt

根據(jù)自己的cuda版本選擇,我選擇的是TensorRT 7.2.3,下載到本地。

cd download_path
dpkg -i nv-tensorrt-repo-ubuntu1804-cuda11.1-trt7.2.3.4-ga-20210226_1-1_amd64.deb
sudo apt-get update
sudo apt-get install tensorrt

查了一下NVIDIA的官方安裝教程https://docs.nvidia.com/deeplearning/tensorrt/quick-start-guide/index.html#install,由于可能需要調(diào)用TensorRT Python API,我們還需要先安裝PyCUDA。這邊先插入一下PyCUDA的安裝。

pip install 'pycuda2021.1'

遇到任何問題,請(qǐng)參考官方說明 https://wiki.tiker.net/PyCuda/Installation/Linux/#step-1-download-and-unpack-pycuda
如果使用的是Python 3.X,再執(zhí)行一下以下安裝。

sudo apt-get install python3-libnvinfer-dev

如果需要ONNX graphsurgeon或使用Python模塊,還需要執(zhí)行以下命令。

sudo apt-get install onnx-graphsurgeon

驗(yàn)證是否安裝成功。

dpkg -l | grep TensorRT

得到類似上圖的結(jié)果就是安裝成功了。

問題:此時(shí)在python中import tensorrt,得到ModuleNotFoundError: No module named 'tensorrt'的報(bào)錯(cuò)信息。

網(wǎng)上查了一下,通過dpkg安裝的tensorrt是默認(rèn)安裝在系統(tǒng)python中,而不是Anaconda環(huán)境的python里的。由于系統(tǒng)默認(rèn)的python是3.6,而Anaconda里使用的是3.8.8,通過export PYTHONPATH的方式,又會(huì)出現(xiàn)python版本不匹配的問題。

重新搜索了一下如何在anaconda環(huán)境里安裝tensorRT。

pip3 install --upgrade setuptools pip
pip install nvidia-pyindex
pip install nvidia-tensorrt

驗(yàn)證一下這是Anconda環(huán)境的python是否可以import tensorrt。

import tensorrt
print(tensorrt.__version__)
#輸出8.0.0.3

Step 2:ONNX轉(zhuǎn)TensorRT

先說一下,在這一步里遇到了*** AttributeError: ‘tensorrt.tensorrt.Builder' object has no attribute 'max_workspace_size'的報(bào)錯(cuò)信息。網(wǎng)上查了一下,是8.0.0.3版本的bug,要退回到7.2.3.4。
emmm…

pip unintall nvidia-tensorrt #先把8.0.0.3版本卸載掉
pip install nvidia-tensorrt==7.2.* --index-url https://pypi.ngc.nvidia.com # 安裝7.2.3.4banben 

轉(zhuǎn)換代碼

import pycuda.autoinit 
import pycuda.driver as cuda
import tensorrt as trt
import torch 
import time 
from PIL import Image
import cv2,os
import torchvision 
import numpy as np
from scipy.special import softmax

### get_img_np_nchw h和postprocess_the_output函數(shù)根據(jù)需要進(jìn)行修改

TRT_LOGGER = trt.Logger()

def get_img_np_nchw(img_path):
	img = Image.open(img_path).convert('L')
	img = np.asarray(img, dtype='float32')
	img = cv2.resize(np.array(img),(224, 224), interpolation = cv2.INTER_CUBIC)
	img = img / 255.
	img = img[np.newaxis, np.newaxis]
	return image
class HostDeviceMem(object):
    def __init__(self, host_mem, device_mem):
        """host_mom指代cpu內(nèi)存,device_mem指代GPU內(nèi)存
        """
        self.host = host_mem
        self.device = device_mem

    def __str__(self):
        return "Host:\n" + str(self.host) + "\nDevice:\n" + str(self.device)

    def __repr__(self):
        return self.__str__()

def allocate_buffers(engine):
    inputs = []
    outputs = []
    bindings = []
    stream = cuda.Stream()
    for binding in engine:
        size = trt.volume(engine.get_binding_shape(binding)) * engine.max_batch_size
        dtype = trt.nptype(engine.get_binding_dtype(binding))
        # Allocate host and device buffers
        host_mem = cuda.pagelocked_empty(size, dtype)
        device_mem = cuda.mem_alloc(host_mem.nbytes)
        # Append the device buffer to device bindings.
        bindings.append(int(device_mem))
        # Append to the appropriate list.
        if engine.binding_is_input(binding):
            inputs.append(HostDeviceMem(host_mem, device_mem))
        else:
            outputs.append(HostDeviceMem(host_mem, device_mem))
    return inputs, outputs, bindings, stream

def get_engine(max_batch_size=1, onnx_file_path="", engine_file_path="",fp16_mode=False, int8_mode=False,save_engine=False):
    """
    params max_batch_size:      預(yù)先指定大小好分配顯存
    params onnx_file_path:      onnx文件路徑
    params engine_file_path:    待保存的序列化的引擎文件路徑
    params fp16_mode:           是否采用FP16
    params int8_mode:           是否采用INT8
    params save_engine:         是否保存引擎
    returns:                    ICudaEngine
    """
    # 如果已經(jīng)存在序列化之后的引擎,則直接反序列化得到cudaEngine
    if os.path.exists(engine_file_path):
        print("Reading engine from file: {}".format(engine_file_path))
        with open(engine_file_path, 'rb') as f, \

            trt.Runtime(TRT_LOGGER) as runtime:
            return runtime.deserialize_cuda_engine(f.read())  # 反序列化
    else:  # 由onnx創(chuàng)建cudaEngine
        
        # 使用logger創(chuàng)建一個(gè)builder 
        # builder創(chuàng)建一個(gè)計(jì)算圖 INetworkDefinition
        explicit_batch = 1  (int)(trt.NetworkDefinitionCreationFlag.EXPLICIT_BATCH)
        # In TensorRT 7.0, the ONNX parser only supports full-dimensions mode, meaning that your network definition must be created with the explicitBatch flag set. For more information, see Working With Dynamic Shapes.

        with trt.Builder(TRT_LOGGER) as builder, \

            builder.create_network(explicit_batch) as network,  \

            trt.OnnxParser(network, TRT_LOGGER) as parser, \

            builder.create_builder_config() as config: # 使用onnx的解析器綁定計(jì)算圖,后續(xù)將通過解析填充計(jì)算圖
            profile = builder.create_optimization_profile()
            profile.set_shape("inputs", (1, 1, 224, 224),(1,1,224,224),(1,1,224,224))
            config.add_optimization_profile(profile)

            config.max_workspace_size = 130  # 預(yù)先分配的工作空間大小,即ICudaEngine執(zhí)行時(shí)GPU最大需要的空間
            builder.max_batch_size = max_batch_size # 執(zhí)行時(shí)最大可以使用的batchsize
            builder.fp16_mode = fp16_mode
            builder.int8_mode = int8_mode

            if int8_mode:
                # To be updated
                raise NotImplementedError

            # 解析onnx文件,填充計(jì)算圖
            if not os.path.exists(onnx_file_path):
                quit("ONNX file {} not found!".format(onnx_file_path))
            print('loading onnx file from path {} ...'.format(onnx_file_path))
            # with open(onnx_file_path, 'rb') as model: # 二值化的網(wǎng)絡(luò)結(jié)果和參數(shù)
            #     print("Begining onnx file parsing")
            #     parser.parse(model.read())  # 解析onnx文件
            parser.parse_from_file(onnx_file_path) # parser還有一個(gè)從文件解析onnx的方法

            print("Completed parsing of onnx file")
            # 填充計(jì)算圖完成后,則使用builder從計(jì)算圖中創(chuàng)建CudaEngine
            print("Building an engine from file{}' this may take a while...".format(onnx_file_path))

            #################
            # import pdb;pdb.set_trace()
            print(network.get_layer(network.num_layers-1).get_output(0).shape)
            # network.mark_output(network.get_layer(network.num_layers -1).get_output(0))
            engine = builder.build_engine(network,config)  # 注意,這里的network是INetworkDefinition類型,即填充后的計(jì)算圖
            print("Completed creating Engine")
            if save_engine:  #保存engine供以后直接反序列化使用
                with open(engine_file_path, 'wb') as f:
                    f.write(engine.serialize())  # 序列化
            return engine

def do_inference(context, bindings, inputs, outputs, stream, batch_size=1):
    # Transfer data from CPU to the GPU.
    [cuda.memcpy_htod_async(inp.device, inp.host, stream) for inp in inputs]
    # Run inference.
    context.execute_async(batch_size=batch_size, bindings=bindings, stream_handle=stream.handle)
    # Transfer predictions back from the GPU.
    [cuda.memcpy_dtoh_async(out.host, out.device, stream) for out in outputs]
    # Synchronize the stream
    stream.synchronize()
    # Return only the host outputs.
    return [out.host for out in outputs]

def postprocess_the_outputs(outputs, shape_of_output):
    outputs = outputs.reshape(*shape_of_output)
    out = np.argmax(softmax(outputs,axis=1)[0,...],axis=0)
    # import pdb;pdb.set_trace()
    return out
# 驗(yàn)證TensorRT模型是否正確
onnx_model_path = './Net.onnx'
max_batch_size = 1
# These two modes are dependent on hardwares
fp16_mode = False
int8_mode = False
trt_engine_path = './model_fp16_{}_int8_{}.trt'.format(fp16_mode, int8_mode)
# Build an engine
engine = get_engine(max_batch_size, onnx_model_path, trt_engine_path, fp16_mode, int8_mode , save_engine=True)
# Create the context for this engine
context = engine.create_execution_context()
# Allocate buffers for input and output
inputs, outputs, bindings, stream = allocate_buffers(engine)  # input, output: host # bindings

# Do inference
img_np_nchw = get_img_np_nchw(img_path)
inputs[0].host = img_np_nchw.reshape(-1)
shape_of_output = (max_batch_size, 2, 224, 224)

# inputs[1].host = ... for multiple input
t1 = time.time()
trt_outputs = do_inference(context, bindings=bindings, inputs=inputs, outputs=outputs, stream=stream) # numpy data
t2 = time.time()
feat = postprocess_the_outputs(trt_outputs[0], shape_of_output)

print('TensorRT ok')
print("Inference time with the TensorRT engine: {}".format(t2-t1))

根據(jù)https://www.jb51.net/article/187266.htm文章里的方法,轉(zhuǎn)換的時(shí)候會(huì)報(bào)下面的錯(cuò)誤:

原來我是根據(jù)鏈接里的代買進(jìn)行轉(zhuǎn)換的,后來進(jìn)行了修改,按我文中的轉(zhuǎn)換代碼不會(huì)有問題,

修改的地方在

with trt.Builder(TRT_LOGGER) as builder, \

            builder.create_network(explicit_batch) as network,  \

            trt.OnnxParser(network, TRT_LOGGER) as parser, \

            builder.create_builder_config() as config: # 使用onnx的解析器綁定計(jì)算圖,后續(xù)將通過解析填充計(jì)算圖
            profile = builder.create_optimization_profile()
            profile.set_shape("inputs", (1, 1, 224, 224),(1,1,224,224),(1,1,224,224))
            config.add_optimization_profile(profile)

            config.max_workspace_size = 130  # 預(yù)先分配的工作空間大小,即ICudaEngine執(zhí)行時(shí)GPU最大需要的空間
            engine = builder.build_engine(network,config)

將鏈接中相應(yīng)的代碼進(jìn)行修改或添加,就沒有這個(gè)問題了。

到此這篇關(guān)于PyTorch模型轉(zhuǎn)TensorRT是怎么實(shí)現(xiàn)的?的文章就介紹到這了,更多相關(guān)PyTorch模型轉(zhuǎn)TensorRT內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • Pytorch通過保存為ONNX模型轉(zhuǎn)TensorRT5的實(shí)現(xiàn)
  • pytorch_pretrained_bert如何將tensorflow模型轉(zhuǎn)化為pytorch模型
  • pytorch模型的保存和加載、checkpoint操作
  • PyTorch 如何檢查模型梯度是否可導(dǎo)
  • 解決Pytorch修改預(yù)訓(xùn)練模型時(shí)遇到key不匹配的情況
  • pytorch 預(yù)訓(xùn)練模型讀取修改相關(guān)參數(shù)的填坑問題

標(biāo)簽:清遠(yuǎn) 岳陽 吉林 安慶 泉州 洛陽 長(zhǎng)春 怒江

巨人網(wǎng)絡(luò)通訊聲明:本文標(biāo)題《PyTorch模型轉(zhuǎn)TensorRT是怎么實(shí)現(xiàn)的?》,本文關(guān)鍵詞  PyTorch,模型,轉(zhuǎn),TensorRT,是,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請(qǐng)?zhí)峁┫嚓P(guān)信息告之我們,我們將及時(shí)溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《PyTorch模型轉(zhuǎn)TensorRT是怎么實(shí)現(xiàn)的?》相關(guān)的同類信息!
  • 本頁收集關(guān)于PyTorch模型轉(zhuǎn)TensorRT是怎么實(shí)現(xiàn)的?的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    校园春色亚洲色图_亚洲视频分类_中文字幕精品一区二区精品_麻豆一区区三区四区产品精品蜜桃
    依依成人精品视频| 蜜臀av性久久久久蜜臀aⅴ流畅| 中文字幕不卡在线播放| 欧美r级电影在线观看| 91精品国产色综合久久ai换脸| 欧美老肥妇做.爰bbww视频| 欧美视频日韩视频| 欧美精品 日韩| 欧美一级日韩免费不卡| 欧美一级日韩不卡播放免费| 精品国产91乱码一区二区三区 | 99精品1区2区| 色综合天天做天天爱| 91激情在线视频| 欧美美女一区二区在线观看| 日韩欧美激情一区| 久久婷婷综合激情| 国产精品麻豆欧美日韩ww| 亚洲精品一二三| 天天色综合天天| 毛片av一区二区| 成人性生交大片免费看视频在线 | 欧美国产日韩精品免费观看| 国产精品狼人久久影院观看方式| 综合在线观看色| 亚洲成a人片综合在线| 日韩有码一区二区三区| 国产一区亚洲一区| 91污在线观看| 欧美一区二区三区免费| 国产欧美一区二区精品性| 亚洲视频精选在线| 秋霞av亚洲一区二区三| 国产成人亚洲综合a∨婷婷| 色一情一伦一子一伦一区| 91精品国产黑色紧身裤美女| 亚洲男人的天堂在线观看| 天堂资源在线中文精品| 国产盗摄一区二区三区| 色哟哟亚洲精品| 精品国产91洋老外米糕| 亚洲精品中文在线| 狠狠色综合播放一区二区| 不卡一区二区三区四区| 欧美日韩午夜在线| 久久综合九色综合欧美就去吻| 亚洲美女视频在线| 黑人巨大精品欧美黑白配亚洲| 99久久99精品久久久久久| 日韩午夜激情电影| 亚洲精品网站在线观看| 经典三级视频一区| 日本黄色一区二区| 久久一区二区视频| 亚洲高清免费在线| 成人在线视频首页| 日韩你懂的在线播放| 亚洲免费成人av| 国产电影一区在线| 日韩一级二级三级| 一区二区三区在线播放| 国产一区二区导航在线播放| 欧美日韩在线精品一区二区三区激情| 亚洲精品一区在线观看| 水野朝阳av一区二区三区| 91视频xxxx| 久久久精品人体av艺术| 蜜臀久久99精品久久久久久9| 99久久免费国产| 精品福利一二区| 日韩 欧美一区二区三区| 免费欧美高清视频| 欧美自拍偷拍一区| 中文字幕人成不卡一区| 国产又粗又猛又爽又黄91精品| 91精品婷婷国产综合久久性色| 亚洲美女屁股眼交| 成人av高清在线| 欧美精品一区二区不卡| 午夜精品一区二区三区三上悠亚| 97久久超碰精品国产| 国产精品视频一区二区三区不卡| 激情国产一区二区| 欧美一卡二卡在线| 午夜精品福利视频网站| 色婷婷一区二区三区四区| 国产精品视频yy9299一区| 国产酒店精品激情| 欧美精品一区二区三区一线天视频| 日韩高清在线一区| 欧美日韩中字一区| 亚洲超丰满肉感bbw| 91高清在线观看| 亚洲综合在线视频| 色八戒一区二区三区| 亚洲色图在线视频| 91丨porny丨户外露出| 亚洲欧美在线视频| 99久久国产免费看| 成人免费在线视频| aaa欧美色吧激情视频| 国产精品美女久久久久久久| 国产不卡在线播放| 国产精品全国免费观看高清| 成人性生交大片免费看在线播放| 国产欧美一区二区三区在线老狼| 国产成人av一区二区| 国产精品色婷婷| 不卡的av中国片| 亚洲欧美另类久久久精品| 91婷婷韩国欧美一区二区| 亚洲精品乱码久久久久久日本蜜臀| 色94色欧美sute亚洲13| 亚洲香肠在线观看| 欧美日本在线播放| 日本欧美久久久久免费播放网| 91精品国产欧美日韩| 九九视频精品免费| 国产视频一区在线观看| a亚洲天堂av| 一区二区高清免费观看影视大全 | 欧美艳星brazzers| 亚洲电影激情视频网站| 69av一区二区三区| 国产乱码精品一区二区三区忘忧草| 国产亚洲综合色| 一本一本大道香蕉久在线精品| 亚洲午夜久久久久久久久电影院| 欧美裸体一区二区三区| 国产在线精品一区在线观看麻豆| 国产精品乱人伦一区二区| 欧美中文一区二区三区| 老色鬼精品视频在线观看播放| 久久久久久久久久看片| 97精品久久久久中文字幕| 午夜精品久久久久久不卡8050| 日韩欧美成人一区二区| 成人在线视频一区二区| 亚洲国产另类av| 2020国产精品久久精品美国| 91免费观看视频在线| 日日夜夜免费精品视频| 久久一日本道色综合| 色婷婷av一区| 激情av综合网| 一区二区三区自拍| 日韩精品一区二区三区视频| 99久久精品情趣| 日韩不卡免费视频| 国产精品美女久久久久久| 7777精品久久久大香线蕉| 国产高清久久久| 亚洲福利一区二区三区| 国产三级久久久| 欧美日韩国产高清一区二区 | www.一区二区| 奇米888四色在线精品| 国产精品伦一区二区三级视频| 在线播放日韩导航| 不卡视频在线观看| 日本不卡免费在线视频| 日韩伦理免费电影| 久久综合色婷婷| 欧美亚洲国产怡红院影院| 国产在线播放一区三区四| 亚洲第一久久影院| 国产精品女主播av| 精品国产乱子伦一区| 欧美日韩一级片在线观看| 不卡电影免费在线播放一区| 久久精品国产免费看久久精品| 韩国欧美国产1区| 亚洲一区二区三区精品在线| 国产女同互慰高潮91漫画| 欧美一区二区三区小说| 欧美又粗又大又爽| 成人午夜免费电影| 久久99精品国产麻豆婷婷| 午夜精品一区二区三区电影天堂| 国产精品久久二区二区| 久久免费午夜影院| 日韩欧美的一区| 欧美精品黑人性xxxx| 一本久久精品一区二区| 盗摄精品av一区二区三区| 黄网站免费久久| 青青草成人在线观看| 天天亚洲美女在线视频| 亚洲国产精品影院| 综合久久国产九一剧情麻豆| 久久久国产午夜精品| 日韩一区二区在线免费观看| 欧美日韩成人综合在线一区二区| 91在线免费播放| www.成人网.com| 成人av网址在线| 成人av在线播放网址| 国产91精品精华液一区二区三区 | 综合欧美一区二区三区| 中文字幕av免费专区久久|