国产精品久久久久影院免费_免费一级欧美大片app_色屁屁www影院免费观看视频_久久久91精品国产一区二区

職稱論文咨詢網(wǎng),專業(yè)提供留學(xué)生論文、職稱發(fā)表論文等各類論文學(xué)術(shù)咨詢服務(wù)的論文網(wǎng)站。

當(dāng)前位置:首頁 > 論文百科

深度神經(jīng)網(wǎng)絡(luò)壓縮與加速綜述-經(jīng)濟職稱論文發(fā)表范文

來源:職稱論文咨詢網(wǎng)發(fā)布時間:2022-06-05 21:22:55
摘要:近年來,隨著圖形處理器性能的飛速提升,深度神經(jīng)網(wǎng)絡(luò)取得了巨大的發(fā)展成就,在許多人工智能任務(wù)中屢創(chuàng)佳績。然而,主流的深度學(xué)習(xí)網(wǎng)絡(luò)模型由于存在計算復(fù)雜度高、內(nèi)存占用較大、耗時長等缺陷,難以部署在計算資源受限的移動設(shè)備或時延要求嚴格的應(yīng)用中。因此,在不顯著影響模型精度的前提下,通過對深度神經(jīng)網(wǎng)絡(luò)進行壓縮和加速來輕量化模型逐漸引起研究者們的重視。本文回顧了近年來的深度神經(jīng)網(wǎng)絡(luò)壓縮和加速技術(shù)。這些技術(shù)分為四類:參數(shù)量化、模型剪枝、輕量型卷積核設(shè)計和知識蒸餾。對于每個技術(shù)類別,本文首先分析了各自的性能及存在的缺陷。另外,本文總結(jié)了模型壓縮與加速的性能評估方法。最后,討論了模型壓縮與加速領(lǐng)域存在的挑戰(zhàn)和未來研究的可能方向。   關(guān)鍵詞:深度神經(jīng)網(wǎng)絡(luò)壓縮與加速;深度學(xué)習(xí);模型剪枝;知識蒸餾;參數(shù)量化   1引言   近年來,深度神經(jīng)網(wǎng)絡(luò)DeepNeuralNetwork,DNN)受到了學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注,被大量應(yīng)用于人工智能各個領(lǐng)域。然而,深度神經(jīng)網(wǎng)絡(luò)的成功很大程度上依賴于GPU(GraphicProcessingUnit,GPU)計算能力的發(fā)展。大型深度神經(jīng)網(wǎng)絡(luò)存在結(jié)構(gòu)復(fù)雜、層級較多、節(jié)點數(shù)量巨大等特點,例如早期在ILSVRC競賽中取得了重大突破的AlexNet是針對圖像分類任務(wù)而設(shè)計的卷積神經(jīng)網(wǎng)絡(luò),僅由個卷積層與個全連接層組成,所含參數(shù)量超過千萬,模型大小超過240MB。   此外,業(yè)界廣泛使用的模型VGG16則擁有1.44億個參數(shù),模型大小超過00MB,ResNet152擁有0.57億個參數(shù),模型大小達到230MB。采用上述模型對一幅224×224的彩色圖像進行分類,分別需要進行150億次和13億次浮點型計算。另外,由于ResNet系列模型具有復(fù)雜的分支結(jié)構(gòu),雖然其參數(shù)量相較于具有平坦結(jié)構(gòu)的GG模型更小,但在實際訓(xùn)練和推理中耗時更長。   神經(jīng)網(wǎng)絡(luò)論文范例: 基于樹分類器神經(jīng)網(wǎng)絡(luò)的雷暴預(yù)測方法   可見,主流深度學(xué)習(xí)模型的存儲和計算成本對于具有嚴格時延約束條件的實時應(yīng)用來說過于高昂。隨著移動端設(shè)備的普及和市場規(guī)模的擴大,工業(yè)界迫切需要將深度學(xué)習(xí)模型部署到資源有限的邊緣設(shè)備上。然而嵌入式設(shè)備和現(xiàn)場可編程門陣列(FieldProgrammableGateArray,F(xiàn)PGA)所具有的內(nèi)存容量、計算資源與GPU相差幾個數(shù)量級,面對龐大的神經(jīng)網(wǎng)絡(luò)模型顯得捉襟見肘,因此模型壓縮及加速的工作變得至關(guān)重要。目前,根據(jù)不同壓縮與加速方法的性質(zhì),深度神經(jīng)網(wǎng)絡(luò)的壓縮和加速方法可分為四類:參數(shù)量化、模型剪枝、輕量型卷積核設(shè)計和知識蒸餾。   其中,基于參數(shù)量化的方法是降低權(quán)重參數(shù)的存儲位數(shù);基于參數(shù)剪枝的方法是通過去除權(quán)重參數(shù)中的非關(guān)鍵冗余部分來減少參數(shù)量;基于輕量型卷積核設(shè)計的方法從濾波結(jié)構(gòu)乃至卷積方式的層面進行改進設(shè)計,從而降低計算復(fù)雜度;基于知識蒸餾的方法利用知識遷移來訓(xùn)練一個緊湊的網(wǎng)絡(luò)模型且能復(fù)現(xiàn)大型網(wǎng)絡(luò)的性能。   我們將在下面的章節(jié)中分別對它們的特性和優(yōu)缺點進行分析。具體地,我們將在后續(xù)章節(jié)中作進一步的介紹。本文剩余部分的安排如下:第節(jié)介紹模型壓縮的主流方法;第節(jié)介紹常用數(shù)據(jù)集與性能評價準則;第節(jié)給出未來研究方向的一些相關(guān)探討;第節(jié)給出總結(jié)。模型壓縮方法本節(jié)將按照參數(shù)量化、模型剪枝、輕量型卷積核設(shè)計以及知識蒸餾的順序進行介紹。   2.1參數(shù)量化   參數(shù)量化通過減少存儲權(quán)重參數(shù)及激活值所需的比特位數(shù)來壓縮原始網(wǎng)絡(luò)。通過該方法,網(wǎng)絡(luò)中權(quán)值和激活值都會被量化,并且浮點乘法累加操作(MultiplyAccumulate)可以被低比特的乘法累加操作代替。因此,使用降低比特數(shù)的方法可以顯著減少內(nèi)存存儲占用和計算資源的耗費。Gong等人[1]和Wu等人[2]通過means聚類實現(xiàn)參數(shù)共享,只需要存儲作為權(quán)重索引值的個質(zhì)心而不是所有權(quán)重值,顯著減少了內(nèi)存開銷。   Gupta等人[3]在基于隨機舍入的CNN(ConvolutionalNeuralNetwork)訓(xùn)練中采用了16位定點數(shù)表示,顯著減少了模型的內(nèi)存占用和浮點運算,而分類精度幾乎沒有損失。進一步地,Han等人[4]提出的方法利用權(quán)值共享對權(quán)值進行量化,然后對量化后的權(quán)值和索引表進行霍夫曼編碼,以縮減模型大小。如圖所示,首先對原始網(wǎng)絡(luò)進行訓(xùn)練,學(xué)習(xí)神經(jīng)元間的連接(connection),將權(quán)重較小的連接剪除,然后對稀疏網(wǎng)絡(luò)進行重訓(xùn)練,學(xué)習(xí)得到緊湊的新網(wǎng)絡(luò)。Choi等人[5]證明了利用Hessian權(quán)重來衡量網(wǎng)絡(luò)權(quán)值重要性的可行性,并提出了一種聚類參數(shù),用于最小化Hessian加權(quán)量化誤差。Vanhoucke等人[6]的研究表明,將權(quán)重值量化至位,能夠顯著提升推理速度,同時保證最小的精度損失。   Jacob等人[7]提出一種量化框架,在訓(xùn)練時保留位全精度存儲方式,而在前向推理時對權(quán)重值與激活值進行位量化,從而用整數(shù)運算替代浮點數(shù)運算,顯著降低了運算復(fù)雜度。目前位量化已經(jīng)在工業(yè)界得到了廣泛應(yīng)用,除上述方法外,英偉達Nvidia)公司推出了TensorRTint量化工具,對于正負分布均勻的權(quán)重值與激活值采用最大值映射,將取值范圍按一定比例映射至127,127),對于分布不均勻的值采用飽和截斷映射,即在映射前截斷部分區(qū)間,得到在正負區(qū)間對稱的截斷信息后再進行量化映射。值得一提的是,二值神經(jīng)網(wǎng)絡(luò)是網(wǎng)絡(luò)量化的極端情況。   一般情況下,網(wǎng)絡(luò)模型中各項參數(shù)都采取32位單精度浮點數(shù)進行存儲,而二值網(wǎng)絡(luò)中將參數(shù)及特征圖激活值都以+1,形式存儲,每個值僅占用1比特內(nèi)存,類似地,三值網(wǎng)絡(luò)[8]采用+1, 的組合來量化權(quán)重。早期對網(wǎng)絡(luò)二值化進行探索的幾項工作,如BinaryConnect[9],BinaryNet[10]和XNOR1]等都是在模型訓(xùn)練過程中直接學(xué)習(xí)二值化權(quán)值或激活值。然而,由于大部分二值網(wǎng)絡(luò)設(shè)計在利用矩陣近似的思想時未能充分考慮二值化帶來的精度損失,并且網(wǎng)絡(luò)量化將參數(shù)離散化,加劇了訓(xùn)練的不穩(wěn)定性,在對諸如GoogleNet等大型CNN進行量化壓縮后,容易導(dǎo)致二值網(wǎng)絡(luò)在分類、檢測任務(wù)中的精度顯著降低。   為解決這個問題,ou等人[12]的工作提出了一種近似牛頓算法(proximalNewtonalgorithm),該算法利用對角Hessian近似將二值權(quán)重的損失最小化。iu等人[13]提出一種可求導(dǎo)的軟性量化(Differentiable SoftQuantization,DSQ),使網(wǎng)絡(luò)在反向傳播過程中獲得更精確的梯度,以彌補二值網(wǎng)絡(luò)前向傳播過程中的量化損失。   Lin等人[14]提出一種對權(quán)重進行隨機二值化處理的壓縮方法,隨機二值化不僅能夠減少浮點運算次數(shù),還具有一定的正則化效果,能夠抑制二值化造成的精度損失。Zhang等人[15]認為,由于DNN的權(quán)重、激活值在各個卷積層的數(shù)值分布是不同的,因此對整個網(wǎng)絡(luò)采取統(tǒng)一標準的量化策略缺乏靈活性。他們提出一種可習(xí)得的量化器,即聯(lián)合訓(xùn)練模型與其量化器,在訓(xùn)練過程中逐層優(yōu)化量化策略,以提升壓縮后的模型精度。   Cai等人[16]提出一種基于半波高斯量化(halfwaveGaussianQuantization)的近似方法,在二值化權(quán)重的基礎(chǔ)上,將激活函數(shù)ReLU(RectifiedLinearUnit)進行近似處理,以適應(yīng)二值化網(wǎng)絡(luò)的反向傳播計算,使學(xué)習(xí)過程更加穩(wěn)定,減小精度損失。Bethge等人[17]中提出一種二值化網(wǎng)絡(luò)結(jié)構(gòu)MeliusNet,該結(jié)構(gòu)采用雙塊設(shè)計,能夠連續(xù)地提升特征數(shù)量,此外該結(jié)構(gòu)對一些保持32位存儲的卷積層進行重新設(shè)計,極大地減少了運算量。   2.2模型剪枝   模型剪枝是模型壓縮和加速中使用最為廣泛的研究方法。模型剪枝的基本思想是通過在預(yù)訓(xùn)練的DNN模型中剪除冗余的、信息量少的權(quán)重,將網(wǎng)絡(luò)結(jié)構(gòu)稀疏化,從而降低內(nèi)存開銷,加速推理過程。剪枝方法包括非結(jié)構(gòu)化剪枝和結(jié)構(gòu)化剪枝。非結(jié)構(gòu)化剪枝是最細粒度的方法,其操作對象是濾波(filter)中的每個權(quán)重;而結(jié)構(gòu)化剪枝的操作對象是整個濾波,乃至整個卷積層這樣的結(jié)構(gòu)化信息。   2.2.1非結(jié)構(gòu)化剪枝   早期的剪枝方法大都基于非結(jié)構(gòu)化剪枝,由于它裁剪的粒度為單個神經(jīng)元,因此在對卷積核進行非結(jié)構(gòu)化剪枝時,得到稀疏分布的卷積核,即存在較多元素為0的矩陣,因此可以有效減少內(nèi)存占用,加速推理。   2.2.2結(jié)構(gòu)化剪枝   目前,在基于結(jié)構(gòu)化剪枝的研究工作當(dāng)中已涌現(xiàn)出許多出色的研究成果,解決了無法對稀疏矩陣計算進行加速的問題。此類方法遵循濾波顯著性準則(即判別濾波對于模型性能重要性的準則),直接批量地剪除非顯著性濾波,達到壓縮目的。Wen等人[24]利用GroupLasso對模型中不同粒度的結(jié)構(gòu),包括濾波、通道、濾波形狀、層深度(filters,channels,filtershapes,layerdepth)進行正則化,并將此正則化項加入目標函數(shù),進行結(jié)構(gòu)化稀疏訓(xùn)練。Zhou等人[25]向目標函數(shù)中加入稀疏性局限(sparseconstraints),然后在訓(xùn)練階段通過稀疏限制減少神經(jīng)元數(shù)量。   該方法針對其特殊的優(yōu)化過程還提出前后項分裂法,其作用是在標準的反向傳播過程中,可以繞過不易求導(dǎo)的稀疏限制項。通過計算濾波的范數(shù)值,直接判斷濾波的重要性的方法也相繼被提出[26],該方法首先計算所有濾波的L1范數(shù),逐層刪除范數(shù)值低于閾值的濾波,同時移除該濾波在當(dāng)前層生成的特征圖(featuremap)以及該特征圖在下一層中對應(yīng)的濾波通道,剪枝后再進行重訓(xùn)練,恢復(fù)模型的精度。Liu等人[27]提出一種介于粗、細粒度之間的通道級別剪枝。   該方法向存在于每個卷積層的批量標準化(BatchNormalization)中的縮放因子γ添加稀疏正則限制,并將此正則項加入目標函數(shù),與模型損失函數(shù)聯(lián)合訓(xùn)練,受正則化限制,部分縮放因子將衰減至接近的區(qū)域。由于批量標準化中超參數(shù)γ的大小能夠直接改變特征圖的分布,進而影響模型的表達能力,因此較小的縮放因子對應(yīng)著全局貢獻度較低的通道,對這些通道進行剪除,再通過微調(diào)(finetune)恢復(fù)模型精度,有效降低了網(wǎng)絡(luò)的復(fù)雜度。不同于前述方法,Luo等人[28]越過當(dāng)前層濾波,著眼于下一層濾波通道的顯著性,建立了一個有效的通道選擇優(yōu)化函數(shù),實現(xiàn)對下一層卷積核中冗余通道及其對應(yīng)當(dāng)前層濾波的剪枝。   3數(shù)據(jù)集與性能評估準則   3.1性能評估準則   大多數(shù)研究都是采用每輪(epoch)訓(xùn)練的平均訓(xùn)練時間來衡量運行時間。對于不同的訓(xùn)練集,一般都采用Top正確率和Top正確率兩種分類精度,其中Top正確率指概率最大的預(yù)測結(jié)果對應(yīng)正確標簽的概率,Top正確率指概率最大的個預(yù)測結(jié)果中包含正確標簽的概率。   4總結(jié)和展望   本文首先概述了深度神經(jīng)網(wǎng)絡(luò)壓縮與加速技術(shù)的研究背景;接著介紹了深度神經(jīng)網(wǎng)絡(luò)模型壓縮及加速的四類主要方法,包括參數(shù)量化、模型剪枝、輕量型卷積核設(shè)計以及知識蒸餾;之后介紹分析了模型壓縮與加速領(lǐng)域常用的數(shù)據(jù)集與性能評估準則;接下來對各類方法進行優(yōu)劣分析。   4.1方法優(yōu)劣分析   1)參數(shù)量化:基于參數(shù)量化的壓縮方法在一定程度上縮減了模型大小,使得模型能夠在計算資源與存儲空間受限的移動端和嵌入式設(shè)備上高效運行。但量化后的權(quán)重和激活降低了網(wǎng)絡(luò)的容量和特征圖的質(zhì)量,往往使得模型的表達能力大打折扣,另外,量化會向梯度信息中引入噪聲,導(dǎo)致基于梯度下降法的訓(xùn)練過程收斂難度增加。這些缺陷會造成量化后網(wǎng)絡(luò)的精度低于原始網(wǎng)絡(luò),二值化網(wǎng)絡(luò)中精度損失更加嚴重。因此基于網(wǎng)絡(luò)量化的壓縮方法具有一定局限性,但量化具有較好的兼容性,在實際應(yīng)用中常與其他壓縮方法相結(jié)合。   2)模型剪枝:基于模型剪枝的壓縮方法具有直觀的物理意義,在實際應(yīng)用中也展現(xiàn)出理想的壓縮性能,但該方法也存在一定缺陷。首先,相比于其他壓縮方法,基于L1或L2正則化的剪枝收斂較慢,需要更多次數(shù)的迭代訓(xùn)練。其次,剪枝相當(dāng)于優(yōu)化網(wǎng)絡(luò)的整體結(jié)構(gòu),對具有不同結(jié)構(gòu)特點的網(wǎng)絡(luò)模型往往不能采用完全相同的剪枝策略。對于不同類型網(wǎng)絡(luò)在不同訓(xùn)練數(shù)據(jù)集下的剪枝方法還不能完全統(tǒng)一。   此外,人工設(shè)計的剪枝方法需要根據(jù)不同層級的敏感度,手動調(diào)節(jié)剪枝閾值,重復(fù)微調(diào)參數(shù),實現(xiàn)過程繁瑣。而自動化剪枝能夠綜合評估多種剪枝方案,自動搜索最優(yōu)結(jié)構(gòu),確定復(fù)雜的超參數(shù),但對于大型網(wǎng)絡(luò)來說,搜索空間過于龐大,對算力要求極高,耗時較長。   3)輕量型卷積核設(shè)計:基于輕量型卷積核設(shè)計的壓縮方法對原始卷積核進行緊湊設(shè)計或直接采用運算量遠小于標準卷積的新式卷積計算方式,能夠有效降低參數(shù)量,大幅減少浮點運算次數(shù)。但囿于輕量型卷積核設(shè)計的獨特性,壓縮后的模型十分緊湊,較難在其中綜合應(yīng)用其他壓縮技術(shù)來進一步提升效果。另外,相比于大而深的原始模型,基于輕量型卷積核設(shè)計的網(wǎng)絡(luò)模型由于容量受限,訓(xùn)練得到的特征泛化能力稍弱。   4)知識蒸餾:基于知識蒸餾的壓縮方法相當(dāng)于用一個神經(jīng)網(wǎng)絡(luò)訓(xùn)練另一個神經(jīng)網(wǎng)絡(luò),將大型復(fù)雜網(wǎng)絡(luò)的知識遷移至小型簡易網(wǎng)絡(luò)中,利用小型網(wǎng)絡(luò)來實現(xiàn)擁有與大型網(wǎng)絡(luò)相同優(yōu)越的性能和良好的泛化能力,并且顯著降低了所需存儲空間和計算資源。知識蒸餾的缺陷之一是只能應(yīng)用于具有softmax分類器及交叉熵損失函數(shù)的分類任務(wù),應(yīng)用場景較為局限。另一個缺點是與其他類型的方法相比,基于知識蒸餾的壓縮方法在大型數(shù)據(jù)集的表現(xiàn)略差。   4.2未來發(fā)展趨勢   綜合以上對近期研究成果的分析可以得知,深度神經(jīng)網(wǎng)絡(luò)壓縮與加速的研究仍然具有巨大的潛力和研究空間,未來的研究工作不僅需要進一步提高模型壓縮效率與推理速度,并且應(yīng)打破學(xué)術(shù)界與工業(yè)界之間的壁壘。以下介紹模型壓縮與加速領(lǐng)域需要進一步探索和開發(fā)的方向。   1)與硬件緊密結(jié)合。針對卷積神經(jīng)網(wǎng)絡(luò)在不同硬件平臺上的使用,提出一些與硬件緊密結(jié)合的壓縮方法就是未來方向之一。具體包括基于硬件的自動量化以及將硬件加速器的反饋信息引入算法設(shè)計環(huán)中。與硬件密切結(jié)合的模型壓縮方法可以使CNN具有更強的硬件平臺適應(yīng)性,以應(yīng)對端設(shè)備部署帶來的挑戰(zhàn)。   參考文獻   [1]GONGYunchao,LIULiu,YANGMing,etal.Compressingdeepconvolutionalnetworksusingvectorquantization[EB/OL].2014   [2]WUJiaxiang,LENGCong,WANGYuhang,etal.Quantizedconvolutionalneuralnetworksformobiledevices[C]//2016IEEEConferenceonComputerVisionandPatternRecognition(CVPR).LasVegas,NV,USA.IEEE,2016:48204828.   [3]GUPTAS,AGRAWALA,GOPALAKRISHNANK,etal.Deeplearningwithlimitednumericalprecision[C]//InternationalConferenceonMachineLearning.2015:17371746.   [4]HANSong,MAOHuizi,DALLYWJ.Deepcompression:Compressingdeepneuralnetworkswithpruning,trainedquantizationandhuffmancoding[J].rXivreprintarXiv:1510.00149,2015.   作者:曾煥強1,2胡浩麟2林向偉2侯軍輝3蔡燦輝1
相關(guān)閱讀
學(xué)術(shù)咨詢服務(wù)
?
国产精品久久久久影院免费_免费一级欧美大片app_色屁屁www影院免费观看视频_久久久91精品国产一区二区
<tt id="777rq"><em id="777rq"><video id="777rq"></video></em></tt>

  1. <var id="777rq"><tbody id="777rq"></tbody></var>

      中文字幕在线不卡一区| 激情综合色综合久久综合| 久久99国产精品免费网站| 在线观看日韩高清av| 国产精品久久久久久久久免费相片| 麻豆国产91在线播放| 777午夜精品视频在线播放| 亚洲国产成人va在线观看天堂| 色综合视频一区二区三区高清| 国产精品久久久久久福利一牛影视 | 国产白丝网站精品污在线入口| 欧美xingq一区二区| 另类欧美日韩国产在线| 日韩一区二区精品| 蜜桃视频一区二区三区 | 欧洲精品一区二区| 中文字幕亚洲一区二区av在线| jizz一区二区| 亚洲综合免费观看高清完整版 | 成人激情综合网站| 国产精品国产三级国产a| 成人成人成人在线视频| 亚洲视频每日更新| 色偷偷久久人人79超碰人人澡| 夜夜嗨av一区二区三区四季av| 欧美在线短视频| 天堂精品中文字幕在线| 欧美成人a视频| 国产精品1区2区| 亚洲欧洲国产日韩| 欧美色图一区二区三区| 日韩不卡一区二区三区| 欧美成人艳星乳罩| 国产91精品露脸国语对白| 亚洲日本一区二区三区| 欧美电影一区二区三区| 国产一本一道久久香蕉| 亚洲图片激情小说| 5566中文字幕一区二区电影| 国产剧情av麻豆香蕉精品| 亚洲欧美怡红院| 7799精品视频| 99精品视频一区| 日本午夜精品视频在线观看| 日本一区二区视频在线观看| 91久久精品网| 久久国产免费看| 亚洲色图制服丝袜| 日韩一区国产二区欧美三区| 99国产精品久久久久| 免费黄网站欧美| 日韩美女视频一区二区| 日韩午夜在线播放| 99久久久精品免费观看国产蜜| 奇米精品一区二区三区四区| 国产精品电影一区二区| 精品日韩av一区二区| 一本大道久久a久久综合婷婷| 久久国产精品99精品国产| 一区二区在线免费观看| 久久精品夜色噜噜亚洲a∨| 欧美日韩三级视频| 成人性生交大片免费看中文 | 亚洲va韩国va欧美va| 久久久久久久综合日本| 制服丝袜亚洲精品中文字幕| 91同城在线观看| 国产精品一区二区视频| 欧美96一区二区免费视频| 亚洲日本一区二区| 欧美经典一区二区三区| 精品久久久久久最新网址| 精品视频一区二区不卡| 色中色一区二区| 成人激情免费电影网址| 精品亚洲国内自在自线福利| 日韩高清欧美激情| 亚洲综合久久久久| 中文字幕一区二区不卡| 国产三级精品三级在线专区| 精品区一区二区| 日韩欧美黄色影院| 91精品国产福利在线观看 | 亚洲欧美另类小说| 中文字幕乱码久久午夜不卡| 久久久久国产精品麻豆| 精品国产3级a| 精品国产不卡一区二区三区| 日韩视频在线永久播放| 日韩视频免费观看高清在线视频| 欧美性色aⅴ视频一区日韩精品| 91女神在线视频| 色婷婷综合久久久| 日本乱人伦aⅴ精品| 色美美综合视频| 在线观看亚洲专区| 在线观看成人小视频| 欧美色区777第一页| 欧美理论在线播放| 3d成人h动漫网站入口| 91麻豆精品国产自产在线观看一区| 欧美日韩成人综合天天影院 | 91精品午夜视频| 欧美一级日韩免费不卡| 日韩一区二区三区在线观看| 日韩免费观看2025年上映的电影| 日韩欧美国产不卡| 久久日韩粉嫩一区二区三区| 中文字幕成人网| 亚洲精品免费在线播放| 亚洲1区2区3区4区| 久久99国产精品久久| 国产91精品在线观看| 99riav一区二区三区| 99久久婷婷国产综合精品| 欧美视频中文字幕| 日韩视频中午一区| 国产精品素人视频| 亚洲专区一二三| 蜜桃视频第一区免费观看| 国产精品一级在线| 91一区二区三区在线观看| 欧美日韩国产综合久久| 26uuu另类欧美| 自拍偷拍国产精品| 日韩av电影一区| 国产成人精品亚洲午夜麻豆| 欧美无乱码久久久免费午夜一区| 欧美成人一区二区三区在线观看| 国产精品久久久一本精品| 亚洲一区二区三区美女| 国产综合色产在线精品| 99国内精品久久| 日韩欧美一区在线观看| 一区视频在线播放| 免费在线观看视频一区| 99国产精品国产精品久久| 欧美一级爆毛片| 亚洲欧美成人一区二区三区| 麻豆精品在线观看| 在线看国产日韩| 国产亚洲一二三区| 亚洲成av人片在线观看| 高清不卡一二三区| 日韩你懂的电影在线观看| 亚洲欧美日韩一区二区三区在线观看| 精品一区二区三区av| 欧美三级乱人伦电影| 中文字幕在线不卡| 韩国女主播一区| 欧美精品三级在线观看| 亚洲女与黑人做爰| 国产成人免费视频网站高清观看视频| 欧美亚洲综合一区| 亚洲日本va在线观看| 国产一区二区久久| 在线播放亚洲一区| 亚洲美女视频在线| 成人av动漫在线| 久久久精品国产免费观看同学| 丝袜a∨在线一区二区三区不卡| 色94色欧美sute亚洲13| 国产精品久久久久久久久免费桃花 | 亚洲日韩欧美一区二区在线| 国产成人免费高清| 亚洲精品在线电影| 蜜乳av一区二区| 欧美精品日韩精品| 午夜精品福利一区二区三区蜜桃| 91婷婷韩国欧美一区二区| 国产精品污www在线观看| 国产成人免费网站| 国产午夜精品理论片a级大结局 | 蜜臀久久99精品久久久久宅男| 欧美午夜精品一区| 亚洲一区二区三区在线| 欧美私人免费视频| 亚洲一卡二卡三卡四卡五卡| 欧亚洲嫩模精品一区三区| 一二三四区精品视频| 欧美自拍丝袜亚洲| 亚洲不卡一区二区三区| 欧美日韩在线播放三区四区| 五月综合激情网| 日韩一区二区三区视频在线观看| 日本成人在线电影网| 欧美大肚乱孕交hd孕妇| 国产一区二区在线看| 久久久精品综合| 成人av网在线| 一区二区三区欧美视频| 欧美日韩一区二区三区视频| 首页国产丝袜综合| 精品乱人伦一区二区三区| 国产一区二区伦理片| 亚洲特黄一级片| 欧美日韩一级视频| 免费在线观看视频一区| 国产婷婷一区二区| 91色|porny|