《電子技術應用》
您所在的位置:首頁 > 嵌入式技術 > 設計應用 > 基于卷積遞歸模型的文本分類研究
基于卷積遞歸模型的文本分類研究
2019年電子技術應用第10期
殷曉雨,阿力木江·艾沙,庫爾班·吾布力
新疆大學 信息科學與工程學院,新疆 烏魯木齊830046
摘要: 近年來卷積神經網絡和循環神經網絡在文本分類領域得到了越來越廣泛的的應用。提出一種卷積神經網絡和長短時記憶網絡特征融合的模型,通過長短期記憶網絡作為池化層的替代來獲得長期依賴性,從而構建一個聯合CNN和RNN的框架來克服單卷積神經網絡忽略詞語在上下文中語義和語法信息的問題。所提出的方法在減少參數數量和兼顧文本序列全局特征方面起著重要作用,實驗結果表明,可以通過更小的框架來實現相同級別的分類性能,并且在準確率方面超越了同類型的其他幾種方法。
中圖分類號: TN311
文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.190248
中文引用格式: 殷曉雨,阿力木江·艾沙,庫爾班·吾布力. 基于卷積遞歸模型的文本分類研究[J].電子技術應用,2019,45(10):29-32,36.
英文引用格式: Yin Xiaoyu,Alimjan Aysa,Kurban Ubul. Research of text classification based on convolution recursive model[J]. Application of Electronic Technique,2019,45(10):29-32,36.
Research of text classification based on convolution recursive model
Yin Xiaoyu,Alimjan Aysa,Kurban Ubul
School of Information Science & Engineering,Xinjiang University,Urumqi 830046,China
Abstract: In recent years, convolutional neural networks(CNN) and recurrent neural networks(RNN) have been widely used in the field of text classification. In this paper, a model of CNN and long short term memory network(LSTM) feature fusion is proposed. Long-term dependence is obtained by replacing the LSTM as a pooling layer, so as to construct a joint CNN and RNN framework to overcome the single convolutional nerve. The network ignores the problem of semantic and grammatical information in the context of words. The proposed method plays an important role in reducing the number of parameters and taking into account the global characteristics of text sequences. The experimental results show that we can achieve the same level of classification performance through a smaller framework, and it can surpass several other methods of the same type in terms of accuracy.
Key words : text classification;convolutional neural network;recurrent neural network;global character

0 引言

    隨著人類一直以來在互聯網上產生的非結構化文本數據量的不斷增長,迫切需要更加智能地處理這些龐大的數據并從中提取不同類型的知識。自然語言處理(Natural Language Processing,NLP)是計算機科學領域的一個廣泛的研究領域,它關注計算機與人類語言之間的交互過程。文本分類在許多NLP應用程序中起著重要作用,例如垃圾郵件過濾、電子郵件分類、信息檢索、Web搜索以及排名和文檔分類[1-2],在這些功能中都需要將預定義類別分配給序列文本。文本分類關注的核心問題是文本中詞語的表示以及分類模型的選擇。相比較傳統的文本分類方法,深度學習文本分類框架不需要人為地獲取特征,并且具有更好的分類準確率以及更高的效率,因而在自然語言處理領域獲得越來越廣泛的應用。

    卷積神經網絡(Convolutional Neural Networks,CNN)最初在計算機視覺領域取得了非常成功的結果。CNN將特征提取和分類視為一個聯合任務。通過堆疊多個卷積和池化層來改進這一過程,并且充分利用其多層感知器的結構,具備了學習高維、復雜和非線性映射關系的能力,在語音識別以及圖像領域都取得了很好的成果。KIM Y[3]等人提出將文本中經過預處理的詞向量組合為二維的詞向量矩陣,作為卷積神經網絡的輸入,通過卷積池化等操作來提取文本局部特征,從而實現句子級別的文本分類。雖然卷積神經網絡模型為文本分類研究打開了新的研究方向并且取得了顯著的成果,但是卷積神經網絡過于關注局部特征而忽略詞序以及語法結構,也對其分類準確率造成了一定的影響。所以本文中引用卷積神經網絡(Recurrent Neural Networks,RNN)[4]來解決單獨卷積神經網絡忽略全局特征的問題。

    本文所提出的架構受到最近RNN在NLP應用中的成功以及RNN即使只有一個單層也可以捕獲長期依賴性這一事實的啟發[5]。NLP的大多數深度學習架構需要堆疊許多層來捕獲由于卷積和池化層的局部性而導致的長期依賴性[6]。因而本文研究了長短時記憶網絡(LSTM)作為卷積神經網絡語言模型中池化層的替代方法,以執行短文本的情感分析。本文將提出一種聯合CNN和RNN的架構,它將CNN提取的局部特征作為RNN的輸入,用于短文本的情感分析。本文的主要貢獻:利用LSTM替代卷積神經網絡結構中的池化層,通過卷積結構提取的局部特征和LSTM模型獲得長期依賴關系,以較少的參數并實現有競爭力的結果[7],并在反復試驗后實現對這一模型參數的優化。

1 模型結構

1.1 卷積神經網絡

    卷積網絡是一種包含卷積計算且具有深度結構的前饋神經網絡,是深度學習的代表算法之一[8],通常包含輸入層、卷積層、池化層、全連接層以及輸出層等。本文利用卷積神經網絡模型提取文本的局部特征,通過反向傳播算法進行參數優化[9]。由KIM Y提出的CNN短文本分類模型如圖1所示。

rgzn1-t1.gif

    (1)輸入層。輸入層是由句子中詞語的詞向量組成的詞向量矩陣。本文為了實現文本單詞特征的提取盡可能地保留其所在語句中的含義,因而將每條文本中所有的詞向量縱向堆疊得到二維的文本向量矩陣[10]。主要是利用Word2vec將詞W(i)轉換為詞向量V(W(i)),并且將詞W(i)組成的句子映射成為句子矩陣Sj,假設詞向量的維度為n,這個句包含詞的數量為k,因此該文本中包含k個子矩陣的大小就是n×k。

    (2)卷積層。卷積層通過一組不同大小的卷積核(Fliter)r×k對句子矩陣Sj進行卷積運算操作,提取的局部特征:

    rgzn1-gs1.gif

其中,F代表r×k大小的的卷積核,b表示偏置量,f表示非線性激活函數,ci表示通過卷積操作得到的局部特征。隨著卷積核以步長為1從上向下掃描完整個詞向量矩陣后,最終會得到局部特征向量集合C:

    rgzn1-gs2.gif

其中,h是卷積層參數,對應卷積步長。

    (3)池化層。池化層主要負責對卷積層的輸出進行保留壓縮,進一步減少參數數量并提取主要特征,它通常包括平均池化和最大池化,本文選取最大池化操作,通過調整k-max池化窗口參數來提取特征矩陣中最具有價值的重要信息。

    (4)輸出層。將池化層的所有輸出特征在全連接層組合輸出為向量U,之后通過softmax分類器計算文本在各個類別下的概率,最終模型利用實際的分類標簽,通過反向傳播算法進行模型參數的優化[11]。

    rgzn1-gs3.gif

其中,y代表目標輸出的實際分類。

1.2 長短時記憶網絡

    為了在文本中獲得較長的序列信息,僅僅依賴于卷積神經網絡是難以實現的,因此自然語言處理中更常用到循環神經網絡。它利用定向循環操作將前一刻的隱層狀態參與下一時刻隱層狀態的計算,從而解決了輸入間的前后關聯問題[12]。

    長短期記憶網絡(Long Short_Term Memory Network,LSTM)[13]是一種特殊的RNN,其核心是利用記憶細胞記住長期的歷史信息和門機制進行管理,從而更新每一層的隱狀態。LSTM遞歸神經網絡的隱藏層向前公式可表示為:

rgzn1-gs4-8.gif

1.3 融合模型

    文本分類特征融合模型由卷積神經網絡和循環神經網絡組成。第一層是嵌入層,將輸入文本轉換為可供處理的詞向量矩陣,矩陣的列數就是詞向量的維度,行數就是單詞序列的長度。

    對其進行卷積操作,通過文獻[15]中對基礎卷積神經網絡的研究,本文經過分析測試后認為,當詞向量取100維,且卷積核分別設置為3×100、4×100、5×100時,卷積神經網絡會取得比較好的分類效果。在得到卷積運算所產生特征向量矩陣之后,將其作為輸入直接進入長短時記憶網絡以捕獲文本的長期依賴關系,提取文本中的全局性特征。卷積循環網絡模型圖如圖2所示。

rgzn1-t2.gif

    將融合后的特征保存在output中,再連接第二個全連接層,其中θ代表函數的輸入向量,在第二個全連接層之后使用dropout機制,舍棄每次訓練中得到的部分參數,且dropout參數設置為0.5,防止過擬合,將最后將得到的結果輸入到softmax函數中得到x被分類成j類的概率計算公式為:

    rgzn1-gs9.gif

2 實驗與分析

2.1 實驗環境

    實驗環境參數配置如表1所示。

rgzn1-b1.gif

2.2 實驗數據

    本文的數據集為斯坦福大學的大型標準互聯網電影資料庫IMDB,是英文情感分析的標準試驗數據,其任務是判斷電影評論是正面還是負面的。IMDB數據集有5萬條來自網絡電影數據庫的評論,其中2.5萬用來訓練,2.5萬用來測試,每個部分正負評論各占50%。使用15%已經標注過的文檔作為驗證數據。

    IMDB數據集是Keras內部集成的,初次使用需下載導入,之后便可以直接使用,并且該數據集已經經過預處理,所有的影評文本已經被轉換為整數序列。在輸入神經網絡前首先要將整數列表轉換為詞向量,將文本轉化為低維、稠密的詞向量矩陣。目前有很多詞向量訓練工具,最具代表性的是斯坦福大學的Glove以及Google發布的Word2Vec等。

2.3 實驗參數

    通過使用隨機最速下降法SGD訓練網絡以及反向傳播算法來計算梯度。本文通過添加一個循環層模型作為池化層的替代,有效地減少所需的卷積層數并捕獲長期依賴關系。因此,本文考慮將卷積和循環層合并為一個單獨的模型。本架構目標是減少網絡中的多個卷積和池化層堆疊數量并進一步減少局部詳細信息的丟失。從而,在提出的模型中,卷積核的大小設置為3×256、4×256、5×256,使用ReLU作為激活函數。對于循環層LSTM,本文將其隱藏層的參數設置為128,訓練迭代數量為50。表2中顯示了所提出的架構的所選參數值。

rgzn1-b2.gif

2.4 實驗結果及分析

    為了驗證本文所提出的CNN與LSTM融合模型的分類性能,分別將本文中的模型與單獨CNN模型、LSTM模型、傳統分類模型以及其他文本分類模型做了比較試驗。

    圖3~圖5分別給出了3層CNN模型、單LSTM模型以及融合模型的準確率。單獨模型與融合模型準確率對比如表3所示。從表3中可知,本文所提出的融合模型在準確率方面要優于單獨的卷積神經網絡模型以及LSTM模型。通過卷積神經網絡提取局部特征之后,直接將文本的局部特征作為長短時記憶網絡的輸入,可以取得比單獨模型更高的分類準確率。

rgzn1-t3.gif

rgzn1-t4.gif

rgzn1-t5.gif

rgzn1-b3.gif

    本文不僅與單獨文本分類模型進行對比,還與傳統的機器學習算法SVM以及其他模型進行比較。通過表4可以看出,文獻[15]提出的基于風險最小化的分類決策樹雖然在原有的基礎上有了較大進步,但本文所提出的融合模型在分類準確率上顯然效果更好。

rgzn1-b4.gif

    在用LSTM進行分類時,由于需要將全部的文本特征信息編碼到隱藏層中,顯然這種長距離特征依賴對于長文本的效果更為明顯,在加入了注意力機制之后顯然對LSTM的準確率有較為顯著的影響,但本文所提出的的融合模型通過卷積計算提取局部特征和LSTM兼顧文本序列以及語法結構的長距離特征在分類效果上表現要更好,本文所提出的文本特征融合模型的確可以有效提高文本分類的準確率。

3 結論

    本文提出了一種利用LSTM替代卷積神經網絡模型中池化層的特征融合模型用于文本分類研究。該模型既可以利用卷積結構提取文本的局部特征,又可以利用LSTM保留文本的全局特征,減少局部特征在多層卷積池化結構中的的特征損失問題。在實驗階段,本文將所提出的文本分類融合模型與單模型、傳統文本分類模型以及其他深度學習模型進行對比實驗,本文所提出的融合模型有效提升了文本分類的準確率。然而本文所提出的融合模型并沒有采用復雜的網絡結構,在接下來的研究中將針對結構更加復雜的卷積神經網絡與LSTM的融合模型來開展。

參考文獻

[1] Li Juntao,Cao Yimin,Wang Yadi,et al.Online learning algorithms for double-weighted least squares twin bounded support vector machines[J].Neural Processing Letters,2017,45(1):319-339.

[2] KALCHBRENNER N,GREFENSTETTE E,BLUNSOM P A.Convolutional neural network for modelling sentences[J].Information Sciences,2016(1):217-253.

[3] KIM Y.Convolutional neural networks for sentence classification[C].Proceedings of the EMNLP,2014.

[4] 李云紅,梁思程,任劼,等.基于循環神經網絡變體和卷積神經網絡的文本分類方法[J].西北大學學報(自然科學版),2019(4):1337-5003.

[5] GRAVES A.Supervised sequence labelling with recurrent neural networks[M].Berlin Heidelberg:Springer,2012.

[6] ANDRIY M,GEOFFREY H.A scalable hierarchical distributed language model[C].The Conference on Neural Information Processing Systems(NIPS),2008:1081-1088.

[7] 蘇豐龍,謝慶華.基于深度學習的領域實體屬性詞聚類抽取研究[J].電子技術應用,2016,42(6):1674-7720.

[8] 字云飛,李業麗,孫華艷.基于深度神經網絡的個性化推薦系統研究[J].電子技術應用,2019,45(1):14-18,22.

[9] MIKOLOV T,SUTSKEVER I,CHEN K,et al.Distribtedrep-resentations of words and phrases and their compositionality[C].Proceedings of the Advances in Neural Information Processing Systems,2013:3111-3119.

[10] 王靜.基于機器學習的文本分類算法研究與應用[D].成都:電子科技大學,2015.

[11] 張沖.基于Attention -Based LSTM模型的文本分類技術的研究[D].南京:南京大學,2016.

[12] MANNING C D,RAGHAVAN P,SCHUTZE H.An introduction to information retrieval[M].Cambridge:Cambridge University Press,2008.

[13] 李華,屈丹,張文林,等.結合全局詞向量特征的循環神經網絡語言模型[J].信號處理,2016,32(6):715-723.

[14] VIGLIOCCO G,VINSON D P,DRUKS J,et al.Nouns and verbs in the brain:a review of behavioural,electrophysiological,neuropsychological and imaging studies[J].Neuroscience and Biobehavioral Reviews,2010(3):167-198.

[15] ZHANG X,ZHAO J,LECUN Y.Character-level convolutional networks for text classification[C].Advances in Neural Information Processing Systems,2015:649-657.



作者信息:

殷曉雨,阿力木江·艾沙,庫爾班·吾布力

(新疆大學 信息科學與工程學院,新疆 烏魯木齊830046)

此內容為AET網站原創,未經授權禁止轉載。
热re99久久精品国产66热_欧美小视频在线观看_日韩成人激情影院_庆余年2免费日韩剧观看大牛_91久久久久久国产精品_国产原创欧美精品_美女999久久久精品视频_欧美大成色www永久网站婷_国产色婷婷国产综合在线理论片a_国产精品电影在线观看_日韩精品视频在线观看网址_97在线观看免费_性欧美亚洲xxxx乳在线观看_久久精品美女视频网站_777国产偷窥盗摄精品视频_在线日韩第一页
  • <strike id="ygamy"></strike>
  • 
    
      • <del id="ygamy"></del>
        <tfoot id="ygamy"></tfoot>
          <strike id="ygamy"></strike>
          亚洲欧美欧美一区二区三区| 久久色中文字幕| 欧美精品日韩三级| 久久久久久久久久久久久女国产乱| 免费久久精品视频| 欧美电影在线免费观看网站| 欧美精品www在线观看| 亚洲精品视频在线| 国产精品视频一二| 亚洲品质自拍| 亚洲激情中文1区| 久久综合免费视频影院| 国产一区二区三区免费观看| 欧美日韩亚洲不卡| 99re6热在线精品视频播放速度| 亚洲精品久久久一区二区三区| 国产主播在线一区| 亚洲国产欧美日韩| 国产精品爽爽ⅴa在线观看| 亚洲欧洲在线观看| 久久久.com| 国产精品你懂的| 国产精品免费观看视频| 亚洲女女女同性video| 国产精品毛片| 欧美顶级大胆免费视频| 欧美日韩成人一区二区| 日韩午夜av在线| 中文欧美在线视频| 亚洲精品在线免费| 国产区二精品视| 国产欧美一二三区| 亚洲一区在线直播| 欧美日韩国产综合新一区| 欧美日韩精品中文字幕| 夜夜嗨av一区二区三区四区| 欧美日韩国产页| 亚洲视频自拍偷拍| 欧美成年视频| 免费在线一区二区| 国产精品久久久久久久久婷婷| 亚洲天堂免费在线观看视频| 91久久精品一区二区别| 一本久久综合亚洲鲁鲁| 欧美精品18videos性欧美| 欧美日本国产精品| 国产日韩综合一区二区性色av| 在线成人av.com| 国内精品久久久久久久影视麻豆| 欧美色图一区二区三区| 国产亚洲精品aa午夜观看| 国产精品永久在线| 老司机一区二区| 欧美另类高清视频在线| 午夜精品影院在线观看| 国产主播精品在线| 亚洲青色在线| 国产精品扒开腿爽爽爽视频| 在线视频欧美精品| 黄色成人免费观看| 久久riav二区三区| 亚洲专区国产精品| 午夜精品国产| 欧美日韩在线亚洲一区蜜芽| 久久久精品动漫| 国产一区二区| 欧美尤物巨大精品爽| 国产精品资源| 国产综合在线视频| 午夜精品久久久久久久蜜桃app| 欧美日韩免费精品| 欧美一区二区三区免费视| 亚洲理论在线观看| 欧美三级不卡| 国产精品乱码人人做人人爱| 欧美视频观看一区| 国产精品日韩在线| 国产欧美三级| 99精品国产热久久91蜜凸| 亚洲欧美日韩在线播放| 亚洲成人在线网站| 精品999网站| 另类酷文…触手系列精品集v1小说| 国产精品99免费看| 亚洲一区三区电影在线观看| 国产欧美视频一区二区| 日韩视频欧美视频| 亚洲精品乱码久久久久久蜜桃91| 欧美三级视频在线观看| 欧美.日韩.国产.一区.二区| 在线视频精品一区| 欧美一区二区三区成人| 欧美大片在线观看一区| 亚洲欧美综合一区| 国产精品久久久久一区| 亚洲欧美激情精品一区二区| 午夜日韩av| 欧美日韩中文字幕| 在线成人av.com| 国产精品黄页免费高清在线观看| 国产精品美女久久福利网站| 最新热久久免费视频| 日韩一区二区福利| 久久天天躁狠狠躁夜夜爽蜜月| 欧美一区二视频在线免费观看| 欧美日韩国产欧美日美国产精品| 日韩午夜免费| 午夜视黄欧洲亚洲| 亚洲欧洲日韩在线| 国产精品一区2区| 久久综合久色欧美综合狠狠| 欧美日韩视频免费播放| 精品二区视频| 亚洲区国产区| 极品日韩久久| 免费成人av在线| 亚洲一区视频在线观看视频| 小黄鸭精品aⅴ导航网站入口| 影音先锋亚洲电影| 久久一区二区三区四区| 欧美在线播放一区| 国产精品试看| 久久aⅴ国产紧身牛仔裤| 亚洲第一中文字幕| 日韩亚洲综合在线| 亚洲国产91精品在线观看| 欧美精品在线看| 亚洲精品视频中文字幕| 亚洲人成7777| 麻豆精品在线播放| 国产原创一区二区| 欧美午夜精品| 欧美日韩精品伦理作品在线免费观看| 久久精品72免费观看| 国产亚洲精品激情久久| 亚洲人成网在线播放| 久久精品国产久精国产一老狼| 欧美大片18| 久久国产精品99精品国产| 亚洲日韩视频| 久久精品亚洲乱码伦伦中文| 欧美三级日韩三级国产三级| 亚洲国产精品999| 亚洲欧洲另类国产综合| 亚洲亚洲精品在线观看| 精品福利免费观看| 国内精品久久久久影院优| 欧美日韩国产小视频| 亚洲私人影吧| 国产亚洲va综合人人澡精品| 在线观看欧美日韩| 亚洲网友自拍| 性做久久久久久| 久热这里只精品99re8久| 久久精品成人欧美大片古装| 激情欧美丁香| 久久免费精品日本久久中文字幕| 国产中文一区二区| 国产精品一区视频网站| 一区在线影院| 米奇777超碰欧美日韩亚洲| 性欧美xxxx大乳国产app| 欧美一级艳片视频免费观看| 亚洲黄一区二区| 久久成人18免费网站| 亚洲第一福利在线观看| 久久久久久香蕉网| 一区二区三区波多野结衣在线观看| 激情亚洲成人| 91久久精品国产91性色tv| 欧美色图麻豆| 亚洲欧美日韩一区二区三区在线观看| 亚洲人精品午夜在线观看| 国产精品久久久久久久久| 久久综合给合久久狠狠色| 一区二区高清| 欧美日韩和欧美的一区二区| 欧美日产国产成人免费图片| 欧美日韩精品综合| 欧美在线播放高清精品| 欧美日韩免费| 欧美在线国产| 欧美一级视频精品观看| 亚久久调教视频| 日韩午夜中文字幕| 欧美视频免费在线观看| 久久精品99国产精品| 99re国产精品| 亚洲理论电影网| 亚洲激情综合| 最新中文字幕一区二区三区| 欧美韩日一区二区| 亚洲国产另类久久精品| 99热这里只有精品8| 国产一区二区电影在线观看| 欧美视频在线观看一区| 国产网站欧美日韩免费精品在线观看| 国产日韩在线看| 亚洲香蕉在线观看| 欧美一区二区在线视频| 欧美伦理一区二区| 久久久www免费人成黑人精品| 国产情人综合久久777777| 久久久另类综合| 亚洲精品五月天| 久久成人国产精品| 91久久精品国产91性色tv| 国产精品美女久久久久av超清| 亚洲一区激情| 欧美网站大全在线观看| 国内成人在线| 一区二区三区视频免费在线观看| 91久久久久久国产精品| 欧美777四色影视在线| 欧美精品一区二区三区很污很色的| 免费成人av在线看| 欧美一区二区三区视频免费播放| 久久久久久九九九九| 伊人久久亚洲热| 激情综合激情| 亚洲精品免费在线播放| 亚洲九九精品| 日韩视频中文字幕| 看欧美日韩国产| 91久久精品国产91久久性色tv| 国产欧美日韩亚州综合| 久久久久久久久久码影片| 欧美激情视频网站| 欧美日韩在线精品| 亚洲在线电影| 亚洲欧洲三级| 欧美夜福利tv在线| 欧美三级第一页| 欧美精品网站| 亚洲视频视频在线| 久久精品一二三| 国产精品一区2区| 久久天天躁狠狠躁夜夜av| 久久在线免费观看| 国产日产欧美a一级在线| 欧美激情四色| 欧美三级韩国三级日本三斤| 国产嫩草一区二区三区在线观看| 久久影视三级福利片| 久久成人综合视频| 国内一区二区三区在线视频| 有坂深雪在线一区| 国产综合在线视频| 欧美黄色小视频| 久久在精品线影院精品国产| 欧美激情免费在线| 久久男人av资源网站| 欧美一区二区成人6969| 亚洲欧洲三级| 久久精品在线播放| 欧美一区二区啪啪| 久久午夜羞羞影院免费观看| 国产视频一区二区在线观看| 久久九九有精品国产23| 久久久久久一区| 亚洲国产成人高清精品| 久久青草福利网站| 亚洲亚洲精品三区日韩精品在线视频| 欧美成人嫩草网站| 国产乱码精品一区二区三区不卡| 久久精品国产一区二区电影| 性做久久久久久免费观看欧美| 欧美午夜欧美| 欧美激情一区二区三区在线| 欧美一级电影久久| 久久综合电影一区| 一区二区免费在线播放| 亚洲在线网站| 欧美在线观看视频一区二区三区| 国产主播一区二区三区| 亚洲风情亚aⅴ在线发布| 久久久久国产一区二区三区四区| 欧美日韩在线大尺度| 国内自拍视频一区二区三区| 亚洲视频一区二区免费在线观看| 激情校园亚洲| 久久精品网址| 国产精品一区二区三区四区| 亚洲日本电影在线| 小黄鸭精品aⅴ导航网站入口| 国产欧美日韩亚洲精品| 久久综合亚洲社区| 欧美黄色日本| 亚洲国产另类精品专区| 亚洲一区二区三区在线观看视频| 激情欧美一区二区| 极品少妇一区二区| 欧美日韩一区二区三区在线观看免| 国产精品日韩| 国产精品久久久久久久久久直播| 亚洲午夜高清视频| 亚洲国产导航| 激情懂色av一区av二区av| 亚洲福利视频网站| 欧美一级久久久久久久大片| 亚洲免费播放| 国语自产精品视频在线看一大j8| 亚洲人成小说网站色在线| 久久伊伊香蕉| 国产毛片精品国产一区二区三区| 农夫在线精品视频免费观看| 亚洲免费成人av电影| 国产精品福利片| 欧美日韩精品一区二区三区四区| 在线精品国产欧美| 国产精品v欧美精品v日韩精品| 在线成人激情黄色| 久久久精品动漫| 亚洲第一综合天堂另类专| 中文国产成人精品久久一| 久久疯狂做爰流白浆xx| 国产精品日韩久久久久| 亚洲第一精品夜夜躁人人躁| 91久久极品少妇xxxxⅹ软件| 欧美11—12娇小xxxx| 国产精品美女久久久久久久| 欧美午夜精品久久久| 亚洲三级免费电影| 久久久久久自在自线| 欧美jjzz| 国产精品性做久久久久久| 欧美一区二区三区四区高清| 久久亚洲一区二区三区四区|