《電子技術應用》
您所在的位置:首頁 > 嵌入式技術 > 設計應用 > 基于Transformer模型的中文文本自動校對研究
基于Transformer模型的中文文本自動校對研究
2020年電子技術應用第1期
龔永罡,裴晨晨,廉小親,王嘉欣
北京工商大學 計算機與信息工程學院食品安全大數據技術北京市重點實驗室,北京100048
摘要: 提出將Transformer模型應用于中文文本自動校對領域。Transformer模型與傳統的基于概率、統計、規則或引入BiLSTM的Seq2Seq模型不同,該深度學習模型通過對Seq2Seq模型進行整體結構改進,從而實現中文文本自動校對。通過使用公開數據集對不同模型進行對比實驗,采用準確率、召回率與F1值作為評價指標,實驗結果表明,Transformer模型相比較于其他模型,在中文文本自動校對的性能上有了大幅提升。
中圖分類號: TN957.52;TP312
文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.191013
中文引用格式: 龔永罡,裴晨晨,廉小親,等. 基于Transformer模型的中文文本自動校對研究[J].電子技術應用,2020,46(1):30-33,38.
英文引用格式: Gong Yonggang,Pei Chenchen,Lian Xiaoqin,et al. Research on automatic proofreading of Chinese text based on Transformer model[J]. Application of Electronic Technique,2020,46(1):30-33,38.
Research on automatic proofreading of Chinese text based on Transformer model
Gong Yonggang,Pei Chenchen,Lian Xiaoqin,Wang Jiaxin
College of Computer and Information Engineering Beijing Key Laboratory of Food Safety Big Data Technology, Beijing Technology and Business University,Beijing 100048,China
Abstract: This paper proposes to apply Transformer model in the field of Chinese text automatic proofreading. Transformer model is different from traditional Seq2Seq model based on probability, statistics, rules or BiLSTM. This deep learning model improves the overall structure of Seq2Seq model to achieve automatic proofreading of Chinese text. By comparing different models with public data sets and using accuracy, recall rate and F1 value as evaluation indexes, the experimental results show that Transformer model has greatly improved proofreading performance compared with other models.
Key words : Chinese text proofreading;Transformer model;deep learning

0 引言

    在如今信息量與日俱增的大數據時代,每天都會產生大量的文本信息,隨之而來的文本校對任務也越來越繁重,傳統的人工校對不僅校對周期長、勞動強度大,而且效率低,研究快速高效的自動校對方法是十分必要的。

    基于概率統計的中文文本校對方法通過構建混淆集,分析目標詞語與其上下文詞語的同現特征及搭配特征,判斷哪些錯誤需要校對,并在混淆集中選取概率值最高的詞語替換目標詞語,從而進行文本校對[1]。然而,對于長距離的文本錯誤及語義錯誤,此類方法往往效果不佳。近年來,隨著深度學習技術的快速發展,將深度學習技術應用于中文文本自動校對任務成為了一種新的發展方向。

    深度學習技術中的Transformer模型在Google于2017年6月發布在arXiv上的一篇文章《Attention is all you need》中提出[2],使用完全基于Self-Attention即“自注意力機制”的網絡結構,拋棄了傳統Encoder-Decoder即“編碼器-解碼器”模型必須使用RNN或CNN的固有模式[3]。本文首次將其應用于中文文本自動校對任務,實驗結果表明該模型可以較好地解決中文文本自動校對中的遠距離信息丟失問題,進一步提升校對性能。

1 背景

1.1 中文文本自動校對的國內外研究現狀

    國外最早于20世紀60年代開始展開英文文本自動校對研究,發展至今,已取得突破性進展,擁有高準確率和高召回率的校對方法也已經應用到實際產品當中[4]。而國內關于中文文本自動校對的研究起步較晚,于20世紀90年代開始在國外對英文文本自動校對研究的基礎上,進行中文文本自動校對技術研究[5]。

    目前,國內對于中文文本自動校對技術的研究方法主要有以下3種:(1)基于規則或語言學知識的方法[6];(2)基于統計、概率的方法,如N-gram模型[7];(3)基于特征和Winnow學習模型,通過構造混淆集進行校對[8]。以上3種方法均為傳統的中文文本校對方法[9],本文則是通過深度學習技術進行中文文本自動校對,而傳統的深度學習技術通常采用RNN或CNN進行中文文本自動校對[10]

1.2 RNN與CNN在中文文本自動校對的局限性

    使用RNN進行中文文本自動校對任務時,通常采用雙向RNN結構[11]。即通過一個RNN進行從左往右的壓縮表示,另一個RNN進行從右往左的壓縮表示,將兩種壓縮表示結合起來,作為最終序列的分布式表示。因為對序列中的元素按順序處理,所以兩個詞之間的交互距離即相對距離。因此,RNN在長距離序列中存在信息丟失問題,即使是加入了門控機制的LSTM[12]和GRU,依然無法解決該問題。

    使用CNN進行中文文本自動校對任務時,一般使用多層結構來實現序列從局部表示到全局表示[13]。一個詞首先會在底層CNN單元上與其距離較近的詞產生交互,然后在稍高層次的CNN單元上與更遠一些的詞產生交互。詞之間的交互距離,與它們的相對距離成正比,因此使用CNN進行中文文本自動校對任務同樣會導致遠距離信息丟失問題。

2 Transformer模型

    Transformer模型是一種對序列信息建模的新方法,該模型依然沿用了經典的Encoder-Decoder結構,不同的是Transformer模型不再使用RNN或CNN,而是使用Self-Attention機制。該機制的優勢就是可以獲取文本語義信息而不受詞語之間的相對距離影響,從而解決遠距離信息丟失問題,提高校對性能。

2.1 Self-Attention

    Self-Attention機制作為Transformer模型最核心的特點,其可以建立當前位置詞語與其上下文相關詞語之間的聯系。實現方式為:首先,將輸入向量分別與3個隨機初始化的權值矩陣WQ、WK和WV相乘,計算得出3個新的向量,分別為查詢向量q、鍵向量k和值向量v。其中q向量表示為了編碼當前詞語,需要去注意文本中的其他詞;k向量是當前詞的可以被用于檢索的信息;v向量則表示當前詞語的實際內容。接下來計算Self-Attention的分數值,其決定了在對輸入句子中的某個詞語進行編碼時,對句子中其他部分的關注程度。

    如圖1所示,針對“生度”這個詞,通過查詢向量與鍵向量點乘,計算出其他詞對于該詞的一個分數值。首先針對于本身即q1×k1,然后針對于第二個詞即q1×k2;為了減少乘積值過大對之后歸一化的影響,將點乘得到的結果分別除以向量維度的開方;之后再做歸一化處理,得到的結果即每個詞與當前位置詞語的相關性大?。蛔詈髮⒅迪蛄縱與歸一化后的結果相乘再相加,得到的結果即Self-Attetion在當前節點的值。計算方式如圖1所示。

rgzn1-t1.gif

    為了提高計算速度,本文采用矩陣的方式進行計算,計算方法如式(1)所示。

    rgzn1-gs1.gif

其中,Q、K、V分別表示對應的3個向量矩陣,即查詢矩陣、鍵矩陣和值矩陣;dkey表示向量維度,本文取64維。

2.2 Multi-Headed Attention

    為了提升模型性能,加入了 Multi-Headed Attention機制[14],即“多頭注意力”機制,通過初始化多組權值矩陣進行計算,本文選取8組。將計算得到8個矩陣拼接為一個矩陣,再將一個隨機初始化的矩陣與拼接好的矩陣相乘,得到最終矩陣。該機制的結構如圖2所示。

rgzn1-t2.gif

    “多頭注意力”機制有多個“注意力頭”,因此可以并行計算,提高模型訓練速度。并且每個“注意力頭”都有對應的權值矩陣,實現不同的線性變換,因此擴展了模型關注序列不同位置的信息的能力,可以對文本的語義信息有更完整的理解,從而進一步提高校對性能。

3 Transformer模型的實現

3.1 數據預處理

    在Transformer模型構造之前,需要對輸入的數據進行預處理[15],包括:數據加載、數據清洗、分詞、語料轉換、分析統計。其中,數據加載是將數據集中的數據導入模型;數據清洗是去除語料中的特殊字符;分詞使用中文分詞工具“jieba分詞”,對語料進行分詞[16];語料轉換是將中文詞語轉換成對應的數字編碼,以及對應的數字編碼轉換為中文詞語;分析統計是對語料進行分析,了解語料特征。

3.2 Transformer模型結構

    本文中的Transformer模型由6個編碼器層和6個解碼器層堆疊組成。待校對文本在編碼器端輸入,正確文本在解碼器端輸入,通過監督學習來訓練模型。即訓練階段將訓練集中的輸入語料作為編碼器輸入,將對應的正確語料作為解碼器的輸入;在測試階段將測試集的待校對語料作為編碼器的輸入,解碼器端無輸入,僅依賴前一時刻的解碼器輸出信息進行校對。其整體結構如圖3所示。

rgzn1-t3.gif

    編碼器層內部包含兩個子層,即一個Self-Attention層和一個全連接的前饋神經網絡層。Self-Attention層中的查詢向量、鍵向量和值向量均來自于前一個編碼器層,因此編碼器層的每個位置都能去關注前一層輸出的所有信息,使得當前節點不僅關注當前信息,還能獲得上下文的語義信息。前饋神經網絡層應用于Self-Attention層的輸出,由兩個線性變換和一個ReLU激活函數組成。計算方法如式(2)所示。

    rgzn1-gs2.gif

其中,W1和W2為模型中神經元的權值,b1和b2為偏置值,x為輸入向量。

    編碼器層與解碼器層的結構如圖4所示。

rgzn1-t4.gif

    解碼器層不僅包含編碼器層中的兩個子層,還添加了一個注意力子層對編碼器的輸出執行多頭注意,其查詢向量來自于前一個解碼器層,鍵向量和值向量來自于編碼器的輸出,因此解碼器的每個位置都可以關注到編碼器輸入序列的全部信息,幫助當前解碼器節點獲取到需要關注的重點內容。此外,解碼器的Self-Attention子層加入了masked部分,其可以對某些值進行掩蓋,從而防止模型注意到后續位置信息。這種屏蔽確保了當前的預測只能依賴于之前的已知輸出。

3.3 Transformer模型實現過程

    Transformer模型的內部結構如圖5所示。

rgzn1-t5.gif

3.3.1 Embedding

    首先,模型對輸入數據進行Embedding,即詞嵌入,將輸入詞語轉變成向量[17]。將向量輸入到編碼器和解碼器的第一層,經過多頭注意力機制處理后傳入前饋神經網絡,得到的輸出信息作為下一層編碼器和解碼器的輸入[18]。

3.3.2 Positional Encoding

    因為Transformer模型缺少對輸入序列中詞語順序的表示,所以需要在編碼器層和解碼器層的輸入添加一個Positional Encoding向量,即位置編碼向量,維度與輸入向量的維度相同,本文取512維。該向量決定當前詞在序列中的位置,計算方法如式(3)、式(4)所示:

     rgzn1-gs3-4.gif

其中,pos是指當前詞語在句子中的位置;i表示pos對應的向量值,取值范圍為0~255;dmodel表示向量維度。在偶數位置,使用正弦編碼;在奇數位置,使用余弦編碼。最后將位置編碼向量與輸入向量相加,作為輸入傳入模型。

3.3.3 殘差連接和歸一化

    編碼器層和解碼器層中每個子層都加入了殘差連接和歸一化[19]。子層先進行殘差連接,避免誤差反向傳播時的梯度消失,接著對輸出進行歸一化,避免梯度消失或梯度爆炸。剩余連接和歸一化后的輸出表示如式(5)所示:

    rgzn1-gs5.gif

其中,x為前一層前饋神經網絡或多頭注意力層的輸出向量,SubLayer為注意力機制函數,LayerNorm為歸一化函數。

3.3.4 輸出層

    當解碼器層全部執行完畢后,為了將得到的向量映射為本文需要的詞語,需要在最后一個解碼器層后添加一個全連接層和Softmax層。全連接層輸出logits向量,作為Softmax層的輸入。假設詞典包括n個詞語,那最終Softmax層會輸出n個詞語分別對應的概率值,概率值最大的對應詞語就是最終的輸出結果。

4 結果與分析

    針對上述模型,本文設計了以下的實驗。本實驗運行環境操作系統為Windows 10,CPU為Intel CoreTM i5-8265,GPU為GTX 1070Ti,運行內存8 GB。一共進行4組實驗,分別為傳統的Seq2Seq、加入BiLSTM的Seq2Seq、基于注意力機制的BiLSTM Seq2Seq與Transformer共4種模型。實驗使用的數據集來自于2018 NLPCC共享的訓練數據集Task 2,其中提供了717 206條中文文本語句對,將其中的700 000條作訓練集,17 206條作測試集,劃分過程隨機。Src代表待校對語料,Trg表示原句所對應的正確語料。數據集的統計數據如表1所示,分為訓練集和測試集,統計了正確語料和錯誤語料,以及分詞后的詞語總數。

rgzn1-b1.gif

    為了對不同模型的校對效果進行評價,本次實驗采用準確率、召回率和F1值作為指標,對實驗結果進行評估,實驗結果如表2所示。

rgzn1-b2.gif

    實驗結果表明,BiLSTM和注意力機制均可以在傳統Seq2Seq模型的基礎上提升中文文本校對效果,然而,Transformer模型的表現更好。并且,深度學習模型的校對效果受到訓練次數和訓練數據集大小的影響,如果增加Transformer模型的訓練次數和增大訓練數據集,模型將擁有更好的校對效果。

5 結論

    本文將Transformer模型應用于中文文本自動校對領域,通過公開數據集對該模型的校對性能進行驗證,得出該模型的校對效果相比較于其他的模型在準確率和召回率方面均有很大提升。

    本次實驗由于數據集的局限性[20],導致并未展現出Transformer模型的全部能力,但是該模型在中文文本自動校對中的表現依然優異,也為Transformer模型應用于其他自然語言處理任務提供了可能性。

參考文獻

[1] 張仰森,俞士汶.文本自動校對技術研究綜述[J].計算機應用研究,2006(6):8-12.

[2] VASWANI A,SHAZEER N,PARMAR N,et al.Attention is all you need[J].Comouting Research Respository,2017,arXiv:1706:87-90.

[3] ZHANG C,WANG X,YU S,et al.Research on keyword extraction of Word2vec model in Chinese corpus[C].IEEE/ACIS 17th International Conference on Computer and Information Science(ICIS).IEEE,2018:339-343.

[4] 張濤.中文文本自動校對系統設計與實現[D].成都:西南交通大學,2017.

[5] 劉亮亮,王石,王東升,等.領域問答系統中的文本錯誤自動發現方法[J].中文信息學報,2013,27(3):77-83.

[6] 劉亮亮,曹存根.中文“非多字詞錯誤”自動校對方法研究[J].計算機科學,2016,43(10):200-205.

[7] 張仰森,曹大元,俞士汶.基于規則與統計相結合的中文文本自動查錯模型與算法[J].中文信息學報,2005,20(4):1-8.

[8] 張仰森,唐安杰,張澤偉.面向政治新聞領域的中文文本校對方法研究[J].中文信息學報,2014,28(6):79-84.

[9] 張仰森,鄭佳.中文文本語義錯誤偵測方法研究[J].計算機學報,2017,40(4):911-924.

[10] Wu Yonghui,SCHUSTER M,Chen Zhifeng,et al.Google′s neural machine translation system bridging the gap between human and machine translation[J].Computing Research Repository,2016,arXiv:1609:56-59.

[11] Chung Junyoung,GULCEHRE C,CHO K,et al.Empirical evaluation of gated recurrent neural networks on sequence modeling[J].CoRR,2014,abs/1412:78-81.

[12] Cheng Jianpeng,LAPATA M.Long short-term memory-networks for machine reading[J].arXiv Preprint 2016,arXiv:1601:127-130.

[13] GEHRING J,AULI M,GRANGIER D,et al.Convolutional sequence to sequence learning[J].arXiv Preprint 2017,arXiv:1705:68-71.

[14] LUONG M T,LE Q V,SUTSKEVER I,et al.Multi-task sequence to sequence learning[J].arXiv Preprint 2015,arXiv:1511:114-117.

[15] 王潔,喬藝璇,彭巖,等.基于深度學習的美國媒體“一帶一路”輿情的情感分析[J].電子技術應用,2018,44(11):102-106.

[16] 孫鐵利,劉延吉.中文分詞技術的研究現狀與困難[J].2012(1):187-192.

[17] Lin Zhouhan,Feng Minwei,NOGUEIRA C,et al. A struc-tured self-attentive sentence embedding[J].arXiv Preprint 2017,arXiv:1703:116-119.

[18] PRESS O,WOLF L.Using the output embedding to improve language models[J].arXiv Preprint 2016,arXiv:1608:67-70.

[19] BA J L,KIROS J R,HINTON G E.Layer normalization[J].arXiv Preprint 2016,arXiv:1607:45-49.

[20] 字云飛,李業麗,孫華艷.基于深度神經網絡的個性化推薦系統研究[J].電子技術應用,2019,45(1):14-18.



作者信息:

龔永罡,裴晨晨,廉小親,王嘉欣

(北京工商大學 計算機與信息工程學院食品安全大數據技術北京市重點實驗室,北京100048)

此內容為AET網站原創,未經授權禁止轉載。
热re99久久精品国产66热_欧美小视频在线观看_日韩成人激情影院_庆余年2免费日韩剧观看大牛_91久久久久久国产精品_国产原创欧美精品_美女999久久久精品视频_欧美大成色www永久网站婷_国产色婷婷国产综合在线理论片a_国产精品电影在线观看_日韩精品视频在线观看网址_97在线观看免费_性欧美亚洲xxxx乳在线观看_久久精品美女视频网站_777国产偷窥盗摄精品视频_在线日韩第一页
  • <strike id="ygamy"></strike>
  • 
    
      • <del id="ygamy"></del>
        <tfoot id="ygamy"></tfoot>
          <strike id="ygamy"></strike>
          中文日韩在线视频| 欧美一级在线亚洲天堂| 久久黄色级2电影| 欧美激情第1页| 欧美色精品天天在线观看视频| 欧美特黄a级高清免费大片a级| 美日韩精品视频| 国产一区再线| 夜夜爽99久久国产综合精品女不卡| 亚洲福利视频网| 国产亚洲免费的视频看| 亚洲经典一区| 韩国成人精品a∨在线观看| 国产毛片一区二区| 欧美日韩另类字幕中文| 国产精品大全| 亚洲美女网站| 国产精品久久久一区二区三区| 欧美日韩成人免费| 久久精品中文字幕免费mv| 美女图片一区二区| 91久久精品一区二区别| 日韩一级大片| 欧美专区日韩专区| 亚洲精品国精品久久99热| 久久久水蜜桃| 欧美电影电视剧在线观看| 亚洲视频在线免费观看| 欧美交受高潮1| 欧美精品www在线观看| 亚洲高清久久| 欧美日韩国产精品自在自线| 欧美激情精品久久久久久大尺度| 欧美~级网站不卡| 亚洲一区二区在线| 久久久久久精| 国内视频精品| 激情偷拍久久| 欧美大片在线观看| 暖暖成人免费视频| 欧美电影免费观看网站| 亚洲人精品午夜在线观看| 亚洲免费网站| 亚洲一区二区在线观看视频| 1024成人网色www| 国产精品视区| 噜噜爱69成人精品| 欧美一区三区二区在线观看| 国产精品成人一区二区三区吃奶| 欧美日韩亚洲视频一区| 亚洲天堂偷拍| 亚洲亚洲精品三区日韩精品在线视频| 影音先锋久久精品| 亚洲国产cao| 国产日韩欧美一区二区三区在线观看| 欧美精品日韩一本| 午夜日韩av| 日韩视频在线你懂得| 久久精品成人一区二区三区蜜臀| 夜夜爽www精品| 欧美日韩国产另类不卡| 狠狠色丁香婷婷综合影院| 欧美人成免费网站| 91久久综合亚洲鲁鲁五月天| 久久久青草青青国产亚洲免观| 91久久国产自产拍夜夜嗨| 亚洲激情视频在线播放| 国产视频自拍一区| 亚洲国产精品ⅴa在线观看| 亚洲黄色一区二区三区| 亚洲美女黄网| 国产精品免费电影| 国产精品二区二区三区| 亚洲欧美国内爽妇网| 欧美日韩国产限制| 亚洲激情网站| 欧美日一区二区三区在线观看国产免| 国产日韩欧美亚洲| 亚洲国产精品久久久久秋霞不卡| 国内精品美女在线观看| 久久久91精品| 亚洲巨乳在线| 亚洲视频第一页| 亚洲欧洲av一区二区三区久久| 亚洲欧洲美洲综合色网| 欧美视频一区| 欧美啪啪成人vr| 暖暖成人免费视频| 国产亚洲成av人片在线观看桃| 久久伊人免费视频| 亚洲精品在线观看免费| 国产精品久久久久久妇女6080| 国产精品免费一区豆花| 亚洲黄色免费网站| 久久综合亚洲社区| 国产精品美腿一区在线看| 欧美视频中文一区二区三区在线观看| 久久国产精品久久久久久久久久| 国产精品女主播| 欧美精品一区二区三区四区| 老司机凹凸av亚洲导航| 日韩写真在线| 久久久久久网| 夜夜爽99久久国产综合精品女不卡| 永久域名在线精品| 欧美日韩精品系列| 欧美在线视频不卡| 亚洲欧美久久久久一区二区三区| 精品二区视频| 国产裸体写真av一区二区| 一本色道久久综合亚洲91| 亚洲一区二区三区涩| 国产精品中文在线| 欧美特黄a级高清免费大片a级| 欧美日韩在线观看视频| 一区二区三区精品国产| 伊大人香蕉综合8在线视| 1000部精品久久久久久久久| 欧美伊人久久久久久午夜久久久久| 久久久97精品| 一区二区黄色| 免费av成人在线| 亚洲欧美日韩网| 久久久精品动漫| 亚洲精品人人| 亚洲视频精品| 亚洲欧美另类久久久精品2019| 99精品欧美一区| 久久av最新网址| 久久精品国产一区二区三区免费看| 亚洲精品人人| 亚洲影院免费观看| 欧美午夜精品伦理| 伊人久久大香线蕉av超碰演员| 欧美与黑人午夜性猛交久久久| 欧美日韩情趣电影| 在线观看福利一区| 亚洲国产欧美在线| 韩国三级电影一区二区| 亚洲伦理自拍| 韩国v欧美v日本v亚洲v| 免费看的黄色欧美网站| 在线观看视频欧美| 欧美黄色大片网站| 欧美一区二区三区啪啪| 欧美日韩国产欧美日美国产精品| 午夜久久tv| 精品不卡在线| 久久久久九九视频| 国产情侣一区| 亚洲国产精品第一区二区三区| 久久亚洲欧美| 一区免费观看| 国产一区二区三区不卡在线观看| 欧美成人激情在线| 国内激情久久| 久久久精品欧美丰满| 一本一道久久综合狠狠老精东影业| 看片网站欧美日韩| 欧美午夜精品久久久久久人妖| 宅男噜噜噜66一区二区| 亚洲最新色图| 久久久水蜜桃| 欧美日本簧片| 狠狠色2019综合网| 亚洲视频在线免费观看| 欧美日韩国产一区精品一区| 国产精品一区一区三区| 亚洲国产日韩美| 午夜精品久久久99热福利| 日韩亚洲综合在线| 欧美性感一类影片在线播放| 91久久精品国产91久久性色tv| 欧美日韩另类视频| 亚洲国产精品成人精品| 一本色道久久88综合日韩精品| 亚洲精品影院| 99视频精品免费观看| 欧美日韩三级一区二区| 在线观看91久久久久久| 在线综合视频| 欧美aa在线视频| 欧美精品一区二区久久婷婷| 在线一区二区日韩| 久久久欧美一区二区| 精品999日本| 美女国产精品| 亚洲国产精品久久久久| 亚洲国产成人久久综合一区| 亚洲一区二区在线免费观看| 伊人色综合久久天天五月婷| 欧美在线一二三区| 99热这里只有精品8| 亚洲黄色片网站| 欧美日韩黄色一区二区| 欧美视频一区| 国产一区二区三区在线观看网站| 免费试看一区| 牛人盗摄一区二区三区视频| 国产精品视频福利| 久久久久久久久久久久久9999| 国产精品乱看| 久久综合影音| 亚洲免费在线观看视频| 亚洲乱码一区二区| 欧美华人在线视频| 欧美伊人久久久久久午夜久久久久| 欧美二区视频| 国产农村妇女毛片精品久久莱园子| 日韩一区二区免费看| 久久综合色综合88| 欧美喷潮久久久xxxxx| 老司机午夜精品视频| 欧美日韩大陆在线| 久久一区二区精品| 国产欧美一区二区精品婷婷| 1000部精品久久久久久久久| 在线不卡亚洲| 国产精品视频九色porn| 欧美激情一区二区三区在线| 欧美精品首页| 久久大香伊蕉在人线观看热2| 国产一区二区三区网站| 激情欧美一区二区三区在线观看| 久久人人爽人人| 久久国产精品久久久久久电车| 欧美mv日韩mv国产网站| 国产精品腿扒开做爽爽爽挤奶网站| 国产日韩精品一区二区浪潮av| 国产精品三级久久久久久电影| 亚洲第一中文字幕在线观看| 欧美日韩成人在线| 国产亚洲欧美另类中文| 亚洲一区二区三区精品在线观看| 伊人婷婷久久| 亚洲综合精品四区| 欧美成人精品激情在线观看| 久久免费视频在线| 免费精品视频| 欧美久久综合| 国产偷久久久精品专区| 你懂的亚洲视频| 国产精品美女久久久| 一区二区三区黄色| 欧美日本一区| 伊人春色精品| 国产女人18毛片水18精品| 欧美视频第二页| 国产精品欧美风情| 亚洲理论在线观看| 在线亚洲欧美专区二区| 男人的天堂亚洲| 狠狠色丁香久久婷婷综合丁香| 日韩视频―中文字幕| 嫩模写真一区二区三区三州| 国产一区二区久久| 久久久久天天天天| 亚洲视频1区2区| 国产精品久久久久9999| 欧美电影免费观看高清完整版| 国产麻豆日韩欧美久久| 一区二区三区国产盗摄| 国产精品久久久亚洲一区| 国产午夜久久久久| 亚洲综合首页| 欧美激情中文字幕在线| 欧美本精品男人aⅴ天堂| 美脚丝袜一区二区三区在线观看| 午夜一级久久| 欧美日韩国产123区| 1024成人网色www| 性欧美xxxx大乳国产app| 欧美三级午夜理伦三级中视频| 麻豆成人小视频| 亚洲精品免费看| 欧美日韩三级| 暖暖成人免费视频| 久久免费99精品久久久久久| 欧美特黄a级高清免费大片a级| 亚洲一区二区av电影| aaa亚洲精品一二三区| 国产一区二区在线免费观看| 久热精品视频在线观看一区| 欧美一区二区精品久久911| 一区二区三区 在线观看视| 欧美91福利在线观看| 亚洲男人的天堂在线aⅴ视频| 狠狠v欧美v日韩v亚洲ⅴ| 欧美不卡福利| 99在线精品视频在线观看| 在线一区欧美| 欧美片第1页综合| 国产精品久久久久毛片大屁完整版| 欧美1区2区视频| 欧美日韩国产一区| 欧美v国产在线一区二区三区| 日韩一区二区免费高清| 欧美国产日韩一二三区| 欧美va亚洲va国产综合| 欧美亚洲在线观看| 久久在线免费观看视频| 亚洲人成在线播放网站岛国| 亚洲精品资源| 国产精品久久久久久久久果冻传媒| 精品av久久久久电影| 欧美日本一区二区视频在线观看| 亚洲精品一区二区三区99| 欧美日韩精品一区二区天天拍小说| 久久国产视频网站| 国产毛片精品国产一区二区三区| 亚洲免费观看在线观看| 久久精品欧美日韩精品| 99视频一区二区三区| 亚洲欧洲日产国产综合网| 国产精品99久久久久久久女警| 伊人久久大香线蕉综合热线| 欧美日韩亚洲一区二区三区| 欧美黄色日本| 日韩视频―中文字幕| 久久偷看各类wc女厕嘘嘘偷窃| 黄色一区二区三区四区| 日韩视频免费观看高清完整版| 亚洲另类春色国产| 9i看片成人免费高清| 亚洲综合色婷婷| 欧美一区三区三区高中清蜜桃| 亚洲欧美日韩国产综合精品二区| 精品电影在线观看|