午夜视频免费看_日韩三级电影网站_国产精品久久一级_亚洲一级在线播放_人妻体内射精一区二区三区_91夜夜揉人人捏人人添红杏_91福利在线导航_国产又粗又猛又黄又爽无遮挡_欧美日韩一区在线播放_中文字幕一区二区三区四区不卡 _日日夜夜精品视频免费观看_欧美韩日一区二区三区

主頁 > 知識庫 > 使用torchtext導入NLP數據集的操作

使用torchtext導入NLP數據集的操作

熱門標簽:唐山智能外呼系統一般多少錢 哈爾濱ai外呼系統定制 激戰2地圖標注 海南400電話如何申請 陜西金融外呼系統 廣告地圖標注app 騰訊外呼線路 白銀外呼系統 公司電話機器人

如果你是pytorch的用戶,可能你會很熟悉pytorch生態圈中專門預處理圖像數據集的torchvision庫。

從torchtext這個名字我們也能大概猜到該庫是pytorch圈中用來預處理文本數據集的庫,但這方面的教程網絡上比較少,今天我就講講這個特別有用的文本分析庫。

簡介

torchtext在文本數據預處理方面特別強大,但我們要知道ta能做什么、不能做什么,并如何將我們的需求用torchtext實現。雖然torchtext是為pytorch而設計的,但是也可以與keras、tensorflow等結合使用。

官方文檔地址 https://torchtext.readthedocs.io/en/latest/index.html

# 安裝	
!pip3 install torchtext

自然語言處理預處理的工作流程:

1、Train/Validation/Test數據集分割

2、文件數據導入(File Loading)

3、分詞(Tokenization) 文本字符串切分為詞語列表

4、構建詞典(Vocab) 根據訓練的預料數據集構建詞典

5、數字映射(Numericalize/Indexify) 根據詞典,將數據從詞語映射成數字,方便機器學習

6、導入預訓練好的詞向量(word vector)

7、分批(Batch) 數據集太大的話,不能一次性讓機器讀取,否則機器會內存崩潰。解決辦法就是將大的數據集分成更小份的數據集,分批處理

8、向量映射(Embedding Lookup) 根據預處理好的詞向量數據集,將5的結果中每個詞語對應的索引值變成 詞語向量

上面8個步驟,torchtext實現了2-7。第一步需要我們自己diy,好在這一步沒什么難度

"The quick fox jumped over a lazy dog."	
# 分詞	
["The", "quick", "fox", "jumped", "over", "a", "lazy", "dog", "."]	
# 構建詞典	
{"The" -gt; 0, 	
"quick"-gt; 1, 	
"fox" -gt; 2,	
...}	
# 數字映射(將每個詞根據詞典映射為對應的索引值)	
[0, 1, 2, ...]	
# 向量映射(按照導入的預訓練好的詞向量數據集,把詞語映射成向量)	
[	
  [0.3, 0.2, 0.5],	
  [0.6, 0., 0.1],	
  [0.8, 01., 0.4],	
  ...	
]

一、數據集分割

一般我們做機器學習會將數據分為訓練集和測試集,而在深度學習中,需要多輪訓練學習,每次的學習過程都包括訓練和驗證,最后再進行測試。所以需要將數據分成訓練、驗證和測試數據。

import pandas as pd	
import numpy as np	
def split_csv(infile, trainfile, valtestfile, seed=999, ratio=0.2):	
    df = pd.read_csv(infile)	
    df["text"] = df.text.str.replace("\n", " ")	
    idxs = np.arange(df.shape[0])	
    np.random.seed(seed)	
    np.random.shuffle(idxs)	
    val_size = int(len(idxs) * ratio)	
    df.iloc[idxs[:val_size], :].to_csv(valtestfile, index=False)	
    df.iloc[idxs[val_size:], :].to_csv(trainfile, index=False)	
#先將sms_spam.csv數據分為train.csv和test.csv	
split_csv(infile='data/sms_spam.csv', 	
          trainfile='data/train.csv', 	
          valtestfile='data/test.csv', 	
          seed=999, 	
          ratio=0.2)	
#再將train.csv分為dataset_train.csv和dataset_valid.csv	
split_csv(infile='data/train.csv', 	
          trainfile='data/dataset_train.csv', 	
          valtestfile='data/dataset_valid.csv', 	
          seed=999, 	
          ratio=0.2)

1.1 參數解讀

split_csv(infile, trainfile, valtestfile, seed, ratio)

infile:待分割的csv文件

trainfile:分割出的訓練cs文件

valtestfile:分割出的測試或驗證csv文件

seed:隨機種子,保證每次的隨機分割隨機性一致

ratio:測試(驗證)集占數據的比例

經過上面的操作,我們已經構建出實驗所需的數據:

訓練數據(這里說的是dataset_train.csv而不是train.csv)

驗證數據(dataset_train.csv)

測試數據(test.csv)。

二、分詞

導入的數據是字符串形式的文本,我們需要將其分詞成詞語列表。英文最精準的分詞器如下:

import re	
import spacy	
import jieba	
	
#英文的分詞器	
NLP = spacy.load('en_core_web_sm')	
MAX_CHARS = 20000  #為了降低處理的數據規模,可以設置最大文本長度,超過的部分忽略,	
def tokenize1(text):	
    text = re.sub(r"\s", " ", text)	
    if (len(text) gt; MAX_CHARS):	
        text = text[:MAX_CHARS]	
    return [	
        x.text for x in NLP.tokenizer(text) if x.text != " " and len(x.text)gt;1]	
#有的同學tokenize1用不了,可以使用tokenize2。	
def tokenize2(text):	
    text = re.sub(r"\s", " ", text)	
    if (len(text) gt; MAX_CHARS):	
        text = text[:MAX_CHARS]	
    return [w for w in text.split(' ') if len(w)gt;1]	
#中文的分類器比較簡單	
def tokenize3(text):	
    if (len(text) gt; MAX_CHARS):	
        text = text[:MAX_CHARS]	
    return [w for w in jieba.lcut(text) if len(w)gt;1]	
	
print(tokenize1('Python is powerful and beautiful!'))	
print(tokenize2('Python is powerful and beautiful!'))	
print(tokenize3('Python強大而美麗!'))

Run

['Python', 'is', 'powerful', 'and', 'beautiful']	
['Python', 'is', 'powerful', 'and', 'beautiful!']	
['Python', '強大', '美麗']

三、 導入數據

torchtext中使用torchtext.data.TabularDataset來導入自己的數據集,并且我們需要先定義字段的數據類型才能導入。要按照csv中的字段順序來定義字段的數據類型,我們的csv文件中有兩個字段(label、text)

import pandas as pd	
df = pd.read_csv('data/train.csv')	
df.head()

import torch	
import torchtext	
from torchtext import data	
import logging	
LABEL = data.LabelField(dtype = torch.float)	
TEXT = data.Field(tokenize = tokenize1, 	
                      lower=True,	
                      fix_length=100,	
                      stop_words=None)	
train, valid, test = data.TabularDataset.splits(path='data', #數據所在文件夾	
                                                train='dataset_train.csv', 	
                                                validation='dataset_valid.csv',	
                                                test = 'test.csv',	
                                                format='csv', 	
                                                skip_header=True,	
                                                fields = [('label', LABEL),('text', TEXT)])	
train

Run

lt;torchtext.data.dataset.TabularDataset at 0x120d8ab38gt;

四、構建詞典

根據訓練(上面得到的train)的預料數據集構建詞典。這兩有兩種構建方式,一種是常規的不使用詞向量,而另一種是使用向量的。

區別僅僅在于vectors是否傳入參數

vects =  torchtext.vocab.Vectors(name = 'glove.6B.100d.txt', 	
                                 cache = 'data/')	
TEXT.build_vocab(train,	
                 max_size=2000, 	
                 min_freq=50,   	
                 vectors=vects,  #vects替換為None則不使用詞向量	
                 unk_init = torch.Tensor.normal_)

4.1 TEXT是Field對象,該對象的方法有

print(type(TEXT)) 
print(type(TEXT.vocab))

Run

lt;class 'torchtext.data.field.Field'gt; 
lt;class 'torchtext.vocab.Vocab'gt;

詞典-詞語列表形式,這里只顯示前20個

TEXT.vocab.itos[:20]
['lt;unkgt;', 
 'lt;padgt;', 
 'to', 
 'you', 
 'the', 
 '...', 
 'and', 
 'is', 
 'in', 
 'me', 
 'it', 
 'my', 
 'for', 
 'your', 
 '..', 
 'do', 
 'of', 
 'have', 
 'that', 
 'call']

詞典-字典形式

TEXT.vocab.stoi
defaultdict(lt;bound method Vocab._default_unk_index of lt;torchtext.vocab.Vocab object at 0x1214b1e48gt;gt;, 
            {'lt;unkgt;': 0, 
             'lt;padgt;': 1, 
             'to': 2, 
             'you': 3, 
             'the': 4, 
             '...': 5, 
             'and': 6, 
             'is': 7, 
             'in': 8, 
             .... 
             'mother': 0, 
             'english': 0, 
             'son': 0, 
             'gradfather': 0, 
             'father': 0, 
             'german': 0)

4.2 注意

train數據中生成的詞典,里面有,這里有兩個要注意:

是指不認識的詞語都編碼為

german、father等都編碼為0,這是因為我們要求詞典中出現的詞語詞頻必須大于50,小于50的都統一分配一個索引值。

詞語you對應的詞向量

TEXT.vocab.vectors[3]
tensor([-0.4989,  0.7660,  0.8975, -0.7855, -0.6855,  0.6261, -0.3965,  0.3491,	
         0.3333, -0.4523,  0.6122,  0.0759,  0.2253,  0.1637,  0.2810, -0.2476,	
         0.0099,  0.7111, -0.7586,  0.8742,  0.0031,  0.3580, -0.3523, -0.6650,	
         0.3845,  0.6268, -0.5154, -0.9665,  0.6152, -0.7545, -0.0124,  1.1188,	
         0.3572,  0.0072,  0.2025,  0.5011, -0.4405,  0.1066,  0.7939, -0.8095,	
        -0.0156, -0.2289, -0.3420, -1.0065, -0.8763,  0.1516, -0.0853, -0.6465,	
        -0.1673, -1.4499, -0.0066,  0.0048, -0.0124,  1.0474, -0.1938, -2.5991,	
         0.4053,  0.4380,  1.9332,  0.4581, -0.0488,  1.4308, -0.7864, -0.2079,	
         1.0900,  0.2482,  1.1487,  0.5148, -0.2183, -0.4572,  0.1389, -0.2637,	
         0.1365, -0.6054,  0.0996,  0.2334,  0.1365, -0.1846, -0.0477, -0.1839,	
         0.5272, -0.2885, -1.0742, -0.0467, -1.8302, -0.2120,  0.0298, -0.3096,	
        -0.4339, -0.3646, -0.3274, -0.0093,  0.4721, -0.5169, -0.5918, -0.3234,	
         0.2005, -0.4118,  0.4054,  0.7850])

4.3 計算詞語的相似性

得用詞向量構建特征工程時能保留更多的信息量(詞語之間的關系)

這樣可以看出詞語的向量方向

是同義還是反義

距離遠近。

而這里我們粗糙的用余弦定理計算詞語之間的關系,沒有近義反義關系,只能體現出距離遠近(相似性)。

from sklearn.metrics.pairwise import cosine_similarity 
import numpy as np 
def simalarity(word1, word2): 
    word_vec1 = TEXT.vocab.vectors[TEXT.vocab.stoi[word1]].tolist() 
    word_vec2 = TEXT.vocab.vectors[TEXT.vocab.stoi[word2]].tolist() 
    vectors = np.array([word_vec1, word_vec2]) 
    return cosine_similarity(vectors) 
print(simalarity('you', 'your'))

Run

[[1.         0.83483314] 
 [0.83483314 1.        ]]

五、get_dataset函數

相似的功能合并成模塊,可以增加代碼的可讀性。這里我們把階段性合并三四的成果get_dataset函數

from torchtext import data	
import torchtext	
import torch	
import logging	
LOGGER = logging.getLogger("導入數據")	
def get_dataset(stop_words=None):	
    #定義字段的數據類型	
    LABEL = data.LabelField(dtype = torch.float)	
    TEXT = data.Field(tokenize = tokenize1, 	
                      lower=True,	
                      fix_length=100,	
                      stop_words=stop_words)	
    LOGGER.debug("準備讀取csv數據...")	
    train, valid, test = data.TabularDataset.splits(path='data', #數據所在文件夾	
                                         train='dataset_train.csv', 	
                                         validation='dataset_valid.csv',	
                                         test = 'test.csv',	
                                         format='csv', 	
                                         skip_header=True,	
                                         fields = [('label', LABEL),('text', TEXT)])	
    LOGGER.debug("準備導入詞向量...")	
    vectors = torchtext.vocab.Vectors(name = 'glove.6B.100d.txt', 	
                                      cache = 'data/')	
    LOGGER.debug("準備構建詞典...")	
    TEXT.build_vocab(	
        train,	
        max_size=2000, 	
        min_freq=50,   	
        vectors=vectors,	
        unk_init = torch.Tensor.normal_)	
    LOGGER.debug("完成數據導入!")	
    return train,valid, test, TEXT

get_dataset函數內部參數解讀

data.Field(tokenize,fix_length)定義字段

tokenize=tokenize1 使用英文的分詞器tokenize1函數。

fix_length=100 讓每個文本分詞后的長度均為100個詞;不足100的,可以填充為100。超過100的,只保留100

data.TabularDataset.splits(train, validation,test, format,skip_header,fields)讀取訓練驗證數據,可以一次性讀取多個文件

train/validation/test 訓練驗證測試對應的csv文件名

skip_header=True 如果csv有抬頭,設置為True可以避免pytorch將抬頭當成一條記錄

fields = [('label', LABEL), ('text', TEXT)] 定義字段的類型,注意fields要按照csv抬頭中字段的順序設置

torchtext.vocab.Vectors(name, cache)導入詞向量數據文件

name= 'glove.6B.100d.txt' 從網上下載預訓練好的詞向量glove.6B.100d.txt文件(該文件有6B個詞,每個詞向量長度為100)

cache = 'data/' 文件夾位置。glove文件存放在data文件夾內

TEXT.buildvocab(maxsize,minfreq,unkinit) 構建詞典,其中

max_size=2000 設定了詞典最大詞語數

min_freq=50設定了詞典中的詞語保證最少出現50次

unkinit=torch.Tensor.normal 詞典中沒有的詞語對應的向量統一用torch.Tensor.normal_填充

六、分批次

數據集太大的話,一次性讓機器讀取容易導致內存崩潰。解決辦法就是將大的數據集分成更小份的數據集,分批處理

def split2batches(batch_size=32, device='cpu'):	
    train, valid, test, TEXT = get_dataset() #datasets按順序包含train、valid、test三部分	
    LOGGER.debug("準備數據分批次...")	
    train_iterator, valid_iterator, test_iterator = data.BucketIterator.splits((train, valid, test), 	
                                                                               batch_size = batch_size,	
                                                                               sort = False,	
                                                                               device = device)	
    LOGGER.debug("完成數據分批次!")	
    return train_iterator, valid_iterator, test_iterator, TEXT

6.1參數解讀

split2batches(batch_size=32, device=0)

batch_size 每批次最多加入多少條評論

device device='cpu'在CPU中運行,device='gpu' 在GPU中運行。普通電腦都只有CPU的 該函數返回的是BucketIterator對象

train_iterator, valid_iterator, test_iterator, TEXT = split2batches() 
train_iterator

Run

lt;torchtext.data.iterator.BucketIterator at 0x12b0c7898gt;

查看train_iterator數據類型

type(train_iterator)
torchtext.data.iterator.BucketIterator

6.2BucketIterator對象

這里以trainiterator為例(validiterator, test_iterator都是相同的對象)。因為本例中數據有兩個字段label和text,所以

獲取train_iterator的dataset

train_iterator.dataset
lt;torchtext.data.dataset.TabularDataset at 0x12e9c57b8gt;

獲取train_iterator中的第8個對象

train_iterator.dataset.examples[7]
lt;torchtext.data.example.Example at 0x12a82dcf8gt;

獲取train_iterator中的第8個對象的lebel字段的內容

train_iterator.dataset.examples[7].label
'ham'

獲取train_iterator中的第8個對象的text字段的內容

train_iterator.dataset.examples[7].text
['were', 'trying', 'to', 'find', 'chinese', 'food', 'place', 'around', 'here']

總結

到這里我們已經學習了torchtext的常用知識。使用本代碼要注意:

我們假設數據集是csv文件,torchtext可以還可以處理tsv、json。但如果你想使用本代碼,請先轉為csv

本教程的csv文件只有兩個字段,label和text。如果你的數據有更多的字段,記得再代碼中增加字段定義

本教程默認場景是英文,且使用詞向量。所以記得對應位置下載本教程的glove.6B.100d.txt。

glove下載地址https://nlp.stanford.edu/projects/glove/

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

您可能感興趣的文章:
  • 使用pytorch和torchtext進行文本分類的實例
  • pytorch加載語音類自定義數據集的方法教程
  • pytorch下大型數據集(大型圖片)的導入方式
  • PyTorch加載自己的數據集實例詳解

標簽:黑龍江 上海 黔西 惠州 四川 鷹潭 益陽 常德

巨人網絡通訊聲明:本文標題《使用torchtext導入NLP數據集的操作》,本文關鍵詞  使用,torchtext,導入,NLP,數據,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《使用torchtext導入NLP數據集的操作》相關的同類信息!
  • 本頁收集關于使用torchtext導入NLP數據集的操作的相關信息資訊供網民參考!
  • 推薦文章
    中文字幕精品—区二区四季| 久久久久久99| 精品午夜福利在线观看| 亚洲精品免费一二三区| 久久99精品久久久久久久久久| 91尤物国产福利在线观看| 日韩精品一区二区三区在线| 男女视频一区二区三区| 国产一区二区电影| 国产欧美久久久久久| 亚洲影院在线播放| 亚洲精品在线一区二区| 少妇搡bbbb搡bbb搡打电话| 亚洲美女少妇撒尿| 好吊色视频988gao在线观看| 久久尤物视频| 性欧美办公室18xxxxhd| 激情四射综合网| 欧美一区二区三区免费大片 | 欧美日韩亚洲第一| 国产色综合一区| 久久久久久久久久久久久久久久av | 九九九久久久久久久| 亚洲国产精品久久久久婷婷884| 国产女教师bbwbbwbbw| 成年人网站91| 蜜桃91精品入口| 好男人www在线视频| 欧美一区二区色| 极品国产91在线网站| 色琪琪综合男人的天堂aⅴ视频| 99自拍偷拍视频| 678五月天丁香亚洲综合网| 极品白嫩的小少妇| 欧美性猛交视频| 日本免费高清一区| 精品一区二区在线免费观看| 国产精品久久国产三级国电话系列| 99久久精品免费看国产交换| 欧美制服第一页| 在线观看中文字幕码| 青草成人免费视频| 午夜精品无码一区二区三区| 国内精品中文字幕| 91精品在线视频观看| 久久久亚洲成人| 国产精品羞羞答答在线| 国产精品69久久| 少妇高潮一区二区三区69| 91久久中文字幕| 日本视频一区二区三区| 国产精品初高中精品久久| 丝袜美腿亚洲一区二区图片| 亚洲xxxx18| 蜜桃视频在线一区| 欧美日韩一区二 | 精品一区二区精品| 噜噜噜噜噜久久久久久91| 国产91高潮流白浆在线麻豆| 五月天色婷婷综合| 国产精品免费视频一区| 久草免费福利在线| 性久久久久久久| 日本少妇xxx| 精品欧美久久久| 青青草偷拍视频| 欧美激情精品久久久久久蜜臀| 中文字幕一区二区三区人妻四季| 国产一区视频在线| 国产福利一区二区三区| 亚洲在线不卡| 亚洲精品国产成人久久av盗摄| 中文字幕在线观看日| 日韩欧美国产三级| 日韩aaaaaa| 国产精品电影网| 九九视频精品免费| 蜜臀在线免费观看| 色综合久久中文综合久久牛| 日韩精品无码一区二区三区久久久| 亚洲一区第一页| 91在线观看喷潮| 黑人巨大精品欧美一区二区小视频| 99国产欧美另类久久久精品| 中文字幕乱码人妻综合二区三区 | www.日韩一区| 粉嫩av一区二区三区免费观看| 久久亚洲综合av| 精品亚洲视频在线| 亚洲毛片一区二区| 国产伦一区二区| 久久久7777| 一区二区三区av电影 | 杨幂一区二区国产精品| 亚洲美女福利视频网站| 国产手机视频在线| 亚洲成色最大综合在线| 午夜久久久久久久久| 少妇av片在线观看| 国产91精品久| 99re成人精品视频| 在线观看视频你懂得| 亚洲成年人影院在线| 国产成人麻豆免费观看| 欧美三级电影在线播放| 一区二区三区精密机械公司| 免费黄色激情视频| 成人日韩在线电影| 亚洲少妇中出一区| 舐め犯し波多野结衣在线观看| 欧美理论电影在线观看| 国产精品88888| 超碰人人草人人| 中文字幕精品一区久久久久| 日韩专区在线视频| 97超碰在线人人| 亚洲精品一线二线三线| 日韩专区第一页| 欧美a在线视频| 夜夜嗨av一区二区三区免费区| 日产国产欧美视频一区精品| 欧美伦理视频在线观看| 日韩国产欧美区| 老司机精品视频网站| 日本韩国欧美在线观看| 国产一区二区三区视频免费| 无码精品视频一区二区三区| 成年人网站大全| 中国日韩欧美久久久久久久久 | 波多野结衣中文字幕一区| 懂色av粉嫩av蜜臀av| 精品国产制服丝袜高跟| 日日夜夜免费精品| 国产欧美精品一二三| 91精品国产免费久久久久久| 国产精品免费免费| www.99热| 国产精品日本一区二区| 欧美日韩综合不卡| 风流少妇一区二区三区91| 久久国产亚洲精品无码| 国产婷婷色综合av蜜臀av | 真人bbbbbbbbb毛片| 国产精品视频久久久久| 亚洲午夜三级在线| 天堂网视频在线| 国产免费一区二区三区四在线播放| 在线成人av影院| 老**午夜毛片一区二区三区| 欧美日韩一区二区三区69堂| 久久国产精品久久国产精品| 久久久久国产精品厨房| 欧美成人免费观看视频| 日本一区二区三区视频免费看| 欧美成人一区二区三区在线观看| 日韩av在线播放中文字幕| 99久久久无码国产精品性波多 | 日韩午夜中文字幕| 美女在线一区二区| 欧美特级黄色录像| 国产区二精品视| 日韩美女视频一区二区在线观看| 久久精品av麻豆的观看方式| 永久免费成人代码| 国产伦精品一区二区三区四区免费 | 亚洲女同精品视频| 久久久国产精品不卡| 一级片视频在线观看| 黄色一级视频在线播放| 91精品国产91久久久| 五月天国产精品| 日本美女一级片| 国产原创剧情av| 韩国一区二区三区美女美女秀| 精品国产sm最大网站| 99久久精品免费看国产| 久久精品国产成人av| 国产精品欧美激情在线观看| 久久免费国产精品1| 日韩欧美中文第一页| 天堂精品中文字幕在线| 精品无码在线视频| 蜜桃精品久久久久久久免费影院| 欧美精品一区二区三区久久久| 91视频精品在这里| 国产成人麻豆免费观看| 日韩一区二区三区不卡视频| 亚洲自拍偷拍在线| 亚洲欧洲日韩国产| 日韩理论片网站| 天天干天天爽天天操| 五月天色婷婷丁香| 97成人在线免费视频| 成人欧美在线视频| 欧美精品一区二区三区高清aⅴ | 欧美一区二区三区四| 最新中文字幕2018| 快播亚洲色图| 欧美韩国理论所午夜片917电影| 色综合久久中文综合久久97 | 国产伦精品一区二区三区妓女| 欧美亚洲免费高清在线观看 | 久久亚洲一级片| 国产色片在线观看| 蜜桃无码一区二区三区| 黄色一级在线视频| 成人精品一区二区三区| 国产亚洲精品va在线观看| 亚洲大尺度视频在线观看| 免费成人av资源网| 无码一区二区三区在线观看| 中文字幕乱码在线| 免费一级特黄毛片| 91色p视频在线| 日韩在线观看免费av| 欧美日韩亚洲综合在线 | 美脚丝袜一区二区三区在线观看| 在线中文字幕日韩| 欧美日韩中文字幕一区二区| av在线不卡免费看| 熟妇人妻系列aⅴ无码专区友真希| 欧美精品一区二区蜜桃| 精品人妻一区二区三| 蜜桃视频成人在线观看| 亚洲最大福利网站| 久久精品久久久久久国产 免费| 6080午夜不卡| 亚洲午夜久久久久久久久电影网| 国产最新精品精品你懂的| 久久久久久久久影院| 无码国产精品一区二区免费式直播| 亚洲一区二区三区午夜| 亚洲一区免费网站| 91极品视频在线| 亚洲人高潮女人毛茸茸| 欧美日韩一区三区四区| 亚洲视频每日更新| 国产成人aaaa| 水蜜桃久久夜色精品一区的特点| 日本熟妇一区二区三区| 18啪啪污污免费网站| 天堂一区在线观看| 国产男女免费视频| 99蜜桃在线观看免费视频网站| 久久亚洲精品一区二区| 精品一区二区三区四区在线| 欧美在线一二三| 日韩一区在线播放| 国产欧美一区二区精品仙草咪| 国产寡妇亲子伦一区二区| 亚洲av少妇一区二区在线观看| 成人免费a视频| 免费一级肉体全黄毛片 | 91n在线视频| 无码h肉动漫在线观看| 三级黄色片播放| 欧美一级裸体视频| 国产极品粉嫩福利姬萌白酱 | 亚洲电影第1页| 91精品国产91热久久久做人人| 亚洲午夜在线视频| 亚洲综合色区另类av| 99久久精品国产一区色| 久久国产精品系列| 国产在线观看免费av| 网爆门在线观看| 国产又黄又粗的视频| 亚洲欧洲久久久| 毛茸茸多毛bbb毛多视频| 日韩aaaaa| caopor在线| 亚洲色图欧美另类| 在线观看国产免费视频| av网页在线观看| 中文成人无字幕乱码精品区| 99riav国产精品视频| 免费不卡的av| 一边摸一边做爽的视频17国产| 91高清国产视频| 日韩av福利在线观看| 男人的天堂免费| 国产精品伦子伦| 日本乱子伦xxxx| 波多野结衣办公室33分钟| 亚洲自拍偷拍一区二区| 美女100%露胸无遮挡| 波多野吉衣中文字幕| 91免费在线看片| 成人涩涩小片视频日本| 久久激情免费视频| 天天干,天天干| 一本一道精品欧美中文字幕| 亚洲国产精品suv| 天堂中文在线看| 五月激情婷婷网| 国产呦精品一区二区三区网站| 成人avav影音| 国产精品第一页第二页第三页| 亚洲一区二区高清| 欧美日韩一本到| 日韩欧美亚洲一区二区| 亚洲精品在线91| 欧美裸体男粗大视频在线观看| 情事1991在线| 国产精品自拍首页| 日韩精品成人一区二区在线观看| 国产盗摄视频在线观看| 国产精彩视频一区二区| 欧美一级视频在线| 熟妇高潮一区二区| avtt天堂在线| 国产精品女同一区二区| 丝袜美腿亚洲综合| 99视频精品在线| 国产精品久久午夜| 日韩人在线观看| 亚洲国产91精品在线观看| 欧美成人久久久| 成人自拍性视频| 中文字幕免费在线不卡| 欧美男女交配视频| 日日操免费视频| 狠狠狠狠狠狠狠| 日韩精品一级二级| 不卡av在线网| 午夜精品久久久久久久蜜桃app| 欧美性色黄大片| 最近的2019中文字幕免费一页| 国产精品久久久久久久av大片 | 一区二区在线播放视频| 六十路息与子猛烈交尾| 五月婷婷中文字幕| 久久精品欧洲| 国产精品久久二区二区| 色嗨嗨av一区二区三区| 亚洲色图15p| 日本免费一区二区三区视频观看| 欧美一二三四五区| 在线观看av网页| 性爱在线免费视频| 中文字幕av影视| 国产99精品国产| 色综合久久久久综合体| 神马久久久久久| 国产色视频一区| 免费的一级黄色片| 美女又爽又黄视频毛茸茸| 国产无套在线观看| 欧美96一区二区免费视频| 国产日韩综合av| 91精品国产日韩91久久久久久| 久久精品青青大伊人av| 国产在线一区二区三区欧美| 成人免费播放器| 波多野结衣家庭教师在线观看 | 欧美一级夜夜爽| 国产成人jvid在线播放| 青青草原亚洲| 欲求不满的岳中文字幕| 91美女精品网站| 久久久精品免费网站| 精品国产露脸精彩对白| 97精品欧美一区二区三区| 日韩av一区二区三区在线| 在线观看岛国av| 天天爽夜夜爽人人爽| 成人av在线资源网站| 欧美视频一二三区| 日本精品性网站在线观看| 国产精品日韩三级| 欧美成人777| 国内外成人在线| 欧美精品成人一区二区三区四区| 欧美丰满片xxx777| 在线视频亚洲自拍| 精品久久久久久中文字幕人妻最新| 亚洲图片欧美在线| 1024精品合集| 精品国偷自产在线| 中文字幕一区综合| 日韩人妻无码精品综合区| 视频在线观看一区二区三区| 粉嫩av一区二区三区免费野| 久久久久久12| 男人添女荫道口女人有什么感觉| 蜜乳av中文字幕| 午夜成人免费影院| 欧洲一区二区三区在线| 69av在线视频| 人妻丰满熟妇av无码区app| 久久午夜免费视频| 国产喷白浆一区二区三区| 亚洲二区中文字幕| 免费在线观看一区二区| 精品亚洲aⅴ无码一区二区三区| 免费观看黄色av| 欧美亚洲综合另类| 国产精品高潮呻吟久久av黑人| 国产精品沙发午睡系列| 在线能看的av| 亚洲视频免费看| 欧美孕妇性xx| 亚洲色图38p| 国产成人精品免费看视频| 亚洲一区免费观看| 国产精品嫩草影院一区二区| 中文字幕第九页| 国产一区二区三区观看| 亚洲第一网站免费视频| 亚洲精美视频|