午夜视频免费看_日韩三级电影网站_国产精品久久一级_亚洲一级在线播放_人妻体内射精一区二区三区_91夜夜揉人人捏人人添红杏_91福利在线导航_国产又粗又猛又黄又爽无遮挡_欧美日韩一区在线播放_中文字幕一区二区三区四区不卡 _日日夜夜精品视频免费观看_欧美韩日一区二区三区

主頁 > 知識庫 > pytorch 優化器(optim)不同參數組,不同學習率設置的操作

pytorch 優化器(optim)不同參數組,不同學習率設置的操作

熱門標簽:唐山智能外呼系統一般多少錢 海南400電話如何申請 哈爾濱ai外呼系統定制 激戰2地圖標注 騰訊外呼線路 白銀外呼系統 陜西金融外呼系統 廣告地圖標注app 公司電話機器人

optim 的基本使用

for do:

1. 計算loss

2. 清空梯度

3. 反傳梯度

4. 更新參數

optim的完整流程

cifiron = nn.MSELoss()
optimiter = torch.optim.SGD(net.parameters(),lr=0.01,momentum=0.9)
for i in range(iters):
    out = net(inputs)
    loss = cifiron(out,label)
    optimiter.zero_grad()  # 清空之前保留的梯度信息
    loss.backward()   # 將mini_batch 的loss 信息反傳回去
 optimiter.step()  # 根據 optim參數 和 梯度 更新參數  w.data -= w.grad*lr

網絡參數 默認使用統一的 優化器參數

如下設置 網絡全局參數 使用統一的優化器參數

optimiter = torch.optim.Adam(net.parameters(),lr=0.01,momentum=0.9)

如下設置將optimizer的可更新參數分為不同的三組,每組使用不同的策略

   optimizer = torch.optim.SGD([
            {'params': other_params}, 
            {'params': first_params, 'lr': 0.01*args.learning_rate},
            {'params': second_params, 'weight_decay': args.weight_decay}],
            lr=args.learning_rate,
            momentum=args.momentum,
    )

我們追溯一下構造Optim的過程

為了更好的看整個過程,去掉了很多 條件判斷 語句,如 >0 0

# 首先是 子類Adam 的構造函數
class Adam(Optimizer):
    def __init__(self, params, lr=1e-3, betas=(0.9, 0.999), eps=1e-8,
                 weight_decay=0, amsgrad=False):
        defaults = dict(lr=lr, betas=betas, eps=eps,
                        weight_decay=weight_decay, amsgrad=amsgrad)
        '''
        構造了 參數params,可以有兩種傳入格式,分別對應 
        1. 全局參數 net.parameters() 
        2. 不同參數組 [{'params': other_params}, 
                      {'params': first_params, 'lr': 0.1*lr}]
        和 全局> 的默認參數字典defaults
        '''
        # 然后調用 父類Optimizer 的構造函數
        super(Adam, self).__init__(params, defaults)
        
# 看一下 Optim類的構造函數  只有兩個輸入 params 和 defaults
class Optimizer(object):
    def __init__(self, params, defaults):
        torch._C._log_api_usage_once("python.optimizer")
        self.defaults = defaults
		
        self.state = defaultdict(dict)
        self.param_groups = [] # 自身構造的參數組,每個組使用一套參數
		
        param_groups = list(params)
        if len(param_groups) == 0:
            raise ValueError("optimizer got an empty parameter list")
        # 如果傳入的net.parameters(),將其轉換為 字典
        if not isinstance(param_groups[0], dict):
            param_groups = [{'params': param_groups}]
		
        for param_group in param_groups:
        #add_param_group 這個函數,主要是處理一下每個參數組其它屬性參數(lr,eps)
            self.add_param_group(param_group)
	def add_param_group(self, param_group):
        # 如果當前 參數組中 不存在默認參數的設置,則使用全局參數屬性進行覆蓋
        '''
        [{'params': other_params}, 
         {'params': first_params, 'lr': 0.1*lr}]
         如第一個參數組 只提供了參數列表,沒有其它的參數屬性,則使用全局屬性覆蓋,第二個參數組 則設置了自身的lr為全局 (0.1*lr)
        '''
        for name, default in self.defaults.items():
            if default is required and name not in param_group:
                raise ValueError("parameter group didn't specify a value of required optimization parameter " +
                                 name)
            else:
                param_group.setdefault(name, default)
		# 判斷 是否有一個參數 出現在不同的參數組中,否則會報錯
        param_set = set()
        for group in self.param_groups:
            param_set.update(set(group['params']))
        if not param_set.isdisjoint(set(param_group['params'])):
            raise ValueError("some parameters appear in more than one parameter group")
		# 然后 更新自身的參數組中
        self.param_groups.append(param_group)

網絡更新的過程(Step)

具體實現

1、我們拿SGD舉例,首先看一下,optim.step 更新函數的具體操作

2、可見,for group in self.param_groups,optim中存在一個param_groups的東西,其實它就是我們傳進去的param_list,比如我們上面傳進去一個長度為3的param_list,那么 len(optimizer.param_groups)==3 , 而每一個 group 又是一個dict, 其中包含了 每組參數所需的必要參數 optimizer.param_groups:長度2的list,optimizer.param_groups[0]:長度6的字典

3、然后取回每組 所需更新的參數for p in group['params'] ,根據設置 計算其 正則化 及 動量累積,然后更新參數 w.data -= w.grad*lr

def step(self, closure=None):
        loss = None
        if closure is not None:
            loss = closure()
        for group in self.param_groups:
        	# 本組參數更新所必需的 參數設置
            weight_decay = group['weight_decay']
            momentum = group['momentum']
            dampening = group['dampening']
            nesterov = group['nesterov']
            for p in group['params']:  # 本組所有需要更新的參數 params
                if p.grad is None:  # 如果沒有梯度 則直接下一步
                    continue
                d_p = p.grad.data
                # 正則化 及 動量累積 操作
                if weight_decay != 0:
                    d_p.add_(weight_decay, p.data)
                if momentum != 0:
                    param_state = self.state[p]
                    if 'momentum_buffer' not in param_state:
                        buf = param_state['momentum_buffer'] = torch.clone(d_p).detach()
                    else:
                        buf = param_state['momentum_buffer']
                        buf.mul_(momentum).add_(1 - dampening, d_p)
                    if nesterov:
                        d_p = d_p.add(momentum, buf)
                    else:
                        d_p = buf
				# 當前組 學習參數 更新  w.data -= w.grad*lr
                p.data.add_(-group['lr'], d_p)
        return loss

如何獲取指定參數

1、可以使用model.named_parameters() 取回所有參數,然后設定自己的篩選規則,將參數分組

2、取回分組參數的id map(id, weight_params_list)

3、取回剩余分特殊處置參數的id other_params = list(filter(lambda p: id(p) not in params_id, all_params))

    all_params = model.parameters()
    weight_params = []
    quant_params = []
    # 根據自己的篩選規則  將所有網絡參數進行分組
    for pname, p in model.named_parameters():
        if any([pname.endswith(k) for k in ['cw', 'dw', 'cx', 'dx', 'lamb']]):
            quant_params += [p]
        elif ('conv' or 'fc' in pname and 'weight' in pname):
            weight_params += [p]    
	# 取回分組參數的id
    params_id = list(map(id, weight_params)) + list(map(id, quant_params))
    # 取回剩余分特殊處置參數的id
    other_params = list(filter(lambda p: id(p) not in params_id, all_params))
	# 構建不同學習參數的優化器
	optimizer = torch.optim.SGD([
            {'params': other_params}, 
            {'params': quant_params, 'lr': 0.1*args.learning_rate},
            {'params': weight_params, 'weight_decay': args.weight_decay}],
            lr=args.learning_rate,
            momentum=args.momentum,
    )

獲取指定層的參數id

# # 以層為單位,為不同層指定不同的學習率
# ## 提取指定層對象
special_layers = t.nn.ModuleList([net.classifiter[0], net.classifiter[3]])
# ## 獲取指定層參數id
special_layers_params = list(map(id, special_layers.parameters()))
print(special_layers_params)
# ## 獲取非指定層的參數id
base_params = filter(lambda p: id(p) not in special_layers_params, net.parameters())
optimizer = t.optim.SGD([{'params': base_params},
                         {'params': special_layers.parameters(), 'lr': 0.01}], lr=0.001)

補充:【pytorch】篩選凍結部分網絡層參數同時設置有參數組的時候該怎么辦?

在進行神經網絡訓練的時候,常常需要凍結部分網絡層的參數,不想讓他們回傳梯度。這個其實很簡單,其他博客里教程很多~

那如果,我想對不同的參數設置不同的學習率呢?這個其他博客也有,設置參數組就好啦,優化器就可以分別設置學習率了。

那么,如果我同時想凍結參數和設置不同的學習率呢?是不是把兩個人給合起來就好了?好的那你試試吧看看行不行。

我最近工作中需要對two-stream的其中的一只進行凍結,并且設置不同的學習率。下面記錄一下我踩的坑。

首先,我們需要篩選所需要的層。我想要把名字里含有特定符號的層給篩選出來。在這里我要強烈推薦這個利用正則表達式來進行字符串篩選的方式!

import re
str = 'assdffggggg'
word = 'a'
 a = [m.start() for m in re.finditer(word, str)]

這里的a是一個列表,它里面包含的是word在字符串str中所在的位置,這里自然就是0了。

在進行網絡層參數凍結的時候,網上會有兩種for循環:

for name, p in net.named_parameters():
for p in net.parameters():

這兩種都行,但是對于需要對特定名稱的網絡層進行凍結的時候就需要選第一個啦,因為我們需要用到參數的"name"屬性。

下面就是簡單的篩選和凍結,和其他教程里面的一樣:

word1 = 'seg'
for name, p in decode_net.named_parameters():
    str = name
    a = [m.start() for m in re.finditer(word1, str)]
    if a: #列表a不為空的話就設置回傳的標識為False
        p.requires_grad = False
    else:
        p.requires_grad = True
    #if p.requires_grad:#這個判斷可以打印出需要回傳梯度的層的名稱
        #print(name)

到這里我們就完成了網絡參數的凍結。我真正想要分享的在下面這個部分!!看了四天的大坑!

凍結部分層的參數之后,我們在使用優化器的時候就需要先把不需要回傳梯度的參數給過濾掉,如果不過濾就會報錯,優化器就會抱怨你怎么把不需要優化的參數給放進去了balabala的。所以我們加一個:

optimizer = optim.SGD(
            filter(lambda p: p.requires_grad, net.parameters()),  # 記住一定要加上filter(),不然會報錯
            lr=0.01, weight_decay=1e-5, momentum=0.9)

到這里也沒有任何的問題。但是!我做分割的encode部分是pre-trained的resnet,這部分我的學習率不想和我decode的部分一樣啊!不然我用pre-trained的有啥用??so,我劃分了一個參數組:

base_params_id = list(map(id, net.conv1.parameters())) + list(map(id,net.bn1.parameters()))+\

 list(map(id,net.layer1.parameters())) + list(map(id,net.layer2.parameters())) \

  + list(map(id,net.layer3.parameters())) + list(map(id,net.layer4.parameters()))
new_params = filter(lambda p: id(p) not in base_params_id , net.parameters())
base_params = filter(lambda p: id(p) in base_params_id, net.parameters())

好了,那么這個時候,如果我先不考慮過濾的話,優化器的設置應該是這樣的:

optimizerG = optim.SGD([{'params': base_params, 'lr': 1e-4}, 
                        {'params': new_params}], lr = opt.lr, momentum = 0.9, weight_decay=0.0005)

那么,按照百度出來的教程,我下一步要加上過濾器的話是不是應該:

optimizerG = optim.SGD( filter(lambda p: p.requires_grad, net.parameters()),
      [{'params': base_params, 'lr': 1e-4}, 
                        {'params': new_params}], lr = opt.lr, momentum = 0.9, weight_decay=0.0005)

好的看起來沒有任何的問題,但是運行的時候就開始報錯:

就是這里!!一個剛開始用pytorch的我!什么都不懂!然后我看了四天!!最后查閱了官方文檔才知道為什么報錯。以后看到這種提示init函數錯誤的都要記得去官方doc上看說明。

這里其實寫的很清楚了,SGD優化器每個位置都是什么參數。到這里應該已經能看出來哪里有問題了吧?

optimizerG = optim.SGD( filter(lambda p: p.requires_grad, net.parameters()),
      [{'params': base_params, 'lr': 1e-4}, 
                        {'params': new_params}], lr = opt.lr, momentum = 0.9, weight_decay=0.0005)

看我的SGD函數每個參數的位置,第一個放的是過濾器,第二個是參數組,然后是lr,對比官方的定義:第一個參數,第二個是lr等等。

所以錯誤就在這里!我第一個位置放了過濾器!第二個位置是參數組!所以他把過濾器當作參數,參數組當作學習率,然后就報錯說lr接受到很多個值……

仔細去看其他博客的教程,基本是只有分參數組的優化器設置和凍結層了之后優化器的設置。沒有又分參數組又凍結部分層參數的設置。所以設置過濾器把不需要優化的參數給踢掉這個步驟還是要的,但是在現在這種情況下不應該放在SGD里!

new_params = filter(lambda p: id(p) not in base_params_id and p.requires_grad,\

    netG.parameters())
base_params = filter(lambda p: id(p) in base_params_id,
                     netG.parameters())     

應該在劃分參數組的時候就添加過濾器,將不需要回傳梯度的參數過濾掉(這里就是直接篩選p.requires_grad即可)。如此便可以順利凍結參數并且設置參數組啦!

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。

您可能感興趣的文章:
  • 在pytorch中動態調整優化器的學習率方式
  • 淺談Pytorch torch.optim優化器個性化的使用
  • pytorch 實現在一個優化器中設置多個網絡參數的例子
  • 詳解PyTorch批訓練及優化器比較
  • pytorch中的優化器optimizer.param_groups用法

標簽:黑龍江 益陽 常德 四川 惠州 上海 黔西 鷹潭

巨人網絡通訊聲明:本文標題《pytorch 優化器(optim)不同參數組,不同學習率設置的操作》,本文關鍵詞  pytorch,優化,器,optim,不同,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《pytorch 優化器(optim)不同參數組,不同學習率設置的操作》相關的同類信息!
  • 本頁收集關于pytorch 優化器(optim)不同參數組,不同學習率設置的操作的相關信息資訊供網民參考!
  • 推薦文章
    久久av资源网| 精品久久久久久无码人妻| 久久国产尿小便嘘嘘| 亚洲xxxx在线| 天天操天天摸天天干| 久久精品视频播放| 中国一级特黄录像播放| 中文一区二区在线观看| 91九色国产社区在线观看| 日韩一级免费视频| 亚洲综合中文字幕在线| 国产aⅴ一区二区三区| 久久亚洲精品一区| 尤物视频免费观看| 91精品国产沙发| 亚洲第一色视频| 久久免费高清视频| 国产肥老妇视频| 欧美激情亚洲另类| 亚洲AV无码精品自拍| 国产成人精品999| 凸凹人妻人人澡人人添| 不卡日韩av| 成人午夜视频在线| 亚洲精品久久久久久久蜜桃臀| 国产日韩综合av| 在线视频一二三区| 国产精品区一区二区三| 日韩毛片在线免费看| 精品美女永久免费视频| 国产aaa一级片| 色综合色狠狠天天综合色| 国产伦精品一区二区三区视频女| 亚洲精品视频在线播放| 日本va欧美va国产激情| 欧美高跟鞋交xxxxhd| 国产suv一区二区| 国产日本一区二区三区| 国产偷国产偷亚洲高清人白洁| 日本人体一区二区| 一本大道久久a久久精二百| 国产女同无遮挡互慰高潮91| 欧美久久久久久蜜桃| 久久综合激情网| 91丨九色丨国产在线| 国产亚洲精久久久久久| 国产91在线视频观看| 在线欧美日韩国产| 三级影片在线看| 久久国产精品视频| 欧美极品另类videosde| 蜜臀精品一区二区三区在线观看| 亚洲一二三精品| 亚洲午夜精品久久| 亚洲国产精品一区二区久| 日本vs亚洲vs韩国一区三区二区 | 狠狠色狠狠色综合| 国产日本一区二区三区| 99久久精品免费| 久久久久久久久久久久国产精品| 日韩电影中文字幕在线观看| 精品国产伦一区二区三区| 亚洲最大的成人网| 中文字幕日韩精品一区| 我要看一级黄色录像| 国产日韩欧美成人| 亚洲午夜精品久久久久久久久| 欧美成人免费观看视频| 欧洲亚洲在线视频| 亚洲欧洲精品成人久久奇米网| 黄色录像二级片| 日本中文不卡| 日韩精品视频观看| 婷婷五月综合激情| 久久人人爽人人片| 久久亚洲精品一区二区| 六月婷婷色综合| 国产成人精品视频ⅴa片软件竹菊| 超在线视频97| 2021中文字幕一区亚洲| 欧美日韩在线视频免费| 国产在线观看不卡| 欧美日韩大陆一区二区| 中文字幕在线观看视频免费| 久久久久久99| 欧美一级夜夜爽| 久久精品99久久久| 国产91在线免费观看| 亚洲sss综合天堂久久| 日韩一级视频免费观看在线| 国产主播一区二区| 中文字幕在线观看的网站| 麻豆精品传媒视频| 在线成人免费视频| 91丝袜呻吟高潮美腿白嫩在线观看| 99re久久精品国产| 亚洲永久激情精品| 2019av中文字幕| 亚洲午夜久久久久久久久久久| 亚洲精品成av人片天堂无码| 97公开免费视频| 成人国产一区二区| 日韩中文在线不卡| 亚洲女与黑人做爰| 无码精品一区二区三区在线| 色18美女社区| 欧美日韩在线精品| 隔壁老王国产在线精品| 欧美一级午夜免费电影| 中文字幕在线一区| 中文字幕人成人乱码亚洲电影| 国产伦精品一区二区三区88av| 亚洲欧美日产图| 国产精品揄拍500视频| 亚洲一品av免费观看| 色哟哟在线观看一区二区三区| 高清乱码毛片入口| 黄色小视频在线免费看| www.com日本| 国产乱子伦农村叉叉叉| 久久精品人人做人人爽电影| 伊人青青综合网站| 欧美群妇大交群的观看方式| 中文字幕五月欧美| 丁香五精品蜜臀久久久久99网站 | 久久综合伊人| 成人在线免费看视频| 手机在线免费观看毛片| 日本一区二区三区在线视频 | 30一40一50老女人毛片| 99精品视频网站| 国产精品成人播放| 亚洲第一区在线观看| 亚洲男女毛片无遮挡| 久久一留热品黄| 日韩成人精品在线| 欧美三级网站在线观看| 亚洲av鲁丝一区二区三区| 爱情岛论坛成人| 男人天堂av片| 国产精彩视频一区二区| 久久99国产精品一区| 亚洲自拍欧美色图| 91免费视频国产| 91极品女神在线| 色在人av网站天堂精品| 欧美一级专区免费大片| 91麻豆精品国产91久久久资源速度| 欧美视频中文在线看| 天天操天天综合网| 亚洲777理论| 一区二区三区美女视频| 99久久99精品久久久久久| 日韩av高清在线观看| 日本不卡在线视频| 人人妻人人玩人人澡人人爽| 欧日韩在线视频| 日韩精品一区第一页| 免费在线观看视频一区| 韩国三级在线一区| 午夜视频www| 午夜精品一区二区三| 一级片一区二区三区| 国产精品露脸视频| www日本视频| 国产成人久久精品77777综合| 高清国产mv在线观看| 一级黄在线观看| 国产综合在线播放| 韩国女主播成人在线观看| 亚洲三区在线播放| 香蕉久久国产av一区二区| 国产在线播放一区三区四| 91蜜桃网址入口| 99精品在线观看视频| 国产欧美日韩视频一区二区| 91色在线porny| 国产精品福利一区二区三区| 色狠狠桃花综合| 在线观看视频一区二区| 午夜精品视频一区| 91精品国产综合久久精品性色| 亚洲乱码av中文一区二区| 久久久久久久久电影| 欧美成人亚洲成人日韩成人| 91精品国产自产在线| 国产精品白丝jk白祙| 免费cad大片在线观看| 丰满少妇中文字幕| 日韩成人短视频| 亚洲精品成人区在线观看| 国产大陆a不卡| 久久九九久久九九| 欧美艳星brazzers| 亚洲第一av在线| 日韩中文字幕精品视频| 粗暴蹂躏中文一区二区三区| av资源站久久亚洲| 精品久久久久久中文字幕2017| av免费播放网站| 国产无码精品久久久| 人人妻人人玩人人澡人人爽| 精品综合久久久久久8888| 亚洲男人的天堂av| 91精品在线一区二区| 蜜月aⅴ免费一区二区三区 | 国产精品综合激情| a天堂中文在线观看| 日本一区二区综合亚洲| 精品国产乱码久久久久久婷婷| 欧美日韩国产大片| 久久久久久亚洲精品| 五月天亚洲综合| 欧美日本一区二区三区| 欧美在线看片a免费观看| 久久久久久久久久久网站| eeuss一区二区三区| 日韩av福利在线观看| 九九热精品免费视频| 韩国av一区二区三区四区| 欧美日韩卡一卡二| 国产在线观看91精品一区| 国产精品va无码一区二区| 欧美黄色高清视频| 免费久久精品视频| 欧洲一区在线观看| 欧美又大又粗又长| 亚洲五月天综合| 国产永久免费视频| 国产三级欧美三级日产三级99 | 日本欧美一区二区三区| 一区在线观看视频| 欧美尺度大的性做爰视频| 欧美日韩精品综合| 午夜爽爽爽男女免费观看| 国产·精品毛片| 亚洲人午夜色婷婷| 日韩欧美一区电影| 97久草视频| 日韩不卡的av| 免费成人在线影院| 91精品国产综合久久久久久久久久| 91亚洲国产精品| 中国毛片在线观看| 99国产精品久久久久| 欧美一区二区日韩| 精品视频高清无人区区二区三区| 亚洲精品成人在线播放| 奇米影视在线99精品| 亚洲第一色在线| 亚洲欧美日韩不卡| 波多野结衣高清在线| 欧美性开放视频| 久久青青草原一区二区| 欧美三级视频网站| 成人av网站在线| 中文字幕无线精品亚洲乱码一区| 成人av一级片| 国产又粗又猛又爽又黄视频| 亚洲a一区二区| 成人激情视频在线播放| 国产 xxxx| 成人性视频网站| 色综合久综合久久综合久鬼88| 日本高清免费观看| 91麻豆国产香蕉久久精品| 国产成人亚洲精品| 国产探花在线视频| 亚洲男同1069视频| av在线不卡一区| 欧美精品成人久久| 亚洲天天做日日做天天谢日日欢| 成人黄色免费片| 国产 日韩 欧美 成人| 一区二区三区日韩欧美精品| 91精品国产99久久久久久红楼 | 美女网站视频在线观看| 欧美经典一区二区三区| 久久黄色av网站| 欧美一区二视频在线免费观看| 毛片在线免费视频| 精品成人在线观看| 亚洲av午夜精品一区二区三区| 中文字幕免费在线观看视频一区| 国产精品久久一区二区三区| 夜夜嗨aⅴ一区二区三区| 日韩在线欧美在线| 中文字幕成人动漫| 欧美色图在线视频| 成年人网站免费视频| 91在线一区二区| 欧美日韩精品免费观看| 丝袜亚洲精品中文字幕一区| 亚洲视频小说| 91亚洲精品久久久蜜桃网站 | 亚洲区中文字幕| 国产精品久久久久久亚洲色| 欧美日韩一区二区在线播放| 国产呦系列欧美呦日韩呦| 久久精品视频5| 欧美精品一区二区三区在线| 捷克做爰xxxⅹ性视频| 成人短视频下载| 亚洲成人第一| 麻豆一区二区99久久久久| 亚洲直播在线一区| 成人久久久精品国产乱码一区二区| 久久99亚洲精品| 国产又大又粗又爽| 久久国产精品电影| 国产一级做a爱免费视频| 亚洲欧美在线播放| 久久久久久久久久综合| 日韩中文综合网| 中文字幕一区二区三区四区欧美| 欧美成人精品三级在线观看| 91黑人精品一区二区三区| 欧美极品欧美精品欧美视频| 无码人妻丰满熟妇奶水区码| 91精品国产91久久久| 91成人一区二区三区| 欧洲日本亚洲国产区| 日日欢夜夜爽一区| 国产伦精品一区二区三区四区视频| 美腿丝袜在线亚洲一区| 欧美精品国产精品久久久| 久久66热re国产| 成年人免费观看的视频| 一区二区三区在线播放| 视频区 图片区 小说区| 制服丝袜激情欧洲亚洲| 国产高潮流白浆| 久久久久久91| 亚洲欧美自偷自拍| 鲁丝一区二区三区免费| 日韩一区欧美小说| 91九色蝌蚪porny| 亚洲第一男人av| 国产精品自拍第一页| 91精品久久久久久久| 99国产精品久久| 日本少妇xxx| 综合网中文字幕| 三级视频在线看| 亚洲一区二区三区免费观看| 偷拍与自拍一区| 久久亚洲精品大全| 99精品99久久久久久宅男| 中文字幕国产一区| 在线黄色免费网站| 欧美精品aaa| av电影在线观看完整版一区二区| 国产三级三级三级看三级| 精品国产欧美一区二区| 精品国产伦一区二区三| 福利在线小视频| 亚洲激情成人网| 久久久综合网| 国产xxxxx视频| 日韩中文字幕网址| 老司机精品视频在线| 日本中文字幕二区| 久久精品国产亚洲| 国产iv一区二区三区| 91丨porny丨九色| 97久久精品在线| 国产偷国产偷精品高清尤物| 一区二区黄色片| 亚洲a在线观看| 精品久久久久久久久久ntr影视 | 亚洲欧美日韩网| 极品少妇xxxx偷拍精品少妇| 奇米777在线视频| 国产91热爆ts人妖在线| 成人av在线资源网| 欧美精品日韩在线| 精品日韩美女| 日韩亚洲欧美一区| 天堂蜜桃91精品| 国产黄色一区二区三区| 国产美女高潮久久白浆| 午夜精品福利一区二区三区av | 国产尤物一区二区在线| 欧美激情视频二区| 日本午夜精品一区二区三区| 亚洲激情久久久| 成人黄色av电影| www.av成人| 99视频精品全部免费看| 九九视频直播综合网| 亚洲国产wwwccc36天堂| 亚洲免费黄色片| 一级片手机在线观看| 亚洲乱码一区二区三区三上悠亚| 亚洲精品国产精品国产自| 91丨九色丨国产丨porny| 激情五月色婷婷| 妞干网在线免费视频| 国产精品ⅴa在线观看h| 91精品国产入口在线| 国产高清一区日本| www.av麻豆| 中文写幕一区二区三区免费观成熟| 超碰97人人人人人蜜桃| 亚洲社区在线观看| 一区二区三区欧美激情| 天堂在线视频免费观看| 国产麻豆a毛片| 国产麻花豆剧传媒精品mv在线| 国产精品日韩欧美大师|