午夜视频免费看_日韩三级电影网站_国产精品久久一级_亚洲一级在线播放_人妻体内射精一区二区三区_91夜夜揉人人捏人人添红杏_91福利在线导航_国产又粗又猛又黄又爽无遮挡_欧美日韩一区在线播放_中文字幕一区二区三区四区不卡 _日日夜夜精品视频免费观看_欧美韩日一区二区三区

主頁 > 知識庫 > python基于scrapy爬取京東筆記本電腦數據并進行簡單處理和分析

python基于scrapy爬取京東筆記本電腦數據并進行簡單處理和分析

熱門標簽:打印谷歌地圖標注 淮安呼叫中心外呼系統如何 蘇州人工外呼系統軟件 電話機器人貸款詐騙 京華圖書館地圖標注 看懂地圖標注方法 佛山通用400電話申請 電話外呼系統招商代理 廣東旅游地圖標注

一、環境準備

  • python3.8.3
  • pycharm
  • 項目所需第三方包
pip install scrapy fake-useragent requests selenium virtualenv -i https://pypi.douban.com/simple

1.1 創建虛擬環境

切換到指定目錄創建

virtualenv .venv

創建完記得激活虛擬環境

1.2 創建項目

scrapy startproject 項目名稱

1.3 使用pycharm打開項目,將創建的虛擬環境配置到項目中來
1.4 創建京東spider

scrapy genspider 爬蟲名稱 url

1.5 修改允許訪問的域名,刪除https:

二、問題分析

爬取數據的思路是先獲取首頁的基本信息,在獲取詳情頁商品詳細信息;爬取京東數據時,只返回40條數據,這里,作者使用selenium,在scrapy框架中編寫下載器中間件,返回頁面所有數據。
爬取的字段分別是:

商品價格

商品評數

商品店家

商品SKU(京東可直接搜索到對應的產品)

商品標題

商品詳細信息

三、spider

import re
import scrapy


from lianjia.items import jd_detailItem


class JiComputerDetailSpider(scrapy.Spider):
    name = 'ji_computer_detail'
    allowed_domains = ['search.jd.com', 'item.jd.com']
    start_urls = [
        'https://search.jd.com/Search?keyword=%E7%AC%94%E8%AE%B0%E6%9C%AC%E7%94%B5%E8%84%91suggest=1.def.0.basewq=%E7%AC%94%E8%AE%B0%E6%9C%AC%E7%94%B5%E8%84%91page=1s=1click=0']

    def parse(self, response):
        lls = response.xpath('//ul[@class="gl-warp clearfix"]/li')
        for ll in lls:
            item = jd_detailItem()
            computer_price = ll.xpath('.//div[@class="p-price"]/strong/i/text()').extract_first()
            computer_commit = ll.xpath('.//div[@class="p-commit"]/strong/a/text()').extract_first()
            computer_p_shop = ll.xpath('.//div[@class="p-shop"]/span/a/text()').extract_first()
            item['computer_price'] = computer_price
            item['computer_commit'] = computer_commit
            item['computer_p_shop'] = computer_p_shop
            meta = {
                'item': item
            }
            shop_detail_url = ll.xpath('.//div[@class="p-img"]/a/@href').extract_first()
            shop_detail_url = 'https:' + shop_detail_url
            yield scrapy.Request(url=shop_detail_url, callback=self.detail_parse, meta=meta)
        for i in range(2, 200, 2):
            next_page_url = f'https://search.jd.com/Search?keyword=%E7%AC%94%E8%AE%B0%E6%9C%AC%E7%94%B5%E8%84%91suggest=1.def.0.basewq=%E7%AC%94%E8%AE%B0%E6%9C%AC%E7%94%B5%E8%84%91page={i}s=116click=0'
            yield scrapy.Request(url=next_page_url, callback=self.parse)

    def detail_parse(self, response):
        item = response.meta.get('item')
        computer_sku = response.xpath('//a[@class="notice J-notify-sale"]/@data-sku').extract_first()
        item['computer_sku'] = computer_sku
        computer_title = response.xpath('//div[@class="sku-name"]/text()').extract_first().strip()
        computer_title = ''.join(re.findall('\S', computer_title))
        item['computer_title'] = computer_title
        computer_detail = response.xpath('string(//ul[@class="parameter2 p-parameter-list"])').extract_first().strip()
        computer_detail = ''.join(re.findall('\S', computer_detail))
        item['computer_detail'] = computer_detail
        yield item


四、item

class jd_detailItem(scrapy.Item):
    # define the fields for your item here like:
    computer_sku = scrapy.Field()
    computer_price = scrapy.Field()
    computer_title = scrapy.Field()
    computer_commit = scrapy.Field()
    computer_p_shop = scrapy.Field()
    computer_detail = scrapy.Field()

五、setting

import random


from fake_useragent import UserAgent
ua = UserAgent()
USER_AGENT = ua.random
ROBOTSTXT_OBEY = False
DOWNLOAD_DELAY = random.uniform(0.5, 1)
DOWNLOADER_MIDDLEWARES = {
    'lianjia.middlewares.jdDownloaderMiddleware': 543
}
ITEM_PIPELINES = {
    'lianjia.pipelines.jd_csv_Pipeline': 300
}

六、pipelines

class jd_csv_Pipeline:
    # def process_item(self, item, spider):
    #     return item
    def open_spider(self, spider):
        self.fp = open('./jd_computer_message.xlsx', mode='w+', encoding='utf-8')
        self.fp.write('computer_sku\tcomputer_title\tcomputer_p_shop\tcomputer_price\tcomputer_commit\tcomputer_detail\n')

    def process_item(self, item, spider):
        # 寫入文件
        try:
            line = '\t'.join(list(item.values())) + '\n'
            self.fp.write(line)
            return item
        except:
            pass

    def close_spider(self, spider):
        # 關閉文件
        self.fp.close()

七、middlewares

class jdDownloaderMiddleware:
    def process_request(self, request, spider):
        # 判斷是否是ji_computer_detail的爬蟲
        # 判斷是否是首頁
        if spider.name == 'ji_computer_detail' and re.findall(f'.*(item.jd.com).*', request.url) == []:
            options = ChromeOptions()
            options.add_argument("--headless")
            driver = webdriver.Chrome(options=options)
            driver.get(request.url)
            for i in range(0, 15000, 5000):
                driver.execute_script(f'window.scrollTo(0, {i})')
                time.sleep(0.5)
            body = driver.page_source.encode()
            time.sleep(1)
            return HtmlResponse(url=request.url, body=body, request=request)
        return None

八、使用jupyter進行簡單的處理和分析

其他文件:百度停用詞庫、簡體字文件
下載第三方包

!pip install seaborn jieba wordcloud PIL  -i https://pypi.douban.com/simple

8.1導入第三方包

import re
import os
import jieba
import wordcloud
import pandas as pd
import numpy as np
from PIL import Image
import seaborn as sns
from docx import Document
from docx.shared import Inches
import matplotlib.pyplot as plt
from pandas import DataFrame,Series

8.2設置可視化的默認字體和seaborn的樣式

sns.set_style('darkgrid')
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False

8.3讀取數據

df_jp = pd.read_excel('./jd_shop.xlsx')

8.4篩選Inteli5、i7、i9處理器數據

def convert_one(s):
    if re.findall(f'.*?(i5).*', str(s)) != []:
        return re.findall(f'.*?(i5).*', str(s))[0]
    elif re.findall(f'.*?(i7).*', str(s)) != []:
        return re.findall(f'.*?(i7).*', str(s))[0]
    elif re.findall(f'.*?(i9).*', str(s)) != []:
        return re.findall(f'.*?(i9).*', str(s))[0]
df_jp['computer_intel'] = df_jp['computer_detail'].map(convert_one)

8.5篩選筆記本電腦的屏幕尺寸范圍

def convert_two(s):
    if re.findall(f'.*?(\d+\.\d+英寸-\d+\.\d+英寸).*', str(s)) != []:
        return re.findall(f'.*?(\d+\.\d+英寸-\d+\.\d+英寸).*', str(s))[0]
df_jp['computer_in'] = df_jp['computer_detail'].map(convert_two)

8.6將評論數轉化為整形

def convert_three(s):
    if re.findall(f'(\d+)萬+', str(s)) != []:
        number = int(re.findall(f'(\d+)萬+', str(s))[0]) * 10000
        return number
    elif re.findall(f'(\d+)+', str(s)) != []:
        number = re.findall(f'(\d+)+', str(s))[0]
        return number
df_jp['computer_commit'] = df_jp['computer_commit'].map(convert_three)

8.7篩選出需要分析的品牌

def find_computer(name, s):
    sr = re.findall(f'.*({name}).*', str(s))[0]
    return sr
def convert(s):
    if re.findall(f'.*(聯想).*', str(s)) != []:
        return find_computer('聯想', s)
    elif re.findall(f'.*(惠普).*', str(s)) != []:
        return find_computer('惠普', s)
    elif re.findall(f'.*(華為).*', str(s)) != []:
        return find_computer('華為', s)
    elif re.findall(f'.*(戴爾).*', str(s)) != []:
        return find_computer('戴爾', s)
    elif re.findall(f'.*(華碩).*', str(s)) != []:
        return find_computer('華碩', s)
    elif re.findall(f'.*(小米).*', str(s)) != []:
        return find_computer('小米', s)
    elif re.findall(f'.*(榮耀).*', str(s)) != []:
        return find_computer('榮耀', s)
    elif re.findall(f'.*(神舟).*', str(s)) != []:
        return find_computer('神舟', s)
    elif re.findall(f'.*(外星人).*', str(s)) != []:
        return find_computer('外星人', s)
df_jp['computer_p_shop'] = df_jp['computer_p_shop'].map(convert)

8.8刪除指定字段為空值的數據

for n in ['computer_price', 'computer_commit', 'computer_p_shop', 'computer_sku', 'computer_detail', 'computer_intel', 'computer_in']:
    index_ls = df_jp[df_jp[[n]].isnull().any(axis=1)==True].index
    df_jp.drop(index=index_ls, inplace=True)

8.9查看各品牌的平均價格

plt.figure(figsize=(10, 8), dpi=100)
ax = sns.barplot(x='computer_p_shop', y='computer_price', data=df_jp.groupby(by='computer_p_shop')[['computer_price']].mean().reset_index())
for index,row in df_jp.groupby(by='computer_p_shop')[['computer_price']].mean().reset_index().iterrows():
    ax.text(row.name,row['computer_price'] + 2,round(row['computer_price'],2),color="black",ha="center")
ax.set_xlabel('品牌')
ax.set_ylabel('平均價格')
ax.set_title('各品牌平均價格')
boxplot_fig = ax.get_figure()
boxplot_fig.savefig('各品牌平均價格.png', dpi=400)

8.10 查看各品牌的價格區間

plt.figure(figsize=(10, 8), dpi=100)
ax = sns.boxenplot(x='computer_p_shop', y='computer_price', data=df_jp.query('computer_price>500'))
ax.set_xlabel('品牌')
ax.set_ylabel('價格區間')
ax.set_title('各品牌價格區間')
boxplot_fig = ax.get_figure()
boxplot_fig.savefig('各品牌價格區間.png', dpi=400)

8.11 查看價格與評論數的關系

df_jp['computer_commit'] = df_jp['computer_commit'].astype('int64')
ax = sns.jointplot(x="computer_commit", y="computer_price", data=df_jp, kind="reg", truncate=False,color="m", height=10)
ax.fig.savefig('評論數與價格的關系.png')

8.12 查看商品標題里出現的關鍵詞

import imageio

# 將特征轉換為列表
ls = df_jp['computer_title'].to_list()
# 替換非中英文的字符
feature_points = [re.sub(r'[^a-zA-Z\u4E00-\u9FA5]+',' ',str(feature)) for feature in ls]
# 讀取停用詞
stop_world = list(pd.read_csv('./百度停用詞表.txt', engine='python', encoding='utf-8', names=['stopwords'])['stopwords'])
feature_points2 = []
for feature in feature_points:  # 遍歷每一條評論
    words = jieba.lcut(feature) # 精確模式,沒有冗余.對每一條評論進行jieba分詞
    ind1 = np.array([len(word) > 1 for word in words])  # 判斷每個分詞的長度是否大于1
    ser1 = pd.Series(words)
    ser2 = ser1[ind1] # 篩選分詞長度大于1的分詞留下
    ind2 = ~ser2.isin(stop_world)  # 注意取反負號
    ser3 = ser2[ind2].unique()  # 篩選出不在停用詞表的分詞留下,并去重
    if len(ser3) > 0:
        feature_points2.append(list(ser3))
# 將所有分詞存儲到一個列表中
wordlist = [word for feature in feature_points2 for word in feature]
# 將列表中所有的分詞拼接成一個字符串
feature_str =  ' '.join(wordlist)   
# 標題分析
font_path = r'./simhei.ttf'
shoes_box_jpg = imageio.imread('./home.jpg')
wc=wordcloud.WordCloud(
    background_color='black',
    mask=shoes_box_jpg,
    font_path = font_path,
    min_font_size=5,
    max_font_size=50,
    width=260,
    height=260,
)
wc.generate(feature_str)
plt.figure(figsize=(10, 8), dpi=100)
plt.imshow(wc)
plt.axis('off')
plt.savefig('標題提取關鍵詞')

8.13 篩選價格在4000到5000,聯想品牌、處理器是i5、屏幕大小在15寸以上的數據并查看價格

df_jd_query = df_jp.loc[(df_jp['computer_price'] =5000)  (df_jp['computer_price']>=4000)  (df_jp['computer_p_shop']=="聯想")  (df_jp['computer_intel']=="i5")  (df_jp['computer_in']=="15.0英寸-15.9英寸"), :].copy()
plt.figure(figsize=(20, 10), dpi=100)
ax = sns.barplot(x='computer_sku', y='computer_price', data=df_jd_query)
ax.set_xlabel('聯想品牌SKU')
ax.set_ylabel('價格')
ax.set_title('酷睿i5處理器屏幕15寸以上各SKU的價格')
boxplot_fig = ax.get_figure()
boxplot_fig.savefig('酷睿i5處理器屏幕15寸以上各SKU的價格.png', dpi=400)

8.14 篩選價格在4000到5000,戴爾品牌、處理器是i7、屏幕大小在15寸以上的數據并查看價格

df_jp_daier = df_jp.loc[(df_jp['computer_price'] =5000)  (df_jp['computer_price']>=4000)  (df_jp['computer_p_shop']=="戴爾")  (df_jp['computer_intel']=="i7")  (df_jp['computer_in']=="15.0英寸-15.9英寸"), :].copy()
plt.figure(figsize=(10, 8), dpi=100)
ax = sns.barplot(x='computer_sku', y='computer_price', data=df_jp_daier)
ax.set_xlabel('戴爾品牌SKU')
ax.set_ylabel('價格')
ax.set_title('酷睿i7處理器屏幕15寸以上各SKU的價格')
boxplot_fig = ax.get_figure()
boxplot_fig.savefig('酷睿i7處理器屏幕15寸以上各SKU的價格.png', dpi=400)

8.15 不同Intel處理器品牌的價格

plt.figure(figsize=(10, 8), dpi=100)
ax = sns.barplot(x='computer_p_shop', y='computer_price', data=df_jp, hue='computer_intel')
ax.set_xlabel('品牌')
ax.set_ylabel('價格')
ax.set_title('不同酷睿處理器品牌的價格')
boxplot_fig = ax.get_figure()
boxplot_fig.savefig('不同酷睿處理器品牌的價格.png', dpi=400)

8.16 不同尺寸品牌的價格

plt.figure(figsize=(10, 8), dpi=100)
ax = sns.barplot(x='computer_p_shop', y='computer_price', data=df_jp, hue='computer_in')
ax.set_xlabel('品牌')
ax.set_ylabel('價格')
ax.set_title('不同尺寸品牌的價格')
boxplot_fig = ax.get_figure()
boxplot_fig.savefig('不同尺寸品牌的價格.png', dpi=400)

以上就是python基于scrapy爬取京東筆記本電腦數據并進行簡單處理和分析的詳細內容,更多關于python 爬取京東數據的資料請關注腳本之家其它相關文章!

您可能感興趣的文章:
  • Android實現京東首頁效果
  • JS實現京東商品分類側邊欄
  • 利用JavaScript模擬京東按鍵輸入功能
  • 仿京東平臺框架開發開放平臺(包含需求,服務端代碼,SDK代碼)

標簽:駐馬店 江蘇 衡水 湖州 呼和浩特 畢節 股票 中山

巨人網絡通訊聲明:本文標題《python基于scrapy爬取京東筆記本電腦數據并進行簡單處理和分析》,本文關鍵詞  python,基于,scrapy,爬取,京東,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《python基于scrapy爬取京東筆記本電腦數據并進行簡單處理和分析》相關的同類信息!
  • 本頁收集關于python基于scrapy爬取京東筆記本電腦數據并進行簡單處理和分析的相關信息資訊供網民參考!
  • 推薦文章
    成人妖精视频yjsp地址| 亚洲h在线观看| 久久精品老司机| 2022国产精品| 欧美天天综合色影久久精品| 欧美日韩 一区二区三区| 久久综合入口| 欧美一区二区三区视频在线观看| 色偷偷在线观看| 亚洲熟女一区二区三区| 国产精品欧美日韩久久| 欧美亚洲一区三区| 老司机午夜精品视频在线观看| 中文字幕一区二区三区四区在线视频| 久久人人爽人人爽人人片亚洲| 欧美午夜视频网站| 少妇久久久久久久| www.亚洲天堂网| 国产精品极品美女粉嫩高清在线| 亚洲成a人在线观看| 亚洲第一大网站| 野花社区视频在线观看| 国产精品99久久99久久久二8| 大荫蒂欧美视频另类xxxx| 亚洲色成人www永久网站| 免费黄频在线观看| 美女亚洲精品| 亚洲成人免费在线视频| 久久综合视频网| 免费看污片网站| 97视频在线免费| 日日狠狠久久偷偷四色综合免费| 亚洲欧美日韩久久| 中文字幕一区二区三区四区视频| 奇米777四色影视在线看| 国产999精品久久久| 亚洲午夜av在线| 久久婷婷久久一区二区三区| 青青草97国产精品免费观看 | 黄色av一区二区| 日本三级黄色网址| 中文字幕精品—区二区日日骚| 久久久91精品国产| 日韩欧美国产高清| 中文成人综合网| 国产成人在线视频网站| 中文字幕视频网| 色播五月综合网| 日本丰满少妇黄大片在线观看| 国产在线久久久| 久久久噜噜噜久久| 欧美性受xxxx| 91婷婷韩国欧美一区二区| 最新在线中文字幕| 亚洲欧美在线观看视频| 91嫩草|国产丨精品入口| 逼特逼视频在线观看| 精品人妻少妇一区二区| 亚洲女人在线观看| 美日韩精品视频| 欧美日韩国产中文精品字幕自在自线 | 精品视频第一区| 在线观看久久久久久| 国产一区二区美女视频| 久久99精品久久久久久琪琪| 午夜精品久久久久久久久久久久久 | h狠狠躁死你h高h| 欧美性猛交 xxxx| 国产亚洲一区二区三区| 成人欧美一区二区三区视频网页| 亚洲资源在线观看| 日韩免费一区二区| 欧美三级在线看| 亚洲三级在线免费| 洋洋成人永久网站入口| 天天影视网天天综合色在线播放| 亚洲色图欧洲色图| ...xxx性欧美| 欧美图区在线视频| 欧美tk—视频vk| 一区二区亚洲欧洲国产日韩| 久久九九亚洲综合| 国产精品久久久久久久久久小说| 亚洲free嫩bbb| 久久一区免费| 乱子伦视频在线看| 精品夜夜澡人妻无码av| 久久精品国产亚洲av高清色欲| av一级在线观看| 免费在线观看日韩欧美| 国产精品成人免费在线| 日本亚洲精品在线观看| 欧美性受xxxx黑人| 日韩影院在线观看| 一区二区三区在线免费视频| 韩国三级日本三级少妇99| 日本国产欧美一区二区三区| 欧美在线一区二区三区四| 精品国产综合久久| 国产综合第一页| 久久久久久久久久久久久国产精品| www国产视频| 国产黄色大片网站| 男女视频一区二区| 亚洲一本大道在线| 久久久精品一区二区三区| 欧美日韩国产不卡在线看| 一道精品一区二区三区| 国产精品亚洲一区二区无码| 美国黄色a级片| 久久久久国产精品午夜一区| 成人久久久精品乱码一区二区三区| 欧美在线视频不卡| 国产一区二区三区免费视频| 热re99久久精品国产99热| 中文字幕12页| 日本在线视频免费观看| 久久一区精品| 91麻豆精品国产91久久久久| 91免费看片网站| 逼特逼视频在线观看| 久久激情久久| 精品999久久久| 欧美日韩在线播放一区二区| 国产在线观看免费视频软件| 国产福利精品一区| 日韩有码在线电影| 国精产品一区一区三区视频| 中文字幕乱码一区二区| 日本一区二区三区在线观看| 久久久精品999| 色乱码一区二区三区在线| 香蕉视频黄色片| 精品日本美女福利在线观看| 亚洲一区亚洲二区| 亚洲成a人片在线www| 国精品**一区二区三区在线蜜桃| 日韩麻豆第一页| 亚洲啪啪av| 五月天婷婷丁香| 精品国产31久久久久久| 国产尤物91| 久久精品色妇熟妇丰满人妻| 亚洲欧美一区二区三区国产精品 | 在线观看91视频| 国产精品激情自拍| 黄色一级视频在线观看| 久久亚洲一区二区三区明星换脸| 日本成人在线视频网址| 亚洲国产精品三区| 欧美 日韩 国产 在线| 日韩精品视频在线播放| 欧洲高清一区二区| 日韩一区二区视频在线| 亚洲第一色在线| 中文字幕在线播放一区| 国产成人精品aa毛片| 国产精品 欧美在线| 久久久久久欧美精品se一二三四| 国产人久久人人人人爽| 茄子视频成人在线观看 | 亚洲一级电影视频| 欧美二区在线| 美女一区二区视频| 亚洲综合一区二区不卡| www精品国产| 日韩网址在线观看| www.久久久久久久久久| 韩剧1988免费观看全集| 亚洲久久久久久久| 欧美午夜影院一区| 亚洲男人在线天堂| 日韩av在线不卡| 日本中文字幕在线| 国产成人涩涩涩视频在线观看| wwwxxxx国产| 国严精品久久久久久亚洲影视| 成人一区在线看| 女女同性女同一区二区三区按摩| 久久天天做天天爱综合色| 国产一二三四区在线观看| 日本久久一区二区三区| 久久精品这里只有精品| 2014国产精品| 粉嫩嫩av羞羞动漫久久久| 一区二区三区一级片| 亚洲一区二三区| 男人网站在线观看| 精品国偷自产在线| 91禁在线观看| 欧美一区二区三区四区夜夜大片| 国产午夜一区二区三区| 丰满少妇中文字幕| 一区二区三区www| 狂野欧美一区| 97在线国产视频| 欧美午夜视频网站| 一级黄色片日本| 青草成人免费视频| 91一区二区在线| 人人爽人人爽av| 久久久久久91| 成人av在线观| 成人一级片免费看| 91在线精品观看| 动漫精品一区二区| 亚洲国产av一区二区三区| 91久久国产精品| 亚洲欧美在线aaa| 福利所第一导航| 国产精品yjizz| 在线观看不卡一区| 亚洲免费黄色片| 黄大色黄女片18第一次| 美日韩丰满少妇在线观看| 国产成人免费在线| 亚洲色成人网站www永久四虎| 国产精品av电影| 日韩欧美有码在线| 国产免费av电影| 国产精品自拍视频在线| 日韩av电影院| 色综合天天狠狠| 污视频网站在线播放| 中文字幕在线综合| 国产mv免费观看入口亚洲| 亚洲va韩国va欧美va精品 | 91精品国产综合久久久久| 日韩av不卡在线观看| 国产精成人品免费观看| 一级日韩一区在线观看| 欧美日韩福利电影| 欧美激情一区二区三区在线| 日韩欧美国产另类| 欧美视频国产视频| 成人午夜电影在线播放| 亚洲国产精品va在线| 久久精品国产免费看久久精品| 日韩黄色一区二区| 久久99久久精品国产| 亚洲国产精品系列| 91在线视频免费观看| 国产精品乱子伦| 成人一区二区三| 久久国产精品久久久久久久久久| 中文字幕乱码一区二区免费| 久热这里只有精品6| www.亚洲成人网| 色狠狠久久av五月综合| 成人xxxxx| youjizz.com在线观看| 久久精品在线观看视频| 免费成人性网站| 国产日韩影视精品| 欧美亚洲国产怡红院影院| 亚洲精品久久久蜜桃| 91网址在线看| 成人性生交大合| 欧美一级片免费| 中日韩一级黄色片| 免费看裸体网站| yy1111111| 欧美图片一区二区| 国产一区二区三区免费不卡| 久久亚洲精品视频| 亚洲国产精品一区二区三区| 亚洲综合激情网| 国产日产欧美一区| av午夜精品一区二区三区| 国产偷国产偷精品高清尤物| 欧美性生交大片免费| 最新国产成人在线观看| 日韩欧美高清dvd碟片| 91精品黄色片免费大全| 国产精品一区二区三区免费视频 | 中文字幕第69页| 亚洲欧美高清在线| 中文字幕在线有码| 激情综合网激情| 欧美日韩高清影院| 国产日韩在线免费| 欧美性视频一区二区三区| 成人午夜伦理影院| 视频一区 中文字幕| 老司机亚洲精品| 香蕉视频成人在线| 欧美国产1区2区| 五月天亚洲精品| 亚洲综合在线观看视频| 欧美性猛交一区二区三区精品| 在线影院国内精品| 国产精品欧美日韩| www.av一区视频| 国内视频一区| 国产资源中文字幕| 国产精品成人无码| 日韩精品乱码av一区二区| 日本精品中文字幕| 欧美肥婆姓交大片| 国外成人在线视频网站| 日本欧洲国产一区二区| 人人爽人人av| 三上悠亚在线观看视频| 无码人妻av一区二区三区波多野| 另类专区欧美蜜桃臀第一页| 一二三区精品视频| 国产午夜精品免费一区二区三区 | 国产成人av影院| 久久精品女人的天堂av| 中文字幕在线看高清电影| av电影一区二区| 国产精品亚洲视频在线观看| 国产第一页在线播放| 91精品国产综合久久蜜臀| 无码免费一区二区三区免费播放| 精品视频在线观看免费| 亚洲影院在线观看| 欧美一区二区.| 国模杨依粉嫩蝴蝶150p| 极品白嫩少妇无套内谢| 国产精品爽爽久久久久久| 国产嫩草影院久久久久| 久久久女女女女999久久| 久草青青在线观看| 青青草原在线免费观看| 精品一区二区影视| 亚洲国产精品一区二区尤物区| 国产成人在线一区二区| 91麻豆精品久久毛片一级| 久久99精品视频| 色综合网站在线| 日本精品久久电影| 亚洲精品一区二区三区在线播放| 免费看精品久久片| 精品人妻一区二区三区含羞草 | 久久69国产一区二区蜜臀| 国产成人精品日本亚洲| 国产无人区码熟妇毛片多| 欧美日韩中文字幕精品| 自拍偷拍21p| 国产福利91精品| 国产精品免费久久久久影院| 怡红院av亚洲一区二区三区h| 99久久99久久精品免费| 久久影院午夜论| 久久久久久国产免费| 日本成人xxx| 激情综合网av| 欧美专区在线观看一区| 国产日韩欧美在线观看| 能直接看的av| 亚洲a v网站| 国产91精品入口| 亚洲美女av电影| 国产福利影院在线观看| 韩国av一区二区三区| 在线观看中文字幕亚洲| 国产chinese精品一区二区| av无码一区二区三区| 亚洲天堂久久新| 国产很黄免费观看久久| av观看久久| 精品亚洲成a人在线观看 | 狠狠躁日日躁夜夜躁av| 国产日韩欧美在线观看| 黄色污污网站在线观看| 日韩中文字幕亚洲| 麻豆精品免费视频| 在线一区二区三区四区五区| 天天人人精品| 日本三级片在线观看| 伊人久久久久久久久久久| 精品久久久视频| 免费在线一区二区| 色悠悠久久综合网| 成人黄色免费网| 欧美日韩精品一区二区天天拍小说| 无码熟妇人妻av在线电影| 久久久999| 久久久www免费人成黑人精品| 成人毛片老司机大片| 岛国视频一区免费观看| www.av88| 亚洲精品永久免费精品| 国产精品suv一区二区69| 精品久久久久久最新网址| 成人小视频免费看| 欧美激情在线观看视频免费| 国产精品久久久久久婷婷天堂| 国产一区二区三区黄片| 久久精品久久久久久国产 免费| 国产精品第七页| 成人国产免费视频| 在线播放日韩专区| 麻豆国产精品一区| 国产女人18水真多18精品一级做| 国产精品对白刺激| 天天干中文字幕| 在线亚洲欧美专区二区| 亚洲一区综合| 日韩成人dvd| 国产精品久久久久久搜索| 在线观看 亚洲| 久久电影一区二区| 一出一进一爽一粗一大视频| 国产精品水嫩水嫩| 久久偷看各类wc女厕嘘嘘偷窃| 日日摸天天添天天添破| 亚洲私人影院在线观看| 精品产品国产在线不卡|