午夜视频免费看_日韩三级电影网站_国产精品久久一级_亚洲一级在线播放_人妻体内射精一区二区三区_91夜夜揉人人捏人人添红杏_91福利在线导航_国产又粗又猛又黄又爽无遮挡_欧美日韩一区在线播放_中文字幕一区二区三区四区不卡 _日日夜夜精品视频免费观看_欧美韩日一区二区三区

主頁 > 知識庫 > windowns使用PySpark環(huán)境配置和基本操作

windowns使用PySpark環(huán)境配置和基本操作

熱門標簽:公司電話機器人 唐山智能外呼系統(tǒng)一般多少錢 海南400電話如何申請 廣告地圖標注app 白銀外呼系統(tǒng) 騰訊外呼線路 陜西金融外呼系統(tǒng) 哈爾濱ai外呼系統(tǒng)定制 激戰(zhàn)2地圖標注

下載依賴

首先需要下載hadoop和spark,解壓,然后設置環(huán)境變量。
hadoop清華源下載
spark清華源下載

HADOOP_HOME => /path/hadoop
SPARK_HOME => /path/spark

安裝pyspark。

pip install pyspark

基本使用

可以在shell終端,輸入pyspark,有如下回顯:

輸入以下指令進行測試,并創(chuàng)建SparkContext,SparkContext是任何spark功能的入口點。

>>> from pyspark import SparkContext
>>> sc = SparkContext("local", "First App")

如果以上不會報錯,恭喜可以開始使用pyspark編寫代碼了。
不過,我這里使用IDE來編寫代碼,首先我們先在終端執(zhí)行以下代碼關閉SparkContext。

>>> sc.stop()

下面使用pycharm編寫代碼,如果修改了環(huán)境變量需要先重啟pycharm。
在pycharm運行如下程序,程序會起本地模式的spark計算引擎,通過spark統(tǒng)計abc.txt文件中a和b出現(xiàn)行的數(shù)量,文件路徑需要自己指定。

from pyspark import SparkContext

sc = SparkContext("local", "First App")
logFile = "abc.txt"
logData = sc.textFile(logFile).cache()
numAs = logData.filter(lambda s: 'a' in s).count()
numBs = logData.filter(lambda s: 'b' in s).count()
print("Line with a:%i,line with b:%i" % (numAs, numBs))

運行結果如下:

20/03/11 16:15:57 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
20/03/11 16:15:58 WARN Utils: Service 'SparkUI' could not bind on port 4040. Attempting port 4041.
Line with a:3,line with b:1

這里說一下,同樣的工作使用python可以做,spark也可以做,使用spark主要是為了高效的進行分布式計算。
戳pyspark教程
戳spark教程

RDD

RDD代表Resilient Distributed Dataset,它們是在多個節(jié)點上運行和操作以在集群上進行并行處理的元素,RDD是spark計算的操作對象。
一般,我們先使用數(shù)據(jù)創(chuàng)建RDD,然后對RDD進行操作。
對RDD操作有兩種方法:
Transformation(轉換) - 這些操作應用于RDD以創(chuàng)建新的RDD。例如filter,groupBy和map。
Action(操作) - 這些是應用于RDD的操作,它指示Spark執(zhí)行計算并將結果發(fā)送回驅動程序,例如count,collect等。

創(chuàng)建RDD

parallelize是從列表創(chuàng)建RDD,先看一個例子:

from pyspark import SparkContext


sc = SparkContext("local", "count app")
words = sc.parallelize(
    ["scala",
     "java",
     "hadoop",
     "spark",
     "akka",
     "spark vs hadoop",
     "pyspark",
     "pyspark and spark"
     ])
print(words)

結果中我們得到一個對象,就是我們列表數(shù)據(jù)的RDD對象,spark之后可以對他進行操作。

ParallelCollectionRDD[0] at parallelize at PythonRDD.scala:195

Count

count方法返回RDD中的元素個數(shù)。

from pyspark import SparkContext


sc = SparkContext("local", "count app")
words = sc.parallelize(
    ["scala",
     "java",
     "hadoop",
     "spark",
     "akka",
     "spark vs hadoop",
     "pyspark",
     "pyspark and spark"
     ])
print(words)

counts = words.count()
print("Number of elements in RDD -> %i" % counts)

返回結果:

Number of elements in RDD -> 8

Collect

collect返回RDD中的所有元素。

from pyspark import SparkContext


sc = SparkContext("local", "collect app")
words = sc.parallelize(
    ["scala",
     "java",
     "hadoop",
     "spark",
     "akka",
     "spark vs hadoop",
     "pyspark",
     "pyspark and spark"
     ])
coll = words.collect()
print("Elements in RDD -> %s" % coll)

返回結果:

Elements in RDD -> ['scala', 'java', 'hadoop', 'spark', 'akka', 'spark vs hadoop', 'pyspark', 'pyspark and spark']

foreach

每個元素會使用foreach內的函數(shù)進行處理,但是不會返回任何對象。
下面的程序中,我們定義的一個累加器accumulator,用于儲存在foreach執(zhí)行過程中的值。

from pyspark import SparkContext
sc = SparkContext("local", "ForEach app")

accum = sc.accumulator(0)
data = [1, 2, 3, 4, 5]
rdd = sc.parallelize(data)


def increment_counter(x):
    print(x)
    accum.add(x)
 return 0

s = rdd.foreach(increment_counter)
print(s)  # None
print("Counter value: ", accum)

返回結果:

None
Counter value:  15

filter

返回一個包含元素的新RDD,滿足過濾器的條件。

from pyspark import SparkContext
sc = SparkContext("local", "Filter app")
words = sc.parallelize(
    ["scala",
     "java",
     "hadoop",
     "spark",
     "akka",
     "spark vs hadoop",
     "pyspark",
     "pyspark and spark"]
)
words_filter = words.filter(lambda x: 'spark' in x)
filtered = words_filter.collect()
print("Fitered RDD -> %s" % (filtered))

 

Fitered RDD -> ['spark', 'spark vs hadoop', 'pyspark', 'pyspark and spark']

也可以改寫成這樣:

from pyspark import SparkContext
sc = SparkContext("local", "Filter app")
words = sc.parallelize(
    ["scala",
     "java",
     "hadoop",
     "spark",
     "akka",
     "spark vs hadoop",
     "pyspark",
     "pyspark and spark"]
)


def g(x):
    for i in x:
        if "spark" in x:
            return i

words_filter = words.filter(g)
filtered = words_filter.collect()
print("Fitered RDD -> %s" % (filtered))

map

將函數(shù)應用于RDD中的每個元素并返回新的RDD。

from pyspark import SparkContext
sc = SparkContext("local", "Map app")
words = sc.parallelize(
    ["scala",
     "java",
     "hadoop",
     "spark",
     "akka",
     "spark vs hadoop",
     "pyspark",
     "pyspark and spark"]
)
words_map = words.map(lambda x: (x, 1, "_{}".format(x)))
mapping = words_map.collect()
print("Key value pair -> %s" % (mapping))

返回結果:

Key value pair -> [('scala', 1, '_scala'), ('java', 1, '_java'), ('hadoop', 1, '_hadoop'), ('spark', 1, '_spark'), ('akka', 1, '_akka'), ('spark vs hadoop', 1, '_spark vs hadoop'), ('pyspark', 1, '_pyspark'), ('pyspark and spark', 1, '_pyspark and spark')]

Reduce

執(zhí)行指定的可交換和關聯(lián)二元操作后,然后返回RDD中的元素。

from pyspark import SparkContext
from operator import add


sc = SparkContext("local", "Reduce app")
nums = sc.parallelize([1, 2, 3, 4, 5])
adding = nums.reduce(add)
print("Adding all the elements -> %i" % (adding))

 這里的add是python內置的函數(shù),可以使用ide查看:

def add(a, b):
    "Same as a + b."
    return a + b

reduce會依次對元素相加,相加后的結果加上其他元素,最后返回結果(RDD中的元素)。

Adding all the elements -> 15

Join

返回RDD,包含兩者同時匹配的鍵,鍵包含對應的所有元素。

from pyspark import SparkContext


sc = SparkContext("local", "Join app")
x = sc.parallelize([("spark", 1), ("hadoop", 4), ("python", 4)])
y = sc.parallelize([("spark", 2), ("hadoop", 5)])
print("x =>", x.collect())
print("y =>", y.collect())
joined = x.join(y)
final = joined.collect()
print( "Join RDD -> %s" % (final))

返回結果:

x => [('spark', 1), ('hadoop', 4), ('python', 4)]
y => [('spark', 2), ('hadoop', 5)]
Join RDD -> [('hadoop', (4, 5)), ('spark', (1, 2))]

到此這篇關于windowns使用PySpark環(huán)境配置和基本操作的文章就介紹到這了,更多相關PySpark環(huán)境配置 內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

您可能感興趣的文章:
  • PyCharm搭建Spark開發(fā)環(huán)境實現(xiàn)第一個pyspark程序
  • PyCharm+PySpark遠程調試的環(huán)境配置的方法

標簽:惠州 鷹潭 上海 黔西 常德 四川 黑龍江 益陽

巨人網(wǎng)絡通訊聲明:本文標題《windowns使用PySpark環(huán)境配置和基本操作》,本文關鍵詞  windowns,使用,PySpark,環(huán)境,;如發(fā)現(xiàn)本文內容存在版權問題,煩請?zhí)峁┫嚓P信息告之我們,我們將及時溝通與處理。本站內容系統(tǒng)采集于網(wǎng)絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《windowns使用PySpark環(huán)境配置和基本操作》相關的同類信息!
  • 本頁收集關于windowns使用PySpark環(huán)境配置和基本操作的相關信息資訊供網(wǎng)民參考!
  • 推薦文章
    国产日韩欧美综合精品| 国内成人精品2018免费看| 成人一级黄色大片| 亚洲伦理一区二区三区| 欧美黑人精品一区二区不卡| 欧美爱爱小视频| 亚洲免费在线视频观看| 国产又粗又黄又爽视频| 美女久久网站| www..com久久爱| 亚洲视频1区2区| 在线免费av一区| 欧美白人最猛性xxxxx69交| 亚洲精品天天看| 欧美激情视频网| 成人av番号网| 亚洲国产午夜伦理片大全在线观看网站 | 日产日韩在线亚洲欧美| aa日韩免费精品视频一| 天天干天天色天天爽| 粉色视频免费看| 成人免费精品动漫网站| 国产老女人乱淫免费| 精品一区二区免费在线观看| 日本一区二区免费在线| 色综合中文综合网| 国产亚洲欧美一区| 国产精品亚洲аv天堂网| 色狠狠久久av五月综合| 天堂在线一区二区三区| 麻豆一区产品精品蜜桃的特点| 亚洲熟女乱色一区二区三区久久久| 天天舔天天干天天操| 久久久久久久网| 91黄视频在线观看| 久久手机免费视频| 国产欧美日韩综合一区在线观看| 人人干视频在线| 精品人妻中文无码av在线| 在线免费观看高清视频| 99这里都是精品| 欧美色手机在线观看| 欧美精品一区二区三区国产精品| 成人免费视频网址| 少妇人妻在线视频| 天海翼在线视频| 欧美一区二区在线观看视频| 国产精品美日韩| 日韩国产欧美精品在线 | 丰满人妻一区二区三区免费视频棣| 久久国产免费观看| 捆绑紧缚一区二区三区视频| 亚洲国产你懂的| 中文字幕不卡av| 久久久久久久久久码影片| 久久99爱视频| 羞羞色院91蜜桃| 久久一夜天堂av一区二区三区| 欧美亚洲综合网| 26uuu亚洲国产精品| 亚洲精品成人久久久998| 日本黄色免费观看| 无码国产伦一区二区三区视频| 亚洲欧美日韩一区| 久久国内精品一国内精品| 久久超碰亚洲| 亚洲精品女人久久久| 精品国产黄色片| 亚洲免费观看高清完整版在线| 中文字幕一区二区精品| 午夜精品美女久久久久av福利| 日本一区二区三区网站| 免费成人在线看| 亚洲国产精品一区二区久久| 欧美极品美女视频网站在线观看免费| 日本老太婆做爰视频| 欧美日韩亚洲国产另类| 成人免费看黄yyy456| 亚洲国产精品久久久久秋霞蜜臀 | 日韩av在线资源| 久久久久久有精品国产| 国产成人精品视频免费看| 国产成人无码av| 亚洲免费av在线| 2019中文字幕全在线观看| 激情婷婷综合网| 国产黄色片免费| 欧美视频在线观看一区| 成人欧美一区二区三区视频| 97人妻精品一区二区三区免 | 国产香蕉97碰碰久久人人| 涩涩涩999| 日本少妇吞精囗交| 中文字幕永久在线不卡| 777午夜精品福利在线观看| mm131亚洲精品| 天天干在线观看| 日韩女优电影在线观看| 亚洲欧美日韩精品久久久| 久久久久久久极品内射| 日本一二三四高清不卡| 欧美在线视频网站| 韩国三级在线看| 国产91在线|亚洲| 久久伊人色综合| 色啦啦av综合| 国内外成人在线视频| 亚洲香蕉成人av网站在线观看| 在线观看17c| www.久久久久久久久久| 日韩欧美在线综合网| 中文有码久久| 亚洲大尺度网站| 亚洲国产成人久久综合| 国产成人a亚洲精v品无码| 天堂中文在线资源| 国产一区二区黄| 九一精品久久久| www.激情成人| 国产美女被下药99| 九九精品在线观看视频| 亚洲成人av资源| 日韩欧美视频一区二区| 国产精品爽黄69天堂a| 黄色一级片播放| 久久免费激情视频| 精品一区二区三区欧美| 亚洲女与黑人做爰| 欧美久久在线观看| 999这里有精品| 已婚少妇美妙人妻系列| 国产日本精品视频| 国产一区二区三区国产| 在线观看日韩www视频免费| 99视频免费播放| 黑人精品欧美一区二区蜜桃| 久久成年人视频| 国产在线观看无码免费视频| 国产欧美一区二区精品久导航| 国产日韩在线播放| 国产无遮挡呻吟娇喘视频| 在线国产亚洲欧美| 国产一级爱c视频| 国产毛片一区二区| 国产精品香蕉av| 日本三级理论片| 日韩欧美不卡在线观看视频| 成人在线激情网| 99久久99久久精品国产片果冻| 国产精品一区二区久久久| 青青草手机视频在线观看| 欧美亚洲一区二区在线观看| 日韩xxxx视频| 成人三级伦理片| 痴汉一区二区三区| 亚洲AV无码精品自拍| 精品国产一区二区三区久久久| 一区二区不卡免费视频| 亚洲国产精品久久久久婷婷884| 自拍偷拍99| 国产乱子伦一区二区三区国色天香 | 久久久久久一区二区三区| www日韩在线| 欧美日韩aaa| 国产黄色一区二区三区| 夜夜操天天操亚洲| 国产69精品久久久久999小说| av在线综合网| 天堂av一区二区| 国内外成人在线| 国产免费一区| 日本欧美在线观看| 成人免费黄色网| 香蕉av一区二区三区| 国产成人一区二区三区电影| 中文字幕av网站| 欧美激情免费在线| 欧美一级黄视频| 97国产精品视频| www.亚洲激情| 午夜精品久久久久久久男人的天堂 | 91美女片黄在线观看| 欧洲亚洲一区二区| 成人午夜精品一区二区三区| 欧美性大战久久久久| 日本一区二区免费看| 国产精品av免费| 一区二区三区四区久久| 在线观看免费观看在线| 日韩黄色av网站| 久久久久久无码精品人妻一区二区| 北条麻妃国产九九精品视频| 国产伦理在线观看| 综合欧美国产视频二区| 国产乡下妇女做爰视频| 91在线看网站| 欧美日韩一区二区欧美激情| 久久一区国产| 欧美日韩三级在线观看| 在线观看成人免费| 在线视频日本亚洲性| 蜜桃精品在线观看| 亚洲精品国产suv一区88| 亚洲黄色尤物视频| 在线视频 日韩| 国内揄拍国内精品少妇国语| 啪啪小视频网站| 在线观看亚洲视频| 久久久久久91亚洲精品中文字幕| 色偷偷91综合久久噜噜| 在线免费观看国产精品| 欧美日韩精品不卡| 欧美一区二区三区人| www.日韩一区| 欧美日韩在线观看一区二区三区| 亚洲伦在线观看| 欧美日韩综合一区二区三区| 欧美成熟毛茸茸复古| 日韩欧美精品在线| 国产精品一区二区三区在线免费观看| 亚洲影院高清在线| 欧美午夜xxx| 中文字幕+乱码+中文乱码www| 99国产盗摄| 国产精品免费av| 日本福利片在线观看| 日韩视频在线视频| 欧美另类视频在线| 精品久久久国产| 蜜桃av噜噜一区二区三区小说| 91人妻一区二区| 日韩欧美在线一区二区| 日本中文一区二区三区| 麻豆国产尤物av尤物在线观看| 男女啪啪免费观看| 欧美日韩国产在线观看| 亚洲va韩国va欧美va| 午夜国产精品影院在线观看| 狠狠色狠狠色综合系列| 日精品一区二区| 亚洲女人毛茸茸高潮| 成人午夜免费在线视频| www.日韩av.com| 亚洲一区免费在线观看| 国产又粗又猛又色又| 九九精品久久久| 一本色道久久88综合亚洲精品ⅰ| 青青青伊人色综合久久| 日本黄色网址大全| 这里只有久久精品| 国产在线青青草| 成人在线观看视频网站| 欧美精品在线网站| 亚洲美女动态图120秒| 日韩成年人视频| 免费看日本毛片| 日本欧美在线视频| 热re99久久精品国产66热| 久久免费成人精品视频| 97精品一区二区视频在线观看| 欧美日本黄视频| 久久久视频免费观看| 亚洲人成欧美中文字幕| 99综合电影在线视频| 黑人糟蹋人妻hd中文字幕| 免费看成人午夜电影| 亚洲www在线观看| 欧美视频你懂的| 毛片av一区二区| 国产精品va无码一区二区三区| 亚洲精品国产av| 青青草成人免费视频| 中文字幕久久久久久久| 一起草最新网址| av网站在线不卡| 欧美激情国内偷拍| 久久99国产综合精品女同| 一区二区三区四区视频| 久久久久久av| 男人添女人下部视频免费| 少妇人妻丰满做爰xxx| 亚洲国产综合一区| 亚洲精品免费看| 亚洲第一级黄色片| 在线不卡a资源高清| 日韩欧美精品在线观看| 亚洲永久精品大片| 一本大道综合伊人精品热热| 中文乱码免费一区二区| 欧美国产精品专区| 中文字幕一区二区三区av| 99久久久久久久| 国产一级特黄aaa大片| 久久av一区二区三| wwwxxx黄色片| 日韩精品久久一区二区| 日韩色妇久久av| 国产精品涩涩涩视频网站| 亚洲欧美另类动漫| 日本xxxxx18| 亚洲国产成人精品久久| 国产精品久久久久久久午夜片| 一区二区久久久久久| 亚洲视频专区在线| 2018国产精品视频| 亚洲欧美日韩中文在线| 久久乐国产精品| 国产精品v片在线观看不卡| 国产mv久久久| 一二三在线视频| 久久久久久亚洲中文字幕无码| 高清乱码免费看污| 日韩免费视频一区二区视频在线观看| 欧美成人三级在线观看| 特级西西444www高清大视频| 亚洲精品久久久久久无码色欲四季| 水蜜桃久久夜色精品一区的特点| 999免费视频| 日本va欧美va精品发布| 免费精品视频最新在线| 91在线免费视频观看| 91精品国产色综合久久| 成人精品一二区| 青青草综合视频| 欧美一级片在线免费观看| 男女视频免费看| 亚洲AV无码精品自拍| 波多野结衣毛片| 精品亚洲永久免费| 99久久精品免费视频| 欧美熟妇精品一区二区蜜桃视频| 国产精品日韩在线一区| www国产精品视频| 欧美性天天影院| 伊人五月天婷婷| 国产酒店精品激情| 亚洲成人动漫在线播放| 久久这里只有精品18| 中文字幕人成人乱码亚洲电影| 精品久久久久久中文字幕大豆网| 欧洲亚洲免费在线| 蜜桃传媒一区二区三区| 无码人妻一区二区三区在线| 欧美自拍偷拍第一页| 岛国精品视频在线播放| 91av免费观看91av精品在线| 日韩精品电影网站| 国产亚洲黄色片| 国产精品美女久久久久av爽| 国产成人精品www牛牛影视| 久久综合色影院| 欧美在线a视频| 国产三级精品三级观看| 国产不卡一区视频| 中文字幕免费国产精品| 久久久久久久久久久福利| 成人毛片一区二区| 日韩成人免费在线观看| 一本色道久久综合亚洲精品按摩| 欧美巨猛xxxx猛交黑人97人| 五月天婷婷在线观看视频| 日韩毛片视频在线看| 欧美黑人在线观看| 国产精品自拍一区| 欧美最猛性xxxx| 一本到在线视频| 精品国产一区二区三区久久狼5月| 久久综合久久色| 亚洲大尺度网站| 亚洲欧洲偷拍精品| 少妇一级淫免费放| 国产精品91在线| 亚洲国产成人av在线| 国产午夜精品美女视频明星a级| 这里只有精品视频| 天堂网av2018| 国产午夜精品一区| 综合一区中文字幕| 国产精品久久久免费观看| 精品少妇一二三区| 手机看片1024日韩| 亚洲综合一区二区精品导航| 久久成人精品一区二区三区| 日本黄色播放器| 国产小视频自拍| www.日韩在线观看| 天天综合天天综合色| 在线观看欧美日本| 国产精品国产亚洲精品看不卡15| 欧美日韩一级大片| 日韩欧美资源站| 国产一区二区三区高清| 久久精品女人毛片国产| 欧美国产精品久久| 久久久久久一区二区三区 | 182在线视频| 精品视频在线播放免| 依依成人在线视频| 91精品国产综合久久久久久蜜臀| 高潮一区二区三区乱码| 国产精品视频色| 久久午夜精品一区二区| 日韩在线免费av| 中文字幕人妻一区二区三区视频| 亚洲精品国产一区二区精华液| 中文字幕一区二区中文字幕| 蜜桃久久av一区| aa成人免费视频| 成人一区二区在线观看| 密臀av一区二区三区|