欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Spark在Windows下的環(huán)境搭建方法

 更新時間:2019年06月13日 16:18:20   作者:法號阿興  
這篇文章主要介紹了Spark在Windows下的環(huán)境搭建方法,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧

本文主要是講解Spark在Windows環(huán)境是如何搭建的

一、JDK的安裝

1、1 下載JDK

首先需要安裝JDK,并且將環(huán)境變量配置好,如果已經(jīng)安裝了的老司機(jī)可以忽略。JDK(全稱是JavaTM Platform Standard Edition Development Kit)的安裝,去Oracle官網(wǎng)下載,下載地址是Java SE Downloads。

上圖中兩個用紅色標(biāo)記的地方都是可以點(diǎn)擊的,點(diǎn)擊進(jìn)去之后可以看到這個最新版本的一些更為詳細(xì)的信息,如下圖所示:

下載完之后,我們安裝就可以直接JDK,JDK在windows下的安裝非常簡單,按照正常的軟件安裝思路去雙擊下載得到的exe文件,然后設(shè)定你自己的安裝目錄(這個安裝目錄在設(shè)置環(huán)境變量的時候需要用到)即可。

1、2 JDK環(huán)境變量設(shè)置

接下來設(shè)置相應(yīng)的環(huán)境變量,設(shè)置方法為:在桌面右擊【計(jì)算機(jī)】--【屬性】--【高級系統(tǒng)設(shè)置】,然后在系統(tǒng)屬性里選擇【高級】--【環(huán)境變量】,然后在系統(tǒng)變量中找到“Path”變量,并選擇“編輯”按鈕后出來一個對話框,可以在里面添加上一步中所安裝的JDK目錄下的bin文件夾路徑名,我這里的bin文件夾路徑名是:C:\Program Files\Java\jre1.8.0_92\bin,所以將這個添加到path路徑名下,注意用英文的分號“;”進(jìn)行分割。如圖所示:

這樣設(shè)置好后,便可以在任意目錄下打開的cmd命令行窗口下運(yùn)行下面命令。查看是否設(shè)置成功。

java -version

觀察是否能夠輸出相關(guān)java的版本信息,如果能夠輸出,說明JDK安裝這一步便全部結(jié)束了。如圖所示:

二、Scala的安裝

我們從官網(wǎng):http://www.scala-lang.org/下載Scala,最新的版本為2.12.3,如圖所示

因?yàn)槲覀兪窃赪indows環(huán)境下,這也是本文的目的,我們選擇對應(yīng)的Windows版本下載,如圖所示:

下載得到Scala的msi文件后,可以雙擊執(zhí)行安裝。安裝成功后,默認(rèn)會將Scala的bin目錄添加到PATH系統(tǒng)變量中去(如果沒有,和上面JDK安裝步驟中類似,將Scala安裝目錄下的bin目錄路徑,添加到系統(tǒng)變量PATH中),為了驗(yàn)證是否安裝成功,開啟一個新的cmd窗口,輸入scala然后回車,如果能夠正常進(jìn)入到Scala的交互命令環(huán)境則表明安裝成功。如下圖所示:

備注:如果不能顯示版本信息,并且未能進(jìn)入Scala的交互命令行,通常有兩種可能性:
1、Path系統(tǒng)變量中未能正確添加Scala安裝目錄下的bin文件夾路徑名,按照J(rèn)DK安裝中介紹的方法添加即可。
2、Scala未能夠正確安裝,重復(fù)上面的步驟即可。

三、Spark的安裝

我們到Spark官網(wǎng)進(jìn)行下載:http://spark.apache.org/,我們選擇帶有Hadoop版本的Spark,如圖所示:

下載后得到了大約200M的文件: spark-2.2.0-bin-hadoop2.7

這里使用的是Pre-built的版本,意思就是已經(jīng)編譯了好了,下載來直接用就好,Spark也有源碼可以下載,但是得自己去手動編譯之后才能使用。下載完成后將文件進(jìn)行解壓(可能需要解壓兩次),最好解壓到一個盤的根目錄下,并重命名為Spark,簡單不易出錯。并且需要注意的是,在Spark的文件目錄路徑名中,不要出現(xiàn)空格,類似于“Program Files”這樣的文件夾名是不被允許的。我們在C盤新建一個Spark文件夾存放,如圖所示:

解壓后基本上就差不多可以到cmd命令行下運(yùn)行了。但這個時候每次運(yùn)行spark-shell(spark的命令行交互窗口)的時候,都需要先cd到Spark的安裝目錄下,比較麻煩,因此可以將Spark的bin目錄添加到系統(tǒng)變量PATH中。例如我這里的Spark的bin目錄路徑為D:\Spark\bin,那么就把這個路徑名添加到系統(tǒng)變量的PATH中即可,方法和JDK安裝過程中的環(huán)境變量設(shè)置一致,設(shè)置完系統(tǒng)變量后,在任意目錄下的cmd命令行中,直接執(zhí)行spark-shell命令,即可開啟Spark的交互式命令行模式。

系統(tǒng)變量設(shè)置后,就可以在任意當(dāng)前目錄下的cmd中運(yùn)行spark-shell,但這個時候很有可能會碰到各種錯誤,這里主要是因?yàn)镾park是基于hadoop的,所以這里也有必要配置一個Hadoop的運(yùn)行環(huán)境。錯誤如圖所示:

接下來,我們還需要安裝Hadoop。

四、Hadoop的安裝

Hadoop Releases里可以看到Hadoop的各個歷史版本,這里由于下載的Spark是基于Hadoop 2.7的(在Spark安裝的第一個步驟中,我們選擇的是Pre-built for Hadoop 2.7),我這里選擇2.7.1版本,選擇好相應(yīng)版本并點(diǎn)擊后,進(jìn)入詳細(xì)的下載頁面,如下圖所示:

選擇圖中紅色標(biāo)記進(jìn)行下載,這里上面的src版本就是源碼,需要對Hadoop進(jìn)行更改或者想自己進(jìn)行編譯的可以下載對應(yīng)src文件,我這里下載的就是已經(jīng)編譯好的版本,即圖中的“hadoop-2.7.1.tar.gz”文件。

下載并解壓到指定目錄,,我這里是C:\Hadoop,如圖所示:

然后到環(huán)境變量部分設(shè)置HADOOP_HOME為Hadoop的解壓目錄,如圖所示:

然后再設(shè)置該目錄下的bin目錄到系統(tǒng)變量的PATH下,我這里也就是C:\Hadoop\bin,如果已經(jīng)添加了HADOOP_HOME系統(tǒng)變量,也可用%HADOOP_HOME%\bin來指定bin文件夾路徑名。這兩個系統(tǒng)變量設(shè)置好后,開啟一個新的cmd窗口,然后直接輸入spark-shell命令。如圖所示:

正常情況下是可以運(yùn)行成功并進(jìn)入到Spark的命令行環(huán)境下的,但是對于有些用戶可能會遇到空指針的錯誤。這個時候,主要是因?yàn)镠adoop的bin目錄下沒有winutils.exe文件的原因造成的。這里的解決辦法是:

可以去https://github.com/steveloughran/winutils選擇你安裝的Hadoop版本號,然后進(jìn)入到bin目錄下,找到winutils.exe文件,下載方法是點(diǎn)擊winutils.exe文件,進(jìn)入之后在頁面的右上方部分有一個Download按鈕,點(diǎn)擊下載即可。 如圖所示:

下載winutils.exe文件

將下載好winutils.exe后,將這個文件放入到Hadoop的bin目錄下,我這里是C:\Hadoop\hadoop-2.7.1\bin。

 

在打開的cmd中輸入

復(fù)制代碼 代碼如下:
C:\Hadoop\hadoop-2.7.1\bin\winutils.exe chmod 777 /tmp/Hive //修改權(quán)限,777是獲取所有權(quán)限

但是我們發(fā)現(xiàn)報了一些其他的錯(Linux環(huán)境下也是會出現(xiàn)這個錯誤)

<console>:14: error: not found: value spark
    import spark.implicits._
        ^
 <console>:14: error: not found: value spark
    import spark.sql

其原因是沒有權(quán)限在spark中寫入metastore_db 這個文件。

處理方法:我們授予777的權(quán)限

Linux環(huán)境,我們在root下操作:

sudo chmod 777 /home/hadoop/spark
 
 #為了方便,可以給所有的權(quán)限
 sudo chmod a+w /home/hadoop/spark

window環(huán)境下:

存放Spark的文件夾不能設(shè)為只讀和隱藏,如圖所示:

授予完全控制的權(quán)限,如圖所示:

經(jīng)過這幾個步驟之后,然后再次開啟一個新的cmd窗口,如果正常的話,應(yīng)該就可以通過直接輸入spark-shell來運(yùn)行Spark了。正常的運(yùn)行界面應(yīng)該如下圖所示:

六、Python下Spark開發(fā)環(huán)境搭建

下面簡單講解Python下怎么搭建Spark環(huán)境

1、將spark目錄下的pyspark文件夾(C:\Spark\python\pyspark)復(fù)制到python安裝目錄C:\Python\Python35\Lib\site-packages里。如圖所示

spark的pysaprk

將pyspark拷貝至Python的安裝的packages目錄下。


2、然后使用cd命令,進(jìn)入目錄D:\python27\Scripts,運(yùn)行pip install py4j安裝py4j庫。如圖所示:

如果需要在python中或者在類似于IDEA IntelliJ或者PyCharm(筆者用的就是PyCharm)等IDE中使用PySpark的話,需要在系統(tǒng)變量中新建一個PYTHONPATH的系統(tǒng)變量,然后設(shè)置好下面變量值就可以了

PATHONPATH=%SPARK_HOME%\python;%SPARK_HOME%\python\lib\py4j-0.10.4-src.zip

后面的事情就交給PyCharm了。

至此,Spark在Windows環(huán)境下的搭建講解已結(jié)束。

以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。

相關(guān)文章

  • 全網(wǎng)最全Git命令手冊

    全網(wǎng)最全Git命令手冊

    Git是一個很強(qiáng)大的分布式版本控制系統(tǒng)。它不但適用于管理大型開源軟件的源代碼,管理私人的文檔和源代碼也有很多優(yōu)勢。 本文主要介紹了全網(wǎng)最全Git命令手冊,感興趣的可以了解一下
    2021-12-12
  • 支付寶 接口開發(fā)幫助(asp,php,asp.net,jsp)

    支付寶 接口開發(fā)幫助(asp,php,asp.net,jsp)

    支付寶的接口開發(fā)使用的技術(shù)含量并不高!因?yàn)槭褂玫氖荋TTP普通GET和Post方式傳遞數(shù)據(jù),而這些數(shù)據(jù)是傳給您的程序由您的程序任意處理和支付寶服務(wù)器處理,所以重點(diǎn)在再流程和傳參!
    2009-06-06
  • 詳解BurpSuite安裝和配置

    詳解BurpSuite安裝和配置

    burpsuite是一款用于測試Web安全性的電腦網(wǎng)絡(luò)安全測試軟件,全稱為burp suite professional2020,主要是為信息安全從業(yè)人員們提供的,本文給大家介紹BurpSuite安裝和配置教程,感興趣的朋友一起看看吧
    2021-09-09
  • java asp分析各種搜索引擎的關(guān)鍵字,自動識別url 中關(guān)鍵字的編碼

    java asp分析各種搜索引擎的關(guān)鍵字,自動識別url 中關(guān)鍵字的編碼

    網(wǎng)上也有一些代碼,大部分都是通過輸入的關(guān)鍵字來識別編碼,并解碼。但是搜索引擎得到的referer來源地址上的關(guān)鍵字是通過URLencode編碼過的,而且各個網(wǎng)站的關(guān)鍵字Urlencode編碼都不一樣,gbk,utf-8,gb2312等等。
    2009-01-01
  • 幾道和「黑洞照片」那種海量數(shù)據(jù)有關(guān)的算法問題

    幾道和「黑洞照片」那種海量數(shù)據(jù)有關(guān)的算法問題

    昨晚被一則新聞刷屏:北京時間 4 月 10 日今晚 9 點(diǎn),人類首張黑洞照片正式發(fā)布
    2019-04-04
  • 偽靜態(tài)技術(shù)介紹與優(yōu)缺點(diǎn)分析(較完整篇)

    偽靜態(tài)技術(shù)介紹與優(yōu)缺點(diǎn)分析(較完整篇)

    偽靜態(tài)太適合用在普通的企業(yè)網(wǎng)站上了——既不要求高并發(fā),但同時又很在乎seo(搜索引擎優(yōu)化),而且也要求后臺可動態(tài)更新。
    2009-11-11
  • 聯(lián)邦學(xué)習(xí)FedAvg中模型聚合過程的理解分析

    聯(lián)邦學(xué)習(xí)FedAvg中模型聚合過程的理解分析

    這篇文章主要為大家介紹了FedAvg中模型聚合過程的理解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪
    2022-05-05
  • 詳細(xì)講解HDFS的高可用機(jī)制

    詳細(xì)講解HDFS的高可用機(jī)制

    本文詳細(xì)講解了HDFS的高可用機(jī)制。如果namenode出現(xiàn)問題,整個HDFS集群將不能使用,HDFS高可用(HA)方案就是為了解決這個問題而產(chǎn)生的,讓我們一起來了解了解吧
    2021-08-08
  • HTTP協(xié)議詳細(xì)介紹

    HTTP協(xié)議詳細(xì)介紹

    HTTP是訪問互聯(lián)網(wǎng)使用的核心通信協(xié)議,也是所有web應(yīng)用程序使用的通信協(xié)議。本文詳細(xì)介紹了HTTP協(xié)議,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2022-06-06
  • 8種類型極品程序員,不知你屬于哪一種?

    8種類型極品程序員,不知你屬于哪一種?

    這篇文章主要介紹了8種類型極品程序員,不知你屬于哪一種?本文總結(jié)歸納了8種程類型的程序員,總結(jié)的非常精辟,來看看你是屬于哪一種吧~
    2014-09-09

最新評論