如何在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境)
建議大家寫(xiě)在Linux上搭建好Hadoop的完全分布式集群環(huán)境和Spark集群環(huán)境,以下在IDEA中搭建的環(huán)境僅僅是在window系統(tǒng)上進(jìn)行spark程序的開(kāi)發(fā)學(xué)習(xí),在window系統(tǒng)上可以不用安裝hadoop和spark,spark程序可以通過(guò)pom.xml的文件配置,添加spark-core依賴(lài),可以直接在IDEA中編寫(xiě)spark程序并運(yùn)行結(jié)果。
一、相關(guān)軟件的下載及環(huán)境配置
1.jdk的下載安裝及環(huán)境變量配置(我選擇的版本是jdk8.0(即jdk1.8),建議不要使用太高版本的,不然配置pom.xml容易報(bào)錯(cuò))
鏈接: https://pan.baidu.com/s/1ARiP-XX-0yi4Ev2y8BEfyA?pwd=r64b
提取碼: r64b
雙擊安裝包,一直“Next”即可,最好不要安裝到C盤(pán),中間修改一下安裝路徑即可,最后點(diǎn)擊“Finish”。我將jdk1.8安裝在了D盤(pán)目錄下的soft文件夾,bin路徑如下:

配置環(huán)境變量:





win+R打開(kāi)命令窗口輸入:javac -verison ,進(jìn)行檢測(cè)是否成功配置環(huán)境變量:

2.IDEA的下載安裝(我選擇的版本是2019.2.3,建議選擇低版本的IDEA)
官網(wǎng)下載地址:IntelliJ IDEA – 領(lǐng)先的 Java 和 Kotlin IDE (jetbrains.com.cn)

3.scala的下載(我選擇的版本是2.12.15)安裝及環(huán)境變量的配置
官網(wǎng)下載地址:The Scala Programming Language (scala-lang.org)

雙擊打開(kāi)下載好的安裝程序,一直“Next”即可,最好不要安裝到C盤(pán),中間修改一下安裝路徑即可,最后點(diǎn)擊“Finish”。我將scala軟件安裝在了D盤(pán)目錄下的Develop文件夾,bin路徑如下:

配置scala的系統(tǒng)環(huán)境變量,將scala安裝的bin目錄路徑加入到系統(tǒng)環(huán)境變量path中:

win+R打開(kāi)命令窗口輸入:scala -verison ,進(jìn)行檢測(cè)是否成功配置環(huán)境變量:

4.scala插件(版本要與IDEA版本保持一致,下載2019.2.3版本)的下載安裝
官網(wǎng)地址:Scala - IntelliJ IDEs Plugin | Marketplace
下載完成后,將下載的壓縮包解壓到IDEA安裝目錄下的plugins目錄下:

5.maven的下載(我選擇的版本是3.5.4)與安裝,系統(tǒng)環(huán)境變量的配置
官網(wǎng)地址:Maven – Download Apache Maven
將對(duì)應(yīng)版本的壓縮包下載到本地,并新建一個(gè)文件夾Localwarehouse,用來(lái)保存下載的依賴(lài)文件

配置maven的系統(tǒng)環(huán)境配置,跟以上配置的方法一樣,將bin目錄地址寫(xiě)入path環(huán)境變量:


打開(kāi)maven安裝包下的conf文件夾下面的settings.xml,添加如下代碼:
<localRepository>D:\\Develop\\maven\\Localwarehouse</localRepository>

添加如下代碼用來(lái)配置jdk版本:
<profile>
<id>jdk-1.8.0</id>
<activation>
<activeByDefault>true</activeByDefault>
<jdk>1.8.0</jdk>
</activation>
<properties>
<maven.compiler.source>1.8.0</maven.compiler.source>
<maven.compiler.target>1.8.0</maven.compiler.target>
<maven.compiler.compilerVersion>1.8.0</maven.compiler.compilerVersion>
</properties>
</profile>
二、將maven加載到IDEA中


三、檢測(cè)scala插件是否在IDEA中已經(jīng)安裝成功

四、用maven新建一個(gè)工程項(xiàng)目





五、配置pom.xml文件
1.如果只需要在本地運(yùn)行spark程序,則只需要添加scala-library、spark-core、spark-sql、spark-streaming等依賴(lài),添加代碼如下:
<properties>
<!-- 聲明scala的版本 -->
<scala.version>2.12.15</scala.version>
<!-- 聲明linux集群搭建的spark版本,如果沒(méi)有搭建則不用寫(xiě) -->
<spark.version>3.2.1</spark.version>
<!-- 聲明linux集群搭建的Hadoop版本 ,如果沒(méi)有搭建則不用寫(xiě)-->
<hadoop.version>3.1.4</hadoop.version>
</properties>
<dependencies>
<!--scala-->
<dependency>
<groupId>org.scala-lang</groupId>
<artifactId>scala-library</artifactId>
<version>${scala.version}</version>
</dependency>
<!-- https://mvnrepository.com/artifact/org.apache.spark/spark-core -->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.12</artifactId>
<version>3.2.1</version>
</dependency>
<!-- https://mvnrepository.com/artifact/org.apache.spark/spark-sql -->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.12</artifactId>
<version>3.2.1</version>
</dependency>
<!-- https://mvnrepository.com/artifact/org.apache.spark/spark-streaming -->
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-streaming_2.12</artifactId>
<version>3.2.1</version>
<scope>provided</scope>
</dependency>
</dependencies>六、新建scala類(lèi)文件編寫(xiě)代碼
當(dāng)你右鍵發(fā)現(xiàn)無(wú)法新建scala類(lèi),需要將scala SDK添加到當(dāng)前項(xiàng)目中。



鼠標(biāo)點(diǎn)擊java文件夾,右鍵new--->Scala Class


在WordCount文件中編寫(xiě)如下代碼:
import org.apache.spark.sql.SparkSession
object WordCount {
def main(args: Array[String]): Unit = {
val spark = SparkSession
.builder()
.master("local[*]")
.appName("word count")
.getOrCreate()
val sc = spark.sparkContext
val rdd = sc.textFile("data/input/words.txt")
val counts = rdd.flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_)
counts.collect().foreach(println)
println("全部的單詞數(shù):"+counts.count())
counts.saveAsTextFile("data/output/word-count")
}
}準(zhǔn)備好測(cè)試文件words.txt,將文件存放在scalaproject-->data-->input-->words.txt
hello me you her hello me you hello me hello

運(yùn)行WordCount程序

運(yùn)行結(jié)果:


到此這篇關(guān)于在IDEA運(yùn)行spark程序(搭建Spark開(kāi)發(fā)環(huán)境)的文章就介紹到這了,更多相關(guān)IDEA運(yùn)行spark程序內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
Jenkins使用Gradle編譯Android項(xiàng)目詳解
這篇文章主要介紹了Jenkins使用Gradle編譯Android項(xiàng)目詳解,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2019-07-07
Failed to execute goal org...的解決辦法
這篇文章主要介紹了Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.1的解決辦法的相關(guān)資料,需要的朋友可以參考下2017-06-06
利用Java工具類(lèi)Hutool實(shí)現(xiàn)驗(yàn)證碼校驗(yàn)功能
這篇文章主要介紹了利用Java工具類(lèi)Hutool實(shí)現(xiàn)驗(yàn)證碼校驗(yàn)功能,利用Hutool實(shí)現(xiàn)驗(yàn)證碼校驗(yàn),校驗(yàn)的Servlet與今天的第一篇是一樣的,唯一就是驗(yàn)證碼的生成是不一樣的,利用Hutool生成驗(yàn)證碼更快捷.需要的朋友可以參考下2022-10-10
SpringBoot測(cè)試時(shí)卡在Resolving Maven dependencies的問(wèn)題
這篇文章主要介紹了SpringBoot測(cè)試時(shí)卡在Resolving Maven dependencies的問(wèn)題及解決方案,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2022-02-02
Netty開(kāi)發(fā)及粘包實(shí)戰(zhàn)解決分析
這篇文章主要為大家介紹了Netty開(kāi)發(fā)及粘包實(shí)戰(zhàn)解決分析,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2024-02-02

