欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

SpringBoot使用Spark過程詳解

 更新時間:2023年02月15日 10:46:31   作者:我有一只肥螳螂  
這篇文章主要介紹SpringBoot使用Spark的方法的相關知識,小編通過實際案例向大家展示操作過程,操作方法簡單快捷,實用性強,希望能幫助大家解決問題

前提: 可以參考文章 SpringBoot 接入 Spark

  • SpringBoot 已經(jīng)接入 Spark
  • 已配置 JavaSparkContext
  • 已配置 SparkSession
@Resource
private SparkSession sparkSession;
@Resource
private JavaSparkContext javaSparkContext;

讀取 txt 文件

測試文件 word.txt

java 代碼

  • textFile:獲取文件內容,返回 JavaRDD
  • flatMap:過濾數(shù)據(jù)
  • mapToPair:把每個元素都轉換成一個<K,V>類型的對象,如 <123,1>,<456,1>
  • reduceByKey:對相同key的數(shù)據(jù)集進行預聚合
public void testSparkText() {
    String file = "D:\\TEMP\\word.txt";
    JavaRDD<String> fileRDD =  javaSparkContext.textFile(file);
    JavaRDD<String> wordsRDD = fileRDD.flatMap(line -> Arrays.asList(line.split(" ")).iterator());
    JavaPairRDD<String, Integer> wordAndOneRDD = wordsRDD.mapToPair(word -> new Tuple2<>(word, 1));
    JavaPairRDD<String, Integer> wordAndCountRDD = wordAndOneRDD.reduceByKey((a, b) -> a + b);
    //輸出結果
    List<Tuple2<String, Integer>> result = wordAndCountRDD.collect();
    result.forEach(System.out::println);
}

結果得出,123 有 3 個,456 有 2 個,789 有 1 個

讀取 csv 文件

測試文件 testcsv.csv

java 代碼

public void testSparkCsv() {
    String file = "D:\\TEMP\\testcsv.csv";
    JavaRDD<String> fileRDD = javaSparkContext.textFile(file);
    JavaRDD<String> wordsRDD = fileRDD.flatMap(line -> Arrays.asList(line.split(",")).iterator());
    //輸出結果
    System.out.println(wordsRDD.collect());
}

輸出結果

讀取 MySQL 數(shù)據(jù)庫表

  • format:獲取數(shù)據(jù)庫建議是 jdbc
  • option.url:添加 MySQL 連接 url
  • option.user:MySQL 用戶名
  • option.password:MySQL 用戶密碼
  • option.dbtable:sql 語句
  • option.driver:數(shù)據(jù)庫 driver,MySQL 使用 com.mysql.cj.jdbc.Driver
public void testSparkMysql() throws IOException {
    Dataset<Row> jdbcDF = sparkSession.read()
            .format("jdbc")
            .option("url", "jdbc:mysql://192.168.140.1:3306/user?useUnicode=true&characterEncoding=UTF-8&serverTimezone=Asia/Shanghai")
            .option("dbtable", "(SELECT * FROM xxxtable) tmp")
            .option("user", "root")
            .option("password", "xxxxxxxxxx*k")
            .option("driver", "com.mysql.cj.jdbc.Driver")
            .load();
    jdbcDF.printSchema();
    jdbcDF.show();
    //轉化為RDD
    JavaRDD<Row> rowJavaRDD = jdbcDF.javaRDD();
    System.out.println(rowJavaRDD.collect());
}

也可以把表內容輸出到文件,添加以下代碼

List<Row> list = rowJavaRDD.collect();
BufferedWriter bw;
bw = new BufferedWriter(new FileWriter("d:/test.txt"));
for (int j = 0; j < list.size(); j++) {
    bw.write(list.get(j).toString());
    bw.newLine();
    bw.flush();
}
bw.close();

結果輸出

讀取 Json 文件

測試文件 testjson.json,內容如下

[{
	"name": "name1",
	"age": "1"
}, {
	"name": "name2",
	"age": "2"
}, {
	"name": "name3",
	"age": "3"
}, {
	"name": "name4",
	"age": "4"
}]

注意:testjson.json 文件的內容不能帶格式,需要進行壓縮

java 代碼

  • createOrReplaceTempView:讀取 json 數(shù)據(jù)后,創(chuàng)建數(shù)據(jù)表 t
  • sparkSession.sql:使用 sql 對 t 進行查詢,輸出 age 大于 3 的數(shù)據(jù)
public void testSparkJson() {
    Dataset<Row> df = sparkSession.read().json("D:\\TEMP\\testjson.json");
    df.printSchema();
    df.createOrReplaceTempView("t");
    Dataset<Row> row = sparkSession.sql("select age,name from t where age > 3");
    JavaRDD<Row> rowJavaRDD = row.javaRDD();
    System.out.println(rowJavaRDD.collect());
}

輸出結果

中文輸出亂碼

測試文件 testcsv.csv

public void testSparkCsv() {
    String file = "D:\\TEMP\\testcsv.csv";
    JavaRDD<String> fileRDD = javaSparkContext.textFile(file);
    JavaRDD<String> wordsRDD = fileRDD.flatMap(line -> Arrays.asList(line.split(",")).iterator());
    //輸出結果
    System.out.println(wordsRDD.collect());
}

輸出結果,發(fā)現(xiàn)中文亂碼,可惡

原因:textFile 讀取文件沒有解決亂碼問題,但 sparkSession.read() 卻不會亂碼

解決辦法:獲取文件方式由 textFile 改成 hadoopFile,由 hadoopFile 指定具體編碼

    public void testSparkCsv() {
        String file = "D:\\TEMP\\testcsv.csv";
        String code = "gbk";
        JavaRDD<String> gbkRDD = javaSparkContext.hadoopFile(file, TextInputFormat.class, LongWritable.class, Text.class).map(p -> new String(p._2.getBytes(), 0, p._2.getLength(), code));
        JavaRDD<String> gbkWordsRDD = gbkRDD.flatMap(line -> Arrays.asList(line.split(",")).iterator());
        //輸出結果
        System.out.println(gbkWordsRDD.collect());
    }

輸出結果

到此這篇關于SpringBoot使用Spark過程詳解的文章就介紹到這了,更多相關SpringBoot Spark內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

相關文章

  • Java將json字符串轉換為數(shù)組的幾種方法

    Java將json字符串轉換為數(shù)組的幾種方法

    在Java開發(fā)中,經(jīng)常會遇到將json字符串轉換為數(shù)組的需求,本文主要介紹了Java將json字符串轉換為數(shù)組的幾種方法,具有一定的參考價值,感興趣的可以了解一下
    2024-01-01
  • 詳解如何使用tldb數(shù)據(jù)庫的java客戶端

    詳解如何使用tldb數(shù)據(jù)庫的java客戶端

    這篇文章主要為大家介紹了如何使用tldb數(shù)據(jù)庫的java客戶端過程示例詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪
    2023-09-09
  • java abstract class interface之間的區(qū)別介紹

    java abstract class interface之間的區(qū)別介紹

    含有abstract修飾符的class即為抽象類,abstract 類不能創(chuàng)建的實例對象,abstract class類中定義抽象方法必須在具體(Concrete)子類中實現(xiàn),所以,不能有抽象構造方法或抽象靜態(tài)方法
    2012-11-11
  • 一文弄懂Mybatis中介者模式

    一文弄懂Mybatis中介者模式

    本文主要介紹了一文弄懂Mybatis中介者模式,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2023-06-06
  • Java實現(xiàn)多層文件夾壓縮功能

    Java實現(xiàn)多層文件夾壓縮功能

    這篇文章主要為大家詳細介紹了如何利用Java語言進行多層文件夾壓縮功能,文中的示例代碼講解詳細,感興趣的小伙伴可以跟隨小編一起學習一下
    2022-08-08
  • 詳解Java的位操作符

    詳解Java的位操作符

    位操作就是對這些數(shù)據(jù)進行基本的操作。如果基本類型是char、byte或者short類型的數(shù)值進行移位處理,那么會轉化成int類型,再進行移位的處理
    2017-09-09
  • spring?cloud?eureka注冊原理-注冊失敗填坑筆記

    spring?cloud?eureka注冊原理-注冊失敗填坑筆記

    這篇文章主要介紹了spring?cloud?eureka注冊原理-注冊失敗填坑筆記,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教
    2022-05-05
  • java.util.NoSuchElementException原因及兩種解決方法

    java.util.NoSuchElementException原因及兩種解決方法

    本文主要介紹了java.util.NoSuchElementException原因及兩種解決方法,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2022-06-06
  • 解決idea找不到或無法加載主類的錯誤處理

    解決idea找不到或無法加載主類的錯誤處理

    這篇文章主要介紹了解決idea找不到或無法加載主類的錯誤處理,本文給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2021-04-04
  • Java 深入探討設計模式之原型模式篇

    Java 深入探討設計模式之原型模式篇

    設計模式(Design pattern)是一套被反復使用、多數(shù)人知曉的、經(jīng)過分類編目的、代碼設計經(jīng)驗的總結。使用設計模式是為了可重用代碼、讓代碼更容易被他人理解、保證代碼可靠性
    2021-10-10

最新評論