主頁 > 資料庫 > Spark編程基礎

Spark編程基礎

2023-06-29 09:04:55 資料庫

Scala撰寫Spark的WorkCount

創建一個Maven專案

在pom.xml中添加依賴和插件

<!-- 定義的一些常量 -->
<properties>
    <maven.compiler.source>8</maven.compiler.source>
    <maven.compiler.target>8</maven.compiler.target>
    <encoding>UTF-8</encoding>
    <spark.version>3.2.3</spark.version>
    <scala.version>2.12.15</scala.version>
</properties>

<dependencies>
    <!-- scala的依賴 -->
    <dependency>
        <groupId>org.scala-lang</groupId>
        <artifactId>scala-library</artifactId>
        <version>${scala.version}</version>
    </dependency>

    <!-- spark core 即為spark內核 ,其他高級組件都要依賴spark core -->
    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-core_2.12</artifactId>
        <version>${spark.version}</version>
    </dependency>

</dependencies>

<!-- 配置Maven的鏡像庫 -->
<!-- 依賴下載國內鏡像庫 -->
<repositories>
    <repository>
        <id>nexus-aliyun</id>
        <name>Nexus aliyun</name>
        <layout>default</layout>
        <url>http://maven.aliyun.com/nexus/content/groups/public</url>
        <snapshots>
            <enabled>false</enabled>
            <updatePolicy>never</updatePolicy>
        </snapshots>
        <releases>
            <enabled>true</enabled>
            <updatePolicy>never</updatePolicy>
        </releases>
    </repository>
</repositories>

<!-- maven插件下載國內鏡像庫 -->
<pluginRepositories>
    <pluginRepository>
        <id>ali-plugin</id>
        <url>http://maven.aliyun.com/nexus/content/groups/public/</url>
        <snapshots>
            <enabled>false</enabled>
            <updatePolicy>never</updatePolicy>
        </snapshots>
        <releases>
            <enabled>true</enabled>
            <updatePolicy>never</updatePolicy>
        </releases>
    </pluginRepository>
</pluginRepositories>

<build>
    <pluginManagement>
        <plugins>
            <!-- 編譯scala的插件 -->
            <plugin>
                <groupId>net.alchim31.maven</groupId>
                <artifactId>scala-maven-plugin</artifactId>
                <version>3.2.2</version>
            </plugin>
            <!-- 編譯java的插件 -->
            <plugin>
                <groupId>org.apache.maven.plugins</groupId>
                <artifactId>maven-compiler-plugin</artifactId>
                <version>3.5.1</version>
            </plugin>
        </plugins>
    </pluginManagement>
    <plugins>
        <plugin>
            <groupId>net.alchim31.maven</groupId>
            <artifactId>scala-maven-plugin</artifactId>
            <executions>
                <execution>
                    <id>scala-compile-first</id>
                    <phase>process-resources</phase>
                    <goals>
                        <goal>add-source</goal>
                        <goal>compile</goal>
                    </goals>
                </execution>
                <execution>
                    <id>scala-test-compile</id>
                    <phase>process-test-resources</phase>
                    <goals>
                        <goal>testCompile</goal>
                    </goals>
                </execution>
            </executions>
        </plugin>

        <plugin>
            <groupId>org.apache.maven.plugins</groupId>
            <artifactId>maven-compiler-plugin</artifactId>
            <executions>
                <execution>
                    <phase>compile</phase>
                    <goals>
                        <goal>compile</goal>
                    </goals>
                </execution>
            </executions>
        </plugin>

        <!-- 打jar插件 -->
        <plugin>
            <groupId>org.apache.maven.plugins</groupId>
            <artifactId>maven-shade-plugin</artifactId>
            <version>2.4.3</version>
            <executions>
                <execution>
                    <phase>package</phase>
                    <goals>
                        <goal>shade</goal>
                    </goals>
                    <configuration>
                        <filters>
                            <filter>
                                <artifact>*:*</artifact>
                                <excludes>
                                    <exclude>META-INF/*.SF</exclude>
                                    <exclude>META-INF/*.DSA</exclude>
                                    <exclude>META-INF/*.RSA</exclude>
                                </excludes>
                            </filter>
                        </filters>
                    </configuration>
                </execution>
            </executions>
        </plugin>
    </plugins>
</build>

創建一個scala目錄

選擇scala目錄,右鍵,將目錄轉成原始碼包,或者點擊maven的重繪按鈕
image

撰寫Spark程式

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

/**
  * 1.創建SparkContext
  * 2.創建RDD
  * 3.呼叫RDD的Transformation(s)方法
  * 4.呼叫Action
  * 5.釋放資源
  */
object WordCount {

  def main(args: Array[String]): Unit = {

    val conf: SparkConf = new SparkConf().setAppName("WordCount")
    //創建SparkContext,使用SparkContext來創建RDD
    val sc: SparkContext = new SparkContext(conf)
    //spark寫Spark程式,就是對抽象的神奇的大集合【RDD】編程,呼叫它高度封裝的API
    //使用SparkContext創建RDD
    val lines: RDD[String] = sc.textFile(args(0))

    //Transformation 開始 //
    //切分壓平
    val words: RDD[String] = lines.flatMap(_.split(" "))
    //將單詞和一組合放在元組中
    val wordAndOne: RDD[(String, Int)] = words.map((_, 1))
    //分組聚合,reduceByKey可以先區域聚合再全域聚合
    val reduced: RDD[(String, Int)] = wordAndOne.reduceByKey(_+_)
    //排序
    val sorted: RDD[(String, Int)] = reduced.sortBy(_._2, false)
    //Transformation 結束 //

    //呼叫Action將計算結果保存到HDFS中
    sorted.saveAsTextFile(args(1))
    //釋放資源
    sc.stop()
  }
}

使用maven打包

image

提交任務

? 上傳jar包到服務器,然后使用sparksubmit命令提交任務

/bigdata/spark-3.2.3-bin-hadoop3.2/bin/spark-submit \
--master spark://node-1.51doit.cn:7077 \
--executor-memory 1g --total-executor-cores 4 \
--class cn._51doit.spark.day01.WordCount \
/root/spark-in-action-1.0.jar hdfs://node-1.51doit.cn:9000/words.txt hdfs://node-1.51doit.cn:9000/out
 
引數說明:
--master 指定masterd地址和埠,協議為spark://,埠是RPC的通信埠
--executor-memory 指定每一個executor的使用的記憶體大小
--total-executor-cores指定整個application總共使用了cores
--class 指定程式的main方法全類名
jar包路徑 args0 args1
 

Java撰寫Spark的WordCount

使用匿名實作類方式

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaPairRDD;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function.FlatMapFunction;
import org.apache.spark.api.java.function.Function2;
import org.apache.spark.api.java.function.PairFunction;
import scala.Tuple2;

import java.util.Arrays;
import java.util.Iterator;

public class JavaWordCount {

    public static void main(String[] args) {
        SparkConf sparkConf = new SparkConf().setAppName("JavaWordCount");
        //創建JavaSparkContext
        JavaSparkContext jsc = new JavaSparkContext(sparkConf);
        //使用JavaSparkContext創建RDD
        JavaRDD<String> lines = jsc.textFile(args[0]);
        //呼叫Transformation(s)
        //切分壓平
        JavaRDD<String> words = lines.flatMap(new FlatMapFunction<String, String>() {
            @Override
            public Iterator<String> call(String line) throws Exception {
                return Arrays.asList(line.split(" ")).iterator();
            }
        });
        //將單詞和一組合在一起
        JavaPairRDD<String, Integer> wordAndOne = words.mapToPair(
                new PairFunction<String, String, Integer>() {
                    @Override
                    public Tuple2<String, Integer> call(String word) throws Exception {
                        return Tuple2.apply(word, 1);
                    }
        });
        //分組聚合
        JavaPairRDD<String, Integer> reduced = wordAndOne.reduceByKey(
                new Function2<Integer, Integer, Integer>() {
            @Override
            public Integer call(Integer v1, Integer v2) throws Exception {
                return v1 + v2;
            }
        });
        //排序,先調換KV的順序VK
        JavaPairRDD<Integer, String> swapped = reduced.mapToPair(
                new PairFunction<Tuple2<String, Integer>, Integer, String>() {
            @Override
            public Tuple2<Integer, String> call(Tuple2<String, Integer> tp) throws Exception {
                return tp.swap();
            }
        });
        //再排序
        JavaPairRDD<Integer, String> sorted = swapped.sortByKey(false);
        //再調換順序
        JavaPairRDD<String, Integer> result = sorted.mapToPair(
                new PairFunction<Tuple2<Integer, String>, String, Integer>() {
            @Override
            public Tuple2<String, Integer> call(Tuple2<Integer, String> tp) throws Exception {
                return tp.swap();
            }
        });
        //觸發Action,將資料保存到HDFS
        result.saveAsTextFile(args[1]);
        //釋放資源
        jsc.stop();
    }
}

使用Lambda運算式方式

import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaPairRDD;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import scala.Tuple2;

import java.util.Arrays;

public class JavaLambdaWordCount {

    public static void main(String[] args) {
        SparkConf conf = new SparkConf().setAppName("JavaLambdaWordCount");
        //創建SparkContext
        JavaSparkContext jsc = new JavaSparkContext(conf);
        //創建RDD
        JavaRDD<String> lines = jsc.textFile(args[0]);
        //切分壓平
        JavaRDD<String> words = lines.flatMap(line -> Arrays.asList(line.split(" ")).iterator());
        //將單詞和一組合
        JavaPairRDD<String, Integer> wordAndOne = words.mapToPair(word -> Tuple2.apply(word, 1));
        //分組聚合
        JavaPairRDD<String, Integer> reduced = wordAndOne.reduceByKey((a, b) -> a + b);
        //調換順序
        JavaPairRDD<Integer, String> swapped = reduced.mapToPair(tp -> tp.swap());
        //排序
        JavaPairRDD<Integer, String> sorted = swapped.sortByKey(false);
        //調換順序
        JavaPairRDD<String, Integer> result = sorted.mapToPair(tp -> tp.swap());
        //將資料保存到HDFS
        result.saveAsTextFile(args[1]);
        //釋放資源
        jsc.stop();
    }
}

本地運行Spark和Debug

spark程式每次都打包上在提交到集群上比較麻煩且不方便除錯,Spark還可以進行Local模式運行,方便測驗和除錯

在本地運行

 //Spark程式local模型運行,local[*]是本地運行,并開啟多個執行緒
val conf: SparkConf = new SparkConf()
  .setAppName("WordCount")
  .setMaster("local[*]") //設定為local模式執行

并輸入運行引數
hdfs://linux01:9000/words.txt hdfs://linux01:9000/out/out01

讀取HDFS中的資料

由于往HDFS中的寫入資料存在權限問題,所以在代碼中設定用戶為HDFS目錄的所屬用戶

//往HDFS中寫入資料,將程式的所屬用戶設定成更HDFS一樣的用戶
System.setProperty("HADOOP_USER_NAME", "root")

轉載請註明出處,本文鏈接:https://www.uj5u.com/shujuku/556271.html

標籤:其他

上一篇:跑得更快!華為云GaussDB以出色的性能守護“ERP的心臟”

下一篇:返回列表

標籤雲
其他(161833) Python(38259) JavaScript(25516) Java(18273) C(15238) 區塊鏈(8273) C#(7972) AI(7469) 爪哇(7425) MySQL(7273) html(6777) 基礎類(6313) sql(6102) 熊猫(6058) PHP(5875) 数组(5741) R(5409) Linux(5347) 反应(5209) 腳本語言(PerlPython)(5129) 非技術區(4971) Android(4607) 数据框(4311) css(4259) 节点.js(4032) C語言(3288) json(3245) 列表(3129) 扑(3119) C++語言(3117) 安卓(2998) 打字稿(2995) VBA(2789) Java相關(2746) 疑難問題(2699) 细绳(2522) 單片機工控(2479) iOS(2438) ASP.NET(2404) MongoDB(2323) 麻木的(2285) 正则表达式(2254) 字典(2211) 循环(2198) 迅速(2185) 擅长(2169) 镖(2155) .NET技术(1985) HtmlCss(1976) 功能(1967) Web開發(1951) C++(1942) python-3.x(1918) 弹簧靴(1913) xml(1889) PostgreSQL(1881) .NETCore(1863) 谷歌表格(1846) Unity3D(1843) for循环(1842)

熱門瀏覽
  • GPU虛擬機創建時間深度優化

    **?桔妹導讀:**GPU虛擬機實體創建速度慢是公有云面臨的普遍問題,由于通常情況下創建虛擬機屬于低頻操作而未引起業界的重視,實際生產中還是存在對GPU實體創建時間有苛刻要求的業務場景。本文將介紹滴滴云在解決該問題時的思路、方法、并展示最終的優化成果。 從公有云服務商那里購買過虛擬主機的資深用戶,一 ......

    uj5u.com 2020-09-10 06:09:13 more
  • 可編程網卡芯片在滴滴云網路的應用實踐

    **?桔妹導讀:**隨著云規模不斷擴大以及業務層面對延遲、帶寬的要求越來越高,采用DPDK 加速網路報文處理的方式在橫向縱向擴展都出現了局限性。可編程芯片成為業界熱點。本文主要講述了可編程網卡芯片在滴滴云網路中的應用實踐,遇到的問題、帶來的收益以及開源社區貢獻。 #1. 資料中心面臨的問題 隨著滴滴 ......

    uj5u.com 2020-09-10 06:10:21 more
  • 滴滴資料通道服務演進之路

    **?桔妹導讀:**滴滴資料通道引擎承載著全公司的資料同步,為下游實時和離線場景提供了必不可少的源資料。隨著任務量的不斷增加,資料通道的整體架構也隨之發生改變。本文介紹了滴滴資料通道的發展歷程,遇到的問題以及今后的規劃。 #1. 背景 資料,對于任何一家互聯網公司來說都是非常重要的資產,公司的大資料 ......

    uj5u.com 2020-09-10 06:11:05 more
  • 滴滴AI Labs斬獲國際機器翻譯大賽中譯英方向世界第三

    **桔妹導讀:**深耕人工智能領域,致力于探索AI讓出行更美好的滴滴AI Labs再次斬獲國際大獎,這次獲獎的專案是什么呢?一起來看看詳細報道吧! 近日,由國際計算語言學協會ACL(The Association for Computational Linguistics)舉辦的世界最具影響力的機器 ......

    uj5u.com 2020-09-10 06:11:29 more
  • MPP (Massively Parallel Processing)大規模并行處理

    1、什么是mpp? MPP (Massively Parallel Processing),即大規模并行處理,在資料庫非共享集群中,每個節點都有獨立的磁盤存盤系統和記憶體系統,業務資料根據資料庫模型和應用特點劃分到各個節點上,每臺資料節點通過專用網路或者商業通用網路互相連接,彼此協同計算,作為整體提供 ......

    uj5u.com 2020-09-10 06:11:41 more
  • 滴滴資料倉庫指標體系建設實踐

    **桔妹導讀:**指標體系是什么?如何使用OSM模型和AARRR模型搭建指標體系?如何統一流程、規范化、工具化管理指標體系?本文會對建設的方法論結合滴滴資料指標體系建設實踐進行解答分析。 #1. 什么是指標體系 ##1.1 指標體系定義 指標體系是將零散單點的具有相互聯系的指標,系統化的組織起來,通 ......

    uj5u.com 2020-09-10 06:12:52 more
  • 單表千萬行資料庫 LIKE 搜索優化手記

    我們經常在資料庫中使用 LIKE 運算子來完成對資料的模糊搜索,LIKE 運算子用于在 WHERE 子句中搜索列中的指定模式。 如果需要查找客戶表中所有姓氏是“張”的資料,可以使用下面的 SQL 陳述句: SELECT * FROM Customer WHERE Name LIKE '張%' 如果需要 ......

    uj5u.com 2020-09-10 06:13:25 more
  • 滴滴Ceph分布式存盤系統優化之鎖優化

    **桔妹導讀:**Ceph是國際知名的開源分布式存盤系統,在工業界和學術界都有著重要的影響。Ceph的架構和演算法設計發表在國際系統領域頂級會議OSDI、SOSP、SC等上。Ceph社區得到Red Hat、SUSE、Intel等大公司的大力支持。Ceph是國際云計算領域應用最廣泛的開源分布式存盤系統, ......

    uj5u.com 2020-09-10 06:14:51 more
  • es~通過ElasticsearchTemplate進行聚合~嵌套聚合

    之前寫過《es~通過ElasticsearchTemplate進行聚合操作》的文章,這一次主要寫一個嵌套的聚合,例如先對sex集合,再對desc聚合,最后再對age求和,共三層嵌套。 Aggregations的部分特性類似于SQL語言中的group by,avg,sum等函式,Aggregation ......

    uj5u.com 2020-09-10 06:14:59 more
  • 爬蟲日志監控 -- Elastc Stack(ELK)部署

    傻瓜式部署,只需替換IP與用戶 導讀: 現ELK四大組件分別為:Elasticsearch(核心)、logstash(處理)、filebeat(采集)、kibana(可視化) 下載均在https://www.elastic.co/cn/downloads/下tar包,各組件版本最好一致,配合fdm會 ......

    uj5u.com 2020-09-10 06:15:05 more
最新发布
  • Spark編程基礎

    # Scala撰寫Spark的WorkCount ## 創建一個Maven專案 在pom.xml中添加依賴和插件 ```XML 8 8 UTF-8 3.2.3 2.12.15 org.scala-lang scala-library ${scala.version} org.apache.spark ......

    uj5u.com 2023-06-29 09:04:55 more
  • 跑得更快!華為云GaussDB以出色的性能守護“ERP的心臟”

    摘要:GaussDB已經全面支撐起MetaERP,在包括庫存服務在內的9大核心模塊中穩定運行,端到端業務效率得到10倍提升。 本文分享自華為云社區《跑得更快!華為云GaussDB以出色的性能守護“ERP的心臟”》,作者:GaussDB 資料庫。 ERP作為華為企業經營最核心的系統,伴隨著華為20多年 ......

    uj5u.com 2023-06-29 09:04:47 more
  • G1垃圾回收引數調優及MySQL虛參考造成GC時間過長分析

    我方有一應用,偶爾會出現GC時間過長(間隔約4小時),導致性能波動的問題(介面最長需要耗時3秒以上)。經排查為G1垃圾回收器引數配置不當 疊加 MySQL 鏈接超過閑置時間回收,產生大量的虛參考,導致G1在執行老年代混合GC,標記階段耗時過長導致。以下為對此問題的分析及問題總結。 ......

    uj5u.com 2023-06-29 09:04:41 more
  • 資料交換不失控:華為云EDS,讓你的資料你做主

    摘要:隨著企業資料空間在內部的成功實踐,2022年,華為正式推出云服務產品——華為云交換資料空間EDS(Exchange Data Space),秉持“你的資料你做主”的宗旨,以保護企業資料主權為基礎,促進企業資料高效流通,實作資料價值最大化。 本文分享自華為云社區《資料交換不失控——華為云EDS, ......

    uj5u.com 2023-06-29 09:04:21 more
  • MongoDB(二)

    # MongoDB概念決議 ## 1、MongoDB vs SQL ![](https://img2023.cnblogs.com/blog/2987571/202306/2987571-20230628132104929-1652408975.png) ## 2、資料庫 * 一個MongoDB可以 ......

    uj5u.com 2023-06-29 09:04:04 more
  • 跑得更快!華為云GaussDB以出色的性能守護“ERP的心臟”

    摘要:GaussDB已經全面支撐起MetaERP,在包括庫存服務在內的9大核心模塊中穩定運行,端到端業務效率得到10倍提升。 本文分享自華為云社區《跑得更快!華為云GaussDB以出色的性能守護“ERP的心臟”》,作者:GaussDB 資料庫。 ERP作為華為企業經營最核心的系統,伴隨著華為20多年 ......

    uj5u.com 2023-06-29 09:03:32 more
  • 資料交換不失控:華為云EDS,讓你的資料你做主

    摘要:隨著企業資料空間在內部的成功實踐,2022年,華為正式推出云服務產品——華為云交換資料空間EDS(Exchange Data Space),秉持“你的資料你做主”的宗旨,以保護企業資料主權為基礎,促進企業資料高效流通,實作資料價值最大化。 本文分享自華為云社區《資料交換不失控——華為云EDS, ......

    uj5u.com 2023-06-29 09:02:22 more
  • MongoDB(二)

    # MongoDB概念決議 ## 1、MongoDB vs SQL ![](https://img2023.cnblogs.com/blog/2987571/202306/2987571-20230628132104929-1652408975.png) ## 2、資料庫 * 一個MongoDB可以 ......

    uj5u.com 2023-06-29 09:00:55 more
  • 1、MySQL操作命令學習1

    一、對資料庫及表的基礎操作 1、連接資料庫服務器 mysql -hlocalhost -uroot -p123456 2、2.退出服務器 exit 3、查看所有的資料庫 show databases; 4、創建一個資料庫 create database java; 5、洗掉資料庫 drop data ......

    uj5u.com 2023-06-29 09:00:28 more
  • G1垃圾回收引數調優及MySQL虛參考造成GC時間過長分析

    我方有一應用,偶爾會出現GC時間過長(間隔約4小時),導致性能波動的問題(介面最長需要耗時3秒以上)。經排查為G1垃圾回收器引數配置不當 疊加 MySQL 鏈接超過閑置時間回收,產生大量的虛參考,導致G1在執行老年代混合GC,標記階段耗時過長導致。以下為對此問題的分析及問題總結。 ......

    uj5u.com 2023-06-29 09:00:24 more