主頁 > 資料庫 > Spark的一些重要概念

Spark的一些重要概念

2023-07-06 09:12:15 資料庫

Shuffle的深入理解

什么是Shuffle,本意為洗牌,在資料處理領域里面,意為將數打散,
問題:shuffle一定有網路傳輸嗎?有網路傳輸的一定是Shuffle嗎?

Shuffle的概念

通過網路將資料傳輸到多臺機器,資料被打散,但是有網路傳輸,不一定就有shuffle,Shuffle的功能是將具有相同規律的資料按照指定的磁區器的磁區規則,通過網路,傳輸到指定的機器的一個磁區中,需要注意的是,不是上游的Task發送給下游的Task,而是下游的Task到上游拉取資料,

image

reduceByKey一定會Shuffle嗎

不一定,如果一個RDD事先使用了HashPartitioner磁區先進行磁區,然后再呼叫reduceByKey方法,使用的也是HashPartitioner,并且沒有改變磁區數量,呼叫redcueByKey就不shuffle
如果自定義磁區器,多次使用自定義的磁區器,并且沒有改變磁區的數量,為了減少shuffle的次數,提高計算效率,需要重新自定義磁區器的equals方法
例如:

//創建RDD,并沒有立即讀取資料,而是觸發Action才會讀取資料
val lines = sc.textFile("hdfs://node-1.51doit.cn:9000/words")

val wordAndOne = lines.flatMap(_.split(" ")).map((_, 1))
//先使用HashPartitioner進行partitionBy
val partitioner = new HashPartitioner(wordAndOne.partitions.length)
val partitioned = wordAndOne.partitionBy(partitioner)
//然后再呼叫reduceByKey
val reduced: RDD[(String, Int)] = partitioned.reduceByKey(_ + _)

reduced.saveAsTextFile("hdfs://node-1.51doit.cn:9000/out-36-82")

image

join一定會Shuffle嗎

不一定,join一般情況會shuffle,但是如果兩個要join的rdd實作都使用相同的磁區去進行磁區了,并且join時,依然使用相同型別的磁區器,并且沒有改變磁區資料,那么不shuffle

//通過并行化的方式創建一個RDD
val rdd1 = sc.parallelize(List(("tom", 1), ("tom", 2), ("jerry", 3), ("kitty", 2)), 2)
//通過并行化的方式再創建一個RDD
val rdd2 = sc.parallelize(List(("jerry", 2), ("tom", 1), ("shuke", 2), ("jerry", 4)), 2)
//該join一定有shuffle,并且是3個Stage
val rdd3: RDD[(String, (Int, Int))] = rdd1.join(rdd2)


val rdd11 = rdd1.groupByKey()
val rdd22 = rdd2.groupByKey()
//下面的join,沒有shuffle
val rdd33 = rdd11.join(rdd22)

rdd33.saveAsTextFile("hdfs://node-1.51doit.cn:9000/out-36-86")

image

shuffle資料的復用

spark在shuffle時,會應用磁區器,當讀取達到一定大小或整個磁區的資料被處理完,會將資料溢寫磁盤磁盤(資料檔案和索引檔案),溢寫持磁盤的資料,會保存在Executor所在機器的本地磁盤(默認是保存在/temp目錄,也可以配置到其他目錄),只要application一直運行,shuffle的中間結果資料就會被保存,如果以后再次觸發Action,使用到了以前shuffle的中間結果,那么就不會從源頭重新計算而是,而是復用shuffle中間結果,所有說,shuffle是一種特殊的persist,以后再次觸發Action,就會跳過前面的Stage,直接讀取shuffle的資料,這樣可以提高程式的執行效率,

廣播變數

廣播變數的使用場景

在很多計算場景,經常會遇到兩個RDD進行JOIN,如果一個RDD對應的資料比較大,一個RDD對應的資料比較小,如果使用JOIN,那么會shuffle,導致效率變低,廣播變數就是將相對較小的資料,先收集到Driver,然后再通過網路廣播到屬于該Application對應的每個Executor中,以后處理大量資料對應的RDD關聯資料,就不用shuffle了,而是直接在記憶體中關聯已經廣播好的資料,即通實作mapside join,可以將Driver端的資料廣播到屬于該application的Executor,然后通過Driver廣播變數回傳的參考,獲取實作廣播到Executor的資料

廣播變數的特點:廣播出去的資料就無法在改變了,在沒有Executor中是只讀的操作,在每個Executor中,多個Task使用一份廣播變數
image

廣播變數的實作原理

廣播變數是通過BT的方式廣播的(TorrentBroadcast),多個Executor可以相互傳遞資料,可以提高效率
sc.broadcast這個方法是阻塞的(同步的)
廣播變數一但廣播出去就不能改變,為了以后可以定期的改變要關聯的資料,可以定義一個object[單例物件],在函式內使用,并且加一個定時器,然后定期更新資料
廣播到Executor的資料,可以在Driver獲取到參考,然后這個參考會伴隨著每一個Task發送到Executor,然后通過這個參考,獲取到事先廣播好的資料

序列化問題

序列化問題的場景

spark任務在執行程序中,由于撰寫的程式不當,任務在執行時,會出序列化問題,通常有以下兩種情況,
? 封裝資料的Bean沒有實作序列化介面(Task已經生成了),在ShuffleWirte之前要將資料溢寫磁盤,會拋出例外
? 函式閉包問題,即函式的內部,使用到了外部沒有實作序列化的參考(Task沒有生成)

資料Bean未實作序列化介面

spark在運算程序中,由于很多場景必須要shuffle,即向資料溢寫磁盤并且在網路間進行傳輸,但是由于封裝資料的Bean沒有實作序列化介面,就會導致出現序列化的錯誤!


object C02_CustomSort {

  def main(args: Array[String]): Unit = {

    val sc = SparkUtil.getContext(this.getClass.getSimpleName, true)
    //使用并行化的方式創建RDD
    val lines = sc.parallelize(
      List(
        "laoduan,38,99.99",
        "nianhang,33,99.99",
        "laozhao,18,9999.99"
      )
    )
    val tfBoy: RDD[Boy] = lines.map(line => {
      val fields = line.split(",")
      val name = fields(0)
      val age = fields(1).toInt
      val fv = fields(2).toDouble
      new Boy(name, age, fv) //將資料封裝到一個普通的class中
    })

    implicit val ord = new Ordering[Boy] {
      override def compare(x: Boy, y: Boy): Int = {
        if (x.fv == y.fv) {
          x.age - y.age
        } else {
          java.lang.Double.compare(y.fv, x.fv)
        }
      }
    }
    //sortBy會產生shuffle,如果Boy沒有實作序列化介面,Shuffle時會報錯
    val sorted: RDD[Boy] = tfBoy.sortBy(bean => bean)

    val res = sorted.collect()

    println(res.toBuffer)
  }
}

//如果以后定義bean,建議使用case class
class Boy(val name: String, var age: Int, var fv: Double)  //extends Serializable 
{
  
  override def toString = s"Boy($name, $age, $fv)"
}

函式閉包問題

閉包的現象

在呼叫RDD的Transformation和Action時,可能會傳入自定義的函式,如果函式內部使用到了外部未被序列化的參考,就會報Task無法序列化的錯誤,原因是spark的Task是在Driver端生成的,并且需要通過網路傳輸到Executor中,Task本身實作了序列化介面,函式也實作了序列化介面,但是函式內部使用到的外部參考不支持序列化,就會函式導致無法序列化,從而導致Task沒法序列化,就無法發送到Executor中了
image

在呼叫RDD的Transformation或Action是傳入函式,第一步就進行檢測,即呼叫sc的clean方法
為了避免錯誤,在Driver初始化的object或class必須實作序列化介面,不然會報錯誤

def map[U: ClassTag](f: T => U): RDD[U] = withScope {
  val cleanF = sc.clean(f) //檢測函式是否可以序列化,如果可以直接將函式回傳,如果不可以,拋出例外
  new MapPartitionsRDD[U, T](this, (_, _, iter) => iter.map(cleanF))
}
private def ensureSerializable(func: AnyRef): Unit = {
  try {
    if (SparkEnv.get != null) {
      //獲取spark執行換的的序列化器,如果函式無法序列化,直接拋出例外,程式退出,根本就沒有生成Task
      SparkEnv.get.closureSerializer.newInstance().serialize(func)
    }
  } catch {
    case ex: Exception => throw new SparkException("Task not serializable", ex)
  }
}

在Driver端初始化實作序列化的object

在一個Executor中,多個Task使用同一個object物件,因為在scala中,object就是單例物件,一個Executor中只有一個實體,Task會反序列化多次,但是參考的單例物件只反序列化一次

//從HDFS中讀取資料,創建RDD
//HDFS指定的目錄中有4個小檔案,內容如下:
//1,ln
val lines = sc.textFile(args(1))
//函式外部定義的一個參考型別(變數)
//RuleObjectSer是一個靜態物件,實在第一次使用的時候被初始化了(實在Driver被初始化的)
val rulesObj = RuleObjectSer

//函式實在Driver定義的
val func = (line: String) => {
  val fields = line.split(",")
  val id = fields(0).toInt
  val code = fields(1)
  val name = rulesObj.rulesMap.getOrElse(code, "未知") //閉包
  //獲取當前執行緒ID
  val treadId = Thread.currentThread().getId
  //獲取當前Task對應的磁區編號
  val partitiondId = TaskContext.getPartitionId()
  //獲取當前Task運行時的所在機器的主機名
  val host = InetAddress.getLocalHost.getHostName
  (id, code, name, treadId, partitiondId, host, rulesObj.toString)
}

//處理資料,關聯維度
val res = lines.map(func)
res.saveAsTextFile(args(2))

image

在Driver端初始化實作序列化的class
在一個Executor中,每個Task都會使用自己獨享的class實體,因為在scala中,class就是多例,Task會反序列化多次,每個Task參考的class實體也會被序列化

//從HDFS中讀取資料,創建RDD
//HDFS指定的目錄中有4個小檔案,內容如下:
//1,ln
val lines = sc.textFile(args(1))
//函式外部定義的一個參考型別(變數)
//RuleClassNotSer是一個類,需要new才能實作(實在Driver被初始化的)
val rulesClass = new RuleClassSer

//處理資料,關聯維度
val res = lines.map(e => {
  val fields = e.split(",")
  val id = fields(0).toInt
  val code = fields(1)
  val name = rulesClass.rulesMap.getOrElse(code, "未知") //閉包
  //獲取當前執行緒ID
  val treadId = Thread.currentThread().getId
  //獲取當前Task對應的磁區編號
  val partitiondId = TaskContext.getPartitionId()
  //獲取當前Task運行時的所在機器的主機名
  val host = InetAddress.getLocalHost.getHostName
  (id, code, name, treadId, partitiondId, host, rulesClass.toString)
})

res.saveAsTextFile(args(2))

image

在函式內部初始化未序列化的object
object沒有實作序列化介面,不會出現問題,因為該object實作函式內部被初始化的,而不是在Driver初始化的

//從HDFS中讀取資料,創建RDD
//HDFS指定的目錄中有4個小檔案,內容如下:
//1,ln
val lines = sc.textFile(args(1))
//不再Driver端初始化RuleObjectSer或RuleClassSer
//函式實在Driver定義的
val func = (line: String) => {
  val fields = line.split(",")
  val id = fields(0).toInt
  val code = fields(1)
  //在函式內部初始化沒有實作序列化介面的RuleObjectNotSer
  val name = RuleObjectNotSer.rulesMap.getOrElse(code, "未知") 
  //獲取當前執行緒ID
  val treadId = Thread.currentThread().getId
  //獲取當前Task對應的磁區編號
  val partitiondId = TaskContext.getPartitionId()
  //獲取當前Task運行時的所在機器的主機名
  val host = InetAddress.getLocalHost.getHostName
  (id, code, name, treadId, partitiondId, host, RuleObjectNotSer.toString)
}
//處理資料,關聯維度
val res = lines.map(func)
res.saveAsTextFile(args(2))
sc.stop()

image

在函式內部初始化未序列化的class

這種方式非常不好,因為每來一條資料,new一個class的實體,會導致消耗更多資源,jvm會頻繁GC

//從HDFS中讀取資料,創建RDD
//HDFS指定的目錄中有4個小檔案,內容如下:
//1,ln
val lines = sc.textFile(args(1))

//處理資料,關聯維度
val res = lines.map(e => {
  val fields = e.split(",")
  val id = fields(0).toInt
  val code = fields(1)
  //RuleClassNotSer是在Executor中被初始化的
  val rulesClass = new RuleClassNotSer
  //但是如果每來一條資料new一個RuleClassNotSer,不好,效率低,浪費資源,頻繁GC
  val name = rulesClass.rulesMap.getOrElse(code, "未知") 
  //獲取當前執行緒ID
  val treadId = Thread.currentThread().getId
  //獲取當前Task對應的磁區編號
  val partitiondId = TaskContext.getPartitionId()
  //獲取當前Task運行時的所在機器的主機名
  val host = InetAddress.getLocalHost.getHostName
  (id, code, name, treadId, partitiondId, host, rulesClass.toString)
})

res.saveAsTextFile(args(2))

呼叫mapPartitions在函式內部初始化未序列化的class

一個磁區使用一個class的實體,即每個Task都是自己的class實體

//從HDFS中讀取資料,創建RDD
//HDFS指定的目錄中有4個小檔案,內容如下:
//1,ln
val lines = sc.textFile(args(1))
//處理資料,關聯維度
val res = lines.mapPartitions(it => {
  //RuleClassNotSer是在Executor中被初始化的
  //一個磁區的多條資料,使用同一個RuleClassNotSer實體
  val rulesClass = new RuleClassNotSer
  it.map(e => {
    val fields = e.split(",")
    val id = fields(0).toInt
    val code = fields(1)
    val name = rulesClass.rulesMap.getOrElse(code, "未知") 
    //獲取當前執行緒ID
    val treadId = Thread.currentThread().getId
    //獲取當前Task對應的磁區編號
    val partitiondId = TaskContext.getPartitionId()
    //獲取當前Task運行時的所在機器的主機名
    val host = InetAddress.getLocalHost.getHostName
    (id, code, name, treadId, partitiondId, host, rulesClass.toString)
  })
})
res.saveAsTextFile(args(2))
sc.stop()

image

Task執行緒安全問題

在一個Executor可以同時運行多個Task,如果多個Task使用同一個共享的單例物件,如果對共享的資料同時進行讀寫操作,會導致執行緒不安全的問題,為了避免這個問題,可以加鎖,但效率變低了,因為在一個Executor中同一個時間點只能有一個Task使用共享的資料,這樣就變成了串行了,效率低!

定義一個工具類object,格式化日期,因為SimpleDateFormat執行緒不安全,會出現例外

val conf = new SparkConf()
  .setAppName("WordCount")
  .setMaster("local[*]") //本地模式,開多個執行緒
//1.創建SparkContext
val sc = new SparkContext(conf)

val lines = sc.textFile("data/date.txt")

val timeRDD: RDD[Long] = lines.map(e => {
  //將字串轉成long型別時間戳
  //使用自定義的object工具類
  val time: Long = DateUtilObj.parse(e)
  time
})

val res = timeRDD.collect()
println(res.toBuffer)
object DateUtilObj {

  //多個Task使用了一個共享的SimpleDateFormat,SimpleDateFormat是執行緒不安全

  val sdf = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss")

  //執行緒安全的
  //val sdf: FastDateFormat = FastDateFormat.getInstance("yyyy-MM-dd HH:mm:ss")

  def parse(str: String): Long = {
    //2022-05-23 11:39:30
    sdf.parse(str).getTime
  }

}

上面的程式會出現錯誤,因為多個Task同時使用一個單例物件格式化日期,報錯,如果加鎖,程式會變慢,改進后的代碼:

val conf = new SparkConf()
  .setAppName("WordCount")
  .setMaster("local[*]") //本地模式,開多個執行緒
//1.創建SparkContext
val sc = new SparkContext(conf)

val lines = sc.textFile("data/date.txt")

val timeRDD = lines.mapPartitions(it => {
  //一個Task使用自己單獨的DateUtilClass實體,缺點是浪費記憶體資源
  val dataUtil = new DateUtilClass
  it.map(e => {
    dataUtil.parse(e)
  })
})

val res = timeRDD.collect()
println(res.toBuffer)
class DateUtilClass {

  val sdf = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss")

  def parse(str: String): Long = {
    //2022-05-23 11:39:30
    sdf.parse(str).getTime
  }
}

改進后,一個Task使用一個DateUtilClass實體,不會出現執行緒安全的問題,

累加器

累加器是Spark中用來做計數功能的,在程式運行程序當中,可以做一些額外的資料指標統計

觸發一次Action,并且將附帶的統計指標計算出來,可以使用Accumulator進行處理,Accumulator的本質數一個實作序列化介面class,每個Task都有自己的累加器,避免累加的資料發送沖突

object C14_AccumulatorDemo3 {

  def main(args: Array[String]): Unit = {

    val conf = new SparkConf()
      .setAppName("WordCount")
      .setMaster("local[*]") //本地模式,開多個執行緒
    //1.創建SparkContext
    val sc = new SparkContext(conf)

    val rdd1 = sc.parallelize(List(1,2,3,4,5,6,7,8,9), 2)
    //在Driver定義一個特殊的變數,即累加器
    //Accumulator可以將每個磁區的計數結果,通過網路傳輸到Driver,然后進行全域求和
    val accumulator: LongAccumulator = sc.longAccumulator("even-acc")
    val rdd2 = rdd1.map(e => {
      if (e % 2 == 0) {
        accumulator.add(1)  //閉包,在Executor中累計的
      }
      e * 10
    })

    //就觸發一次Action
    rdd2.saveAsTextFile("out/113")

    //每個Task中累計的資料會回傳到Driver嗎?
    println(accumulator.count) 
  }
}

轉載請註明出處,本文鏈接:https://www.uj5u.com/shujuku/556652.html

標籤:大數據

上一篇:基于袋鼠云實時開發平臺開發 FlinkSQL 任務的實踐探索

下一篇:返回列表

標籤雲
其他(162108) Python(38266) JavaScript(25524) Java(18290) C(15238) 區塊鏈(8275) C#(7972) AI(7469) 爪哇(7425) MySQL(7285) html(6777) 基礎類(6313) sql(6102) 熊猫(6058) PHP(5876) 数组(5741) R(5409) Linux(5347) 反应(5209) 腳本語言(PerlPython)(5129) 非技術區(4971) Android(4611) 数据框(4311) css(4259) 节点.js(4032) C語言(3288) json(3245) 列表(3129) 扑(3119) C++語言(3117) 安卓(2998) 打字稿(2995) VBA(2789) Java相關(2746) 疑難問題(2699) 细绳(2522) 單片機工控(2479) iOS(2438) ASP.NET(2404) MongoDB(2323) 麻木的(2285) 正则表达式(2254) 字典(2211) 循环(2198) 迅速(2185) 擅长(2169) 镖(2155) HtmlCss(1989) .NET技术(1985) 功能(1967) Web開發(1951) C++(1942) python-3.x(1918) 弹簧靴(1913) xml(1889) PostgreSQL(1882) .NETCore(1863) 谷歌表格(1846) Unity3D(1843) for循环(1842)

熱門瀏覽
  • GPU虛擬機創建時間深度優化

    **?桔妹導讀:**GPU虛擬機實體創建速度慢是公有云面臨的普遍問題,由于通常情況下創建虛擬機屬于低頻操作而未引起業界的重視,實際生產中還是存在對GPU實體創建時間有苛刻要求的業務場景。本文將介紹滴滴云在解決該問題時的思路、方法、并展示最終的優化成果。 從公有云服務商那里購買過虛擬主機的資深用戶,一 ......

    uj5u.com 2020-09-10 06:09:13 more
  • 可編程網卡芯片在滴滴云網路的應用實踐

    **?桔妹導讀:**隨著云規模不斷擴大以及業務層面對延遲、帶寬的要求越來越高,采用DPDK 加速網路報文處理的方式在橫向縱向擴展都出現了局限性。可編程芯片成為業界熱點。本文主要講述了可編程網卡芯片在滴滴云網路中的應用實踐,遇到的問題、帶來的收益以及開源社區貢獻。 #1. 資料中心面臨的問題 隨著滴滴 ......

    uj5u.com 2020-09-10 06:10:21 more
  • 滴滴資料通道服務演進之路

    **?桔妹導讀:**滴滴資料通道引擎承載著全公司的資料同步,為下游實時和離線場景提供了必不可少的源資料。隨著任務量的不斷增加,資料通道的整體架構也隨之發生改變。本文介紹了滴滴資料通道的發展歷程,遇到的問題以及今后的規劃。 #1. 背景 資料,對于任何一家互聯網公司來說都是非常重要的資產,公司的大資料 ......

    uj5u.com 2020-09-10 06:11:05 more
  • 滴滴AI Labs斬獲國際機器翻譯大賽中譯英方向世界第三

    **桔妹導讀:**深耕人工智能領域,致力于探索AI讓出行更美好的滴滴AI Labs再次斬獲國際大獎,這次獲獎的專案是什么呢?一起來看看詳細報道吧! 近日,由國際計算語言學協會ACL(The Association for Computational Linguistics)舉辦的世界最具影響力的機器 ......

    uj5u.com 2020-09-10 06:11:29 more
  • MPP (Massively Parallel Processing)大規模并行處理

    1、什么是mpp? MPP (Massively Parallel Processing),即大規模并行處理,在資料庫非共享集群中,每個節點都有獨立的磁盤存盤系統和記憶體系統,業務資料根據資料庫模型和應用特點劃分到各個節點上,每臺資料節點通過專用網路或者商業通用網路互相連接,彼此協同計算,作為整體提供 ......

    uj5u.com 2020-09-10 06:11:41 more
  • 滴滴資料倉庫指標體系建設實踐

    **桔妹導讀:**指標體系是什么?如何使用OSM模型和AARRR模型搭建指標體系?如何統一流程、規范化、工具化管理指標體系?本文會對建設的方法論結合滴滴資料指標體系建設實踐進行解答分析。 #1. 什么是指標體系 ##1.1 指標體系定義 指標體系是將零散單點的具有相互聯系的指標,系統化的組織起來,通 ......

    uj5u.com 2020-09-10 06:12:52 more
  • 單表千萬行資料庫 LIKE 搜索優化手記

    我們經常在資料庫中使用 LIKE 運算子來完成對資料的模糊搜索,LIKE 運算子用于在 WHERE 子句中搜索列中的指定模式。 如果需要查找客戶表中所有姓氏是“張”的資料,可以使用下面的 SQL 陳述句: SELECT * FROM Customer WHERE Name LIKE '張%' 如果需要 ......

    uj5u.com 2020-09-10 06:13:25 more
  • 滴滴Ceph分布式存盤系統優化之鎖優化

    **桔妹導讀:**Ceph是國際知名的開源分布式存盤系統,在工業界和學術界都有著重要的影響。Ceph的架構和演算法設計發表在國際系統領域頂級會議OSDI、SOSP、SC等上。Ceph社區得到Red Hat、SUSE、Intel等大公司的大力支持。Ceph是國際云計算領域應用最廣泛的開源分布式存盤系統, ......

    uj5u.com 2020-09-10 06:14:51 more
  • es~通過ElasticsearchTemplate進行聚合~嵌套聚合

    之前寫過《es~通過ElasticsearchTemplate進行聚合操作》的文章,這一次主要寫一個嵌套的聚合,例如先對sex集合,再對desc聚合,最后再對age求和,共三層嵌套。 Aggregations的部分特性類似于SQL語言中的group by,avg,sum等函式,Aggregation ......

    uj5u.com 2020-09-10 06:14:59 more
  • 爬蟲日志監控 -- Elastc Stack(ELK)部署

    傻瓜式部署,只需替換IP與用戶 導讀: 現ELK四大組件分別為:Elasticsearch(核心)、logstash(處理)、filebeat(采集)、kibana(可視化) 下載均在https://www.elastic.co/cn/downloads/下tar包,各組件版本最好一致,配合fdm會 ......

    uj5u.com 2020-09-10 06:15:05 more
最新发布
  • Spark的一些重要概念

    # Shuffle的深入理解 什么是Shuffle,本意為洗牌,在資料處理領域里面,意為將數打散。 問題:shuffle一定有網路傳輸嗎?有網路傳輸的一定是Shuffle嗎? ## Shuffle的概念 通過網路將資料傳輸到多臺機器,資料被打散,但是有網路傳輸,不一定就有shuffle,Shuffl ......

    uj5u.com 2023-07-06 09:12:15 more
  • 基于袋鼠云實時開發平臺開發 FlinkSQL 任務的實踐探索

    隨著業務的發展,[實時場景](https://www.dtstack.com/dtinsight/streamworks?src=https://www.cnblogs.com/DTinsight/p/szsm)在各個?業中變得越來越重要。?論是?融、電商還是物流,實時資料處理都成為了其中的關鍵環節。Flink 憑借其強?的[流處理特性](https://www.dts ......

    uj5u.com 2023-07-06 09:11:54 more
  • ORA-20000: Unable to set values for index xxx: does not exis

    使用expdp/impdp匯出匯入資料時,遇到ORA-2000錯誤,如下所示: Processing object type SCHEMA_EXPORT/TABLE/GRANT/OWNER_GRANT/OBJECT_GRANTProcessing object type SCHEMA_EXPORT/ ......

    uj5u.com 2023-07-05 09:04:50 more
  • “遠程客戶端操作hdfs創建檔案夾”,驗證環境是否配置成功,以及HDFS

    文章中包含我所遇到的錯誤,進行了HDFS錯誤整改,以及后面有操作創建“遠程客戶端操作hdfs創建檔案夾”,驗證環境是否配置成功的程序。 ......

    uj5u.com 2023-07-05 09:04:09 more
  • 數倉性能調優:大寬表關聯MERGE性能優化

    摘要:本文主要為大家講解在數倉性能調優程序中,關于大寬表關聯MERGE性能優化程序。 本文分享自華為云社區《GaussDB(DWS)性能調優:大寬表關聯MERGE性能優化》,作者:譡里個檔。 【業務背景】 如下MERGE陳述句執行耗時長達2034s MERGE INTO sdifin.hah_ae_l ......

    uj5u.com 2023-07-05 09:03:43 more
  • 數倉性能調優:大寬表關聯MERGE性能優化

    摘要:本文主要為大家講解在數倉性能調優程序中,關于大寬表關聯MERGE性能優化程序。 本文分享自華為云社區《GaussDB(DWS)性能調優:大寬表關聯MERGE性能優化》,作者:譡里個檔。 【業務背景】 如下MERGE陳述句執行耗時長達2034s MERGE INTO sdifin.hah_ae_l ......

    uj5u.com 2023-07-05 09:02:32 more
  • ORA-20000: Unable to set values for index xxx: does not exis

    使用expdp/impdp匯出匯入資料時,遇到ORA-2000錯誤,如下所示: Processing object type SCHEMA_EXPORT/TABLE/GRANT/OWNER_GRANT/OBJECT_GRANTProcessing object type SCHEMA_EXPORT/ ......

    uj5u.com 2023-07-05 09:02:08 more
  • “遠程客戶端操作hdfs創建檔案夾”,驗證環境是否配置成功,以及HDFS

    文章中包含我所遇到的錯誤,進行了HDFS錯誤整改,以及后面有操作創建“遠程客戶端操作hdfs創建檔案夾”,驗證環境是否配置成功的程序。 ......

    uj5u.com 2023-07-05 08:55:55 more
  • sql server 資料庫自動備份

    一丶打開客戶端: 物件資源管理器->管理->維護計劃(右鍵點擊)->維護計劃向導 二丶打開后點擊下一步, 填寫名稱與說明并更改備份計劃 三丶點下一步, 選擇維護任務 四丶點擊下一步, 選擇需要備份的資料庫, 和備份檔案路徑 五丶點擊下一步, 選擇報告檔案保存路徑 六丶點擊下一步, 查看維護計劃, 沒 ......

    uj5u.com 2023-07-04 09:24:50 more
  • Mysql基礎篇(四)之事務

    # 一. 事務簡介 **事務是一組操作的集合,它是一個不可分隔的作業單位,事務會把所有的操作作為一個整體一起向系統提交或撤銷操作請求,即這些操作要么同時成功,要么同時失敗。** **就比如:張三給李四轉賬1000塊錢,張三銀行賬戶的錢減少了1000,而李四銀行賬戶的錢要增加1000。這一組操作就必須 ......

    uj5u.com 2023-07-04 09:24:11 more