主頁 > 資料庫 > 大資料在車聯網行業的實踐與應用

大資料在車聯網行業的實踐與應用

2022-05-04 06:57:51 資料庫

file


導讀:聯友科技是一家旨在提供在汽車行業全價值鏈解決方案的科技公司,公司以數字化、智能零部件以及智能網聯為三大核心業務領域,涵蓋研發/制造/營銷等領域的資訊化產品、系統運行維護服務、云服務、大資料分析服務、智能網聯及數字化運營服務、車載智能部件及汽車設計等業務,本次分享會圍繞以下四點展開:

  • 車聯網平臺
  • 資料存盤
  • 資料接入
  • 資料應用

--

01 車聯網平臺

file

聯友科技車聯網整體架構由下往上分為四層,分別是云服務、車輛連接服務平臺、應用服務平臺以及終端服務,目前平臺架構支持多品牌、多車系、多協議鏈接,具備高可用、安全合規,支持千萬級車輛接入以及百萬級并發,

  • 云服務:支持私有云、混合云部署,支持同城雙活和異地多活
  • 車輛連接管理服務平臺:負責車輛連接,包括終端網關(接入協議、資料源可配置)、網路通訊框架、資料存盤以及處理中心
  • 應用平臺:提供統一的能力開放,包括核心框架能力、服務管理、API管理、用戶管理等,在對外能力上包括內部系統能力整合、提供與車輛相關資料服務與業務服務
  • 終端服務:提供個性化的服務以及資料埋點,支持到多終端、多協議應用設備的接入

在后續的部分我們主要針對車聯網資料流在車聯網平臺架構中的實作展開介紹,承載這部分能力的模塊叫做 BDP,

1. 車聯網平臺整體架構

file

架構由左往右在大概可以分為三個階段:資料接入、資料存盤、資料開放,

由車機和智能設備采集到資料會經過資料接入模塊歸集到資料訊息佇列,并最終落入到資料存盤層(實時數倉+離線數倉),資料在數倉中經過清洗之后,會形成規范化的主題資料,這類資料我們會統一放到資料集市層,為了滿足到下游的資料獲取和傳統的資料可視化的需求,我們提供了統一開放的資料消費方式(JDBC/ODBC),支持下游BI需求,同時,對于資料集市中的資料,我們提供資料服務將資料按照資料主題封裝,并通過服務網關向外提供資料查詢的能力,為APP、H5、官網/官微、運營平臺等提供規范的資料,

--

02 資料接入

file

  1. 資料源
  • 車輛終端:通過TCU上報資料到設備網關,原始上報的資料經過資料決議服務完成資料的解碼,然后將語意化的訊息推送到資料接入層的訊息佇列中,

  • 設備終端:通過資料采集SDK將智能終端產生的資料上報到服務網關,同樣在資料決議服務模塊完成資料決議,并注入到資料接入層的訊息佇列中,

當前資料平臺接入的資料源具有多品牌、多渠道、多型別等特點,也正因為資料源的多樣性,我們在資料接入上分渠道,在資料清洗時統一單位和精度,在資料存盤上分庫&分表,以便于向下游提供同一規范的資料,

file

2. 資料接入架構演進(配置化資料接入)

長期的業務程序證明,不同的“廠商”、不同的“車型”對資料采集項的要求是不一樣的,以前的做法是采用統一的資料采集協議,這就引入了一個問題,不同的車型對于資料采集項是不一樣的,例如我們采集欄位的列舉有3000個,但是某一個車型的資料欄位只有2000個,而“統一資料采集協議”要求所有回傳的資料都具有同樣的結構,這就要求上傳車型需要冗余其中1000個不屬于自己的欄位,并且全部置空,這會導致資料傳輸程序中存在大量的冗余資訊,但是我們希望車輛只回傳自己需要回傳的欄位,那么如何解決這類問題呢?我們后續的演進方向是支持“配置化資料接入”,具體的示意圖如下:

file

在“配置化資料接入”中會有一個配置化管理portal,在界面上用戶可以配置資料字典,配置生效的資料采集協議會在欄位注冊服務中完成欄位注冊,并將資料采集協議下發到終端TCU,同時會將已經配置好的資料采集協議映射成后臺資料庫的資料結構,并走“結構同步服務”將最新的資料采集協議同步到資料庫中,當終端接收到新的資料協議之后,就會按照新的資料協議上報帶協議版本的資料到資料接入服務,并推送到云端的kafka中,云端資料決議服務會從kafka中消費訊息,然后根據“資料字典”中注冊的資料協議完成資料的動態決議,再根據資料結構執行資料動態入庫(表格schema已經被“結構同步服務”變更),

--

03 資料存盤

file

當前所有接入的資料在經過資料接入流程之后,會統一寫到貼源層的kafka集群,當前我們的數倉層分為兩塊:實時數倉、離線數倉,

  • 實時數倉我們采用的是kafka+redis的組合
  • 離線數倉我們采用的還是傳統的Hive+HDFS的方案

經過數倉清洗之后的資料會分主題推送到資料集市中,我們面向不同的應用場景選用了不同的解決方案:

  • Doris:基于埋點資料分析用戶的運營活動,例如流程分析,漏斗分析等
  • Kyligence:支持資料的多維分析(MOLAP),面向固定報表分析
  • Clickhouse:支持資料自定義分析,體現資料分析的靈活性
  • Elasticsearch:分資料視圖,支持資料檢索

1. 實時數倉

file

除了之前提到的車機資料接入以及埋點資料接入以外,我們數倉的資料源還包括車企內部系統的資料,針對這類資料,我們采用了CDC的方式從資料源(MySQL或者Oracle)中捕獲資料,并寫入到貼源層的kafka中,Kafka中的資料會被下游的Flink Job消費,并做資料的輕度匯總,然后寫入到DW(kafka)中,下游支持實時指標計算的 Flink job 會從資料DW中拉取資料完成指標計算,并按照下游需求,將計算結果推送DM層,在實時數倉的最上層是基于Flink SQL構建的可視化實時指標開發平臺,用戶可以通過寫SQL的方式,完成實時指標開發,所有DM層的指標資料會通過資料服務API的方式供下游的資料應用查詢,

2. 離線數倉

file

可以看到,離線數倉與實時數倉的資料源是相同的,都包括車機資料埋點、設備接入埋點以及外部系統資料,埋點資料統一接入kafka,然后寫入ODS(Hive),而在外部系統資料同步上存在差異,離線數倉在同步外部系統資料時采用的是sqoop,資料統一入倉之后會做輕度的資料匯總,并寫入到DW層(Hive),下游的DM層會對資料按照主題做分塊(cube)與分片(slice),應對穩定的BI需求(Kyligence),在資料可視化層,采用的是Tableau,支持到MOLAP場景的需求,內部的各種資料ETL任務會統一在底層的調度層(Azkaban)來做編排與調度,

在資料集市層,我們主要面臨兩類需求:固定報表分析與實時多維報表分析,

  • 固定報表分析 – Kyligence

file

應對MOLAP場景時,Kyligence使用的是典型的空間換時間的方式支持到高性能的OLAP計算(預計算),除此之外,還能夠做到自動建模與查詢下壓,其中我們選擇Kyligence的一個很大的原因是由于其提供了與Tableau深度融合的能力,目前我們的客戶在資料可視化方案上采用的是Tableau,Kyligence提供的TDS很好地支持到我們將資料集市中的資料對接到Tableau,而不需要再走定時資料同步,提升了資料性能,

  • 實時報表分析 – Doris

file

當前我們的埋點資料主要是用戶行為資料,這類資料會統一在用戶運營平臺完成用戶行為的分析(熱點事件,漏斗分析),這個程序會涉及到輕量級的join分析,Doris就非常適合這類場景,

--

04 資料應用

1. 用戶運營 – 離線

file

我們APP、車機、官網/官微的資料會通過服務網關的方式采集到大資料平臺,經過資料輕度匯聚之后,將用戶特征與我們標簽體系中的標簽特征做匹配,并打上相應的標簽,用戶運營人員會做大量的用戶群體分類篩選,這些資訊會支持我們對特定的用戶做客戶關懷、保養提醒、優惠促銷、廣告投放等服務,

2. 智能推薦 – 實時

file

根據上圖所示,智能推薦核心業務程序包括場景識別、內容匹配、場景仲裁,我們在支持智能推薦應用上主要有如下幾個資料流程:

  • 車機資料上報:車機上報的狀態資料經過報文決議為格式化的資料之后,會推送到BDP的資料接入層,這類資料在訊息佇列之后會做資料的分流:一條鏈路是資料落盤歸檔,作為最穩定的原始資料,支撐上游的分析與業務應用;另外一條鏈路會支持到實時業務場景應用,
  • 埋點資料回傳:用戶終端在接收到這類推送之后會有自己的反饋,這類資料會以埋點資料的形式再回傳到大資料平臺
  • 第三方資料:我們會與第三方廠商做一些合作,拉取物料資料到我們的大資料平臺,豐富我們的資料基礎,

基于以上三類資料源,在打上初步的標簽(物料標簽或者用戶標簽)之后會支持我們構建如下三個核心能力:

  • 場景庫

將海量的用戶基礎資料與標簽資料經過閾值模型對用戶以及用戶行為進行分類后的結果豐富場景資料庫,下游的場景識別API可以基于場景庫與閾值模型做出場景識別,例如我們可以基于用戶真實加油習慣做加油時機的推薦,

  • 內容庫

內容庫與場景庫建設類似,進入系統的用戶標簽資料與物料標簽資料輸入到推薦模型之后,會生成推薦串列,再通過內容匹配API開放給實時業務流程的內容匹配模塊,

  • 場景仲裁

在資料流經仲裁模塊之后,場景仲裁模型會根據用戶配置的場景優先級進行場景評分,評分之后的場景會也通過場景仲裁API開放給實時業務模塊,

由以上業務程序與資料流程可知,我們的資料流程是在不斷運轉迭代的,智能推薦業務在上線之后,會產生源源不斷的用戶反饋資料,這些反饋資料會回流到我們的資料系統中,幫助我們提升推薦的準確度,例如基于提取到的車輛位置資訊,我們能了解到車輛軌跡資訊在空間上的分布,這類資訊可以支撐我們做一些加油站與充電樁的選址與建設,再例如我們可以基于收集到的用戶駕駛行為資料(急加速,急轉彎等)對用戶進行分類,并基于類別資訊作合適的維保推薦,在智能推薦中還有一個比較成功的場景是我們基于用戶的駕駛行為資料構建了用戶畫像與駕駛行為知識圖譜,基于知識圖譜搭建了一個智能客服,當前用戶90%的問題夠可以通過我們的智能客服來解決,很大程度上節約了我們的人力成本,

--

05 資料應用

問:剛才老師有提到我們有采集車輛的位置資料,那我們的資料合規與資料安全問題是怎么解決的呢?

答:資料安全與資料合規是我們在做資料采集時必須要考慮的,首先,用戶在購買搭載我們車聯網方案的車之后,在開始使用我們提供的服務之前,我們會讓用戶瀏覽我們的資料采集協議,在征得用戶同意之后,我們才會做協議范圍內的用戶資訊采集,其次,我們采集到的用戶隱私資料(例如位置資訊)只會在我們的資料中心存盤七天,七天之前的資料我們會做清理與銷毀,最后,我們基于用戶位置資訊加工產生的隱私資料(例如公司地點、居住地點等)在滿足資料合規要求的前提下進行持久化,這類資料我們目前持有的時間周期是30天,超出資料持有周期的資料我們同樣會做清理與銷毀,


今天的分享就到這里,謝謝大家,

本文首發于微信公眾號DataFunTalk”,歡迎轉載分享,轉載請留言或評論,

轉載請註明出處,本文鏈接:https://www.uj5u.com/shujuku/469622.html

標籤:大數據

上一篇:ClickHouse 對付單表上億條記錄分組查詢秒出, OLAP應用秒殺其他資料庫

下一篇:Centos安裝mysql57

標籤雲
其他(157675) Python(38076) JavaScript(25376) Java(17977) C(15215) 區塊鏈(8255) C#(7972) AI(7469) 爪哇(7425) MySQL(7132) html(6777) 基礎類(6313) sql(6102) 熊猫(6058) PHP(5869) 数组(5741) R(5409) Linux(5327) 反应(5209) 腳本語言(PerlPython)(5129) 非技術區(4971) Android(4554) 数据框(4311) css(4259) 节点.js(4032) C語言(3288) json(3245) 列表(3129) 扑(3119) C++語言(3117) 安卓(2998) 打字稿(2995) VBA(2789) Java相關(2746) 疑難問題(2699) 细绳(2522) 單片機工控(2479) iOS(2429) ASP.NET(2402) MongoDB(2323) 麻木的(2285) 正则表达式(2254) 字典(2211) 循环(2198) 迅速(2185) 擅长(2169) 镖(2155) 功能(1967) .NET技术(1958) Web開發(1951) python-3.x(1918) HtmlCss(1915) 弹簧靴(1913) C++(1909) xml(1889) PostgreSQL(1872) .NETCore(1853) 谷歌表格(1846) Unity3D(1843) for循环(1842)

熱門瀏覽
  • GPU虛擬機創建時間深度優化

    **?桔妹導讀:**GPU虛擬機實體創建速度慢是公有云面臨的普遍問題,由于通常情況下創建虛擬機屬于低頻操作而未引起業界的重視,實際生產中還是存在對GPU實體創建時間有苛刻要求的業務場景。本文將介紹滴滴云在解決該問題時的思路、方法、并展示最終的優化成果。 從公有云服務商那里購買過虛擬主機的資深用戶,一 ......

    uj5u.com 2020-09-10 06:09:13 more
  • 可編程網卡芯片在滴滴云網路的應用實踐

    **?桔妹導讀:**隨著云規模不斷擴大以及業務層面對延遲、帶寬的要求越來越高,采用DPDK 加速網路報文處理的方式在橫向縱向擴展都出現了局限性。可編程芯片成為業界熱點。本文主要講述了可編程網卡芯片在滴滴云網路中的應用實踐,遇到的問題、帶來的收益以及開源社區貢獻。 #1. 資料中心面臨的問題 隨著滴滴 ......

    uj5u.com 2020-09-10 06:10:21 more
  • 滴滴資料通道服務演進之路

    **?桔妹導讀:**滴滴資料通道引擎承載著全公司的資料同步,為下游實時和離線場景提供了必不可少的源資料。隨著任務量的不斷增加,資料通道的整體架構也隨之發生改變。本文介紹了滴滴資料通道的發展歷程,遇到的問題以及今后的規劃。 #1. 背景 資料,對于任何一家互聯網公司來說都是非常重要的資產,公司的大資料 ......

    uj5u.com 2020-09-10 06:11:05 more
  • 滴滴AI Labs斬獲國際機器翻譯大賽中譯英方向世界第三

    **桔妹導讀:**深耕人工智能領域,致力于探索AI讓出行更美好的滴滴AI Labs再次斬獲國際大獎,這次獲獎的專案是什么呢?一起來看看詳細報道吧! 近日,由國際計算語言學協會ACL(The Association for Computational Linguistics)舉辦的世界最具影響力的機器 ......

    uj5u.com 2020-09-10 06:11:29 more
  • MPP (Massively Parallel Processing)大規模并行處理

    1、什么是mpp? MPP (Massively Parallel Processing),即大規模并行處理,在資料庫非共享集群中,每個節點都有獨立的磁盤存盤系統和記憶體系統,業務資料根據資料庫模型和應用特點劃分到各個節點上,每臺資料節點通過專用網路或者商業通用網路互相連接,彼此協同計算,作為整體提供 ......

    uj5u.com 2020-09-10 06:11:41 more
  • 滴滴資料倉庫指標體系建設實踐

    **桔妹導讀:**指標體系是什么?如何使用OSM模型和AARRR模型搭建指標體系?如何統一流程、規范化、工具化管理指標體系?本文會對建設的方法論結合滴滴資料指標體系建設實踐進行解答分析。 #1. 什么是指標體系 ##1.1 指標體系定義 指標體系是將零散單點的具有相互聯系的指標,系統化的組織起來,通 ......

    uj5u.com 2020-09-10 06:12:52 more
  • 單表千萬行資料庫 LIKE 搜索優化手記

    我們經常在資料庫中使用 LIKE 運算子來完成對資料的模糊搜索,LIKE 運算子用于在 WHERE 子句中搜索列中的指定模式。 如果需要查找客戶表中所有姓氏是“張”的資料,可以使用下面的 SQL 陳述句: SELECT * FROM Customer WHERE Name LIKE '張%' 如果需要 ......

    uj5u.com 2020-09-10 06:13:25 more
  • 滴滴Ceph分布式存盤系統優化之鎖優化

    **桔妹導讀:**Ceph是國際知名的開源分布式存盤系統,在工業界和學術界都有著重要的影響。Ceph的架構和演算法設計發表在國際系統領域頂級會議OSDI、SOSP、SC等上。Ceph社區得到Red Hat、SUSE、Intel等大公司的大力支持。Ceph是國際云計算領域應用最廣泛的開源分布式存盤系統, ......

    uj5u.com 2020-09-10 06:14:51 more
  • es~通過ElasticsearchTemplate進行聚合~嵌套聚合

    之前寫過《es~通過ElasticsearchTemplate進行聚合操作》的文章,這一次主要寫一個嵌套的聚合,例如先對sex集合,再對desc聚合,最后再對age求和,共三層嵌套。 Aggregations的部分特性類似于SQL語言中的group by,avg,sum等函式,Aggregation ......

    uj5u.com 2020-09-10 06:14:59 more
  • 爬蟲日志監控 -- Elastc Stack(ELK)部署

    傻瓜式部署,只需替換IP與用戶 導讀: 現ELK四大組件分別為:Elasticsearch(核心)、logstash(處理)、filebeat(采集)、kibana(可視化) 下載均在https://www.elastic.co/cn/downloads/下tar包,各組件版本最好一致,配合fdm會 ......

    uj5u.com 2020-09-10 06:15:05 more
最新发布
  • day02-2-商鋪查詢快取

    功能02-商鋪查詢快取 3.商鋪詳情快取查詢 3.1什么是快取? 快取就是資料交換的緩沖區(稱作Cache),是存盤資料的臨時地方,一般讀寫性能較高。 快取的作用: 降低后端負載 提高讀寫效率,降低回應時間 快取的成本: 資料一致性成本 代碼維護成本 運維成本 3.2需求說明 如下,當我們點擊商店詳 ......

    uj5u.com 2023-04-20 08:33:24 more
  • MySQL中binlog備份腳本分享

    關于MySQL的二進制日志(binlog),我們都知道二進制日志(binlog)非常重要,尤其當你需要point to point災難恢復的時侯,所以我們要對其進行備份。關于二進制日志(binlog)的備份,可以基于flush logs方式先切換binlog,然后拷貝&壓縮到到遠程服務器或本地服務器 ......

    uj5u.com 2023-04-20 08:28:06 more
  • day02-短信登錄

    功能實作02 2.功能01-短信登錄 2.1基于Session實作登錄 2.1.1思路分析 2.1.2代碼實作 2.1.2.1發送短信驗證碼 發送短信驗證碼: 發送驗證碼的介面為:http://127.0.0.1:8080/api/user/code?phone=xxxxx<手機號> 請求方式:PO ......

    uj5u.com 2023-04-20 08:27:27 more
  • 快取與資料庫雙寫一致性幾種策略分析

    本文將對幾種快取與資料庫保證資料一致性的使用方式進行分析。為保證高并發性能,以下分析場景不考慮執行的原子性及加鎖等強一致性要求的場景,僅追求最終一致性。 ......

    uj5u.com 2023-04-20 08:26:48 more
  • sql陳述句優化

    問題查找及措施 問題查找 需要找到具體的代碼,對其進行一對一優化,而非一直把關注點放在服務器和sql平臺 降低簡化每個事務中處理的問題,盡量不要讓一個事務拖太長的時間 例如檔案上傳時,應將檔案上傳這一步放在事務外面 微軟建議 4.啟動sql定時執行計劃 怎么啟動sqlserver代理服務-百度經驗 ......

    uj5u.com 2023-04-20 08:26:35 more
  • 云時代,MySQL到ClickHouse資料同步產品對比推薦

    ClickHouse 在執行分析查詢時的速度優勢很好的彌補了MySQL的不足,但是對于很多開發者和DBA來說,如何將MySQL穩定、高效、簡單的同步到 ClickHouse 卻很困難。本文對比了 NineData、MaterializeMySQL(ClickHouse自帶)、Bifrost 三款產品... ......

    uj5u.com 2023-04-20 08:26:29 more
  • sql陳述句優化

    問題查找及措施 問題查找 需要找到具體的代碼,對其進行一對一優化,而非一直把關注點放在服務器和sql平臺 降低簡化每個事務中處理的問題,盡量不要讓一個事務拖太長的時間 例如檔案上傳時,應將檔案上傳這一步放在事務外面 微軟建議 4.啟動sql定時執行計劃 怎么啟動sqlserver代理服務-百度經驗 ......

    uj5u.com 2023-04-20 08:25:13 more
  • Redis 報”OutOfDirectMemoryError“(堆外記憶體溢位)

    Redis 報錯“OutOfDirectMemoryError(堆外記憶體溢位) ”問題如下: 一、報錯資訊: 使用 Redis 的業務介面 ,產生 OutOfDirectMemoryError(堆外記憶體溢位),如圖: 格式化后的報錯資訊: { "timestamp": "2023-04-17 22: ......

    uj5u.com 2023-04-20 08:24:54 more
  • day02-2-商鋪查詢快取

    功能02-商鋪查詢快取 3.商鋪詳情快取查詢 3.1什么是快取? 快取就是資料交換的緩沖區(稱作Cache),是存盤資料的臨時地方,一般讀寫性能較高。 快取的作用: 降低后端負載 提高讀寫效率,降低回應時間 快取的成本: 資料一致性成本 代碼維護成本 運維成本 3.2需求說明 如下,當我們點擊商店詳 ......

    uj5u.com 2023-04-20 08:24:03 more
  • day02-短信登錄

    功能實作02 2.功能01-短信登錄 2.1基于Session實作登錄 2.1.1思路分析 2.1.2代碼實作 2.1.2.1發送短信驗證碼 發送短信驗證碼: 發送驗證碼的介面為:http://127.0.0.1:8080/api/user/code?phone=xxxxx<手機號> 請求方式:PO ......

    uj5u.com 2023-04-20 08:23:11 more