大資料學習路徑分享
第一階段linux+搜尋+hadoop體系
Linux基礎→shell程式設計→高併發架構→lucene,solr搜尋→hadoop體系→HDFS→mapreduce→hbase→zookeeper→hive→flume→sqoop→專案實戰一
第二階段機器學習
R語言→mahout→專案實戰二
第三階段storm流式計算
kafka→storm→redis→專案實戰三
第四階段spark記憶體計算
scala程式設計→spark core→spark sql→spark streaming→spark mllib→spark graphx→專案實戰四→python機器學習→spark python程式設計→專案實戰五→專案實戰六
第五階段雲端計算平臺
大資料學習群142973723
docker→kvm→openstack雲端計算→就業指導
第一階段:linux+搜尋+hadoop體系Linux大綱這章是基礎課程,幫大家進入大資料領域打好Linux基礎,以便更好地學習Hadoop,hbase,NoSQL,Spark,Storm,docker,kvm,openstack等眾多課程。因為企業中無一例外的是使用Linux來搭建或部署專案。1) Linux的介紹,Linux的安裝:VMware Workstation虛擬軟體安裝過程、CentOS虛擬機器安裝過程
-
瞭解機架伺服器,採用真實機架伺服器部署linux
-
Linux的常用命令:常用命令的介紹、常用命令的使用和練習
-
Linux系統程序管理基本原理及相關管理工具如ps、pkill、top、htop等的使用;
-
Linux啟動流程,執行級別詳解,chkconfig詳解
-
VI、VIM編輯器:VI、VIM編輯器的介紹、VI、VIM扥使用和常用快捷鍵
-
Linux使用者和組賬戶管理:使用者的管理、組管理
-
Linux磁碟管理,lvm邏輯卷,nfs詳解
-
Linux系統檔案許可權管理:檔案許可權介紹、檔案許可權的操作
-
Linux的RPM軟體包管理:RPM包的介紹、RPM安裝、解除安裝等操作
-
yum命令,yum源搭建
-
Linux網路:Linux網路的介紹、Linux網路的配置和維護
-
Shell程式設計:Shell的介紹、Shell指令碼的編寫
-
Linux上常見軟體的安裝:安裝JDK、安裝Tomcat、安裝mysql,web專案部署大型網站
高併發處理通過本章的學習大家將會了解大資料的源頭,資料從何而來,繼而更好的瞭解大資料。並且通過學習何果處理大型網站高併發問題反向更深入的學習了Linux,同時站在了更高的角度去觸探了架構。1) 第四層負載均衡
a) Lvs負載均衡
i. 負載演算法,NAT模式,直接路由模式(DR),隧道模式(TUN)
b) F5負載均衡器介紹
- 第七層負載均衡
a) Nginx b) Apache
-
Tomcat、jvm優化提高併發量
-
快取優化
a) Java快取框架
i. Oscache,ehcache
b) 快取資料庫
i. Redis,Memcached
-
Lvs+nginx+tomcat+redis|memcache構建二層負載均衡千萬併發處理
-
Haproxy
-
Fastdfs小檔案獨立儲存管理
-
Redis快取系統
a) Redis基本使用 b) Redis sentinel高可用 c) Redis好友推薦演算法Lucene課程在大資料裡面文字資料的搜尋是很重要的一塊,特別是裡面的分詞技術,是後面機器學習裡面文字挖掘的基石,我們需要深入學習java領域裡面的搜尋核心技術lucene,同時也可以瞭解到百度 google這樣的搜尋系統是怎麼架構實現的。1) Lucene介紹
- Lucene 倒排索引原理
-
建索引 IndexWriter
-
搜尋 IndexSearcher
-
Query
-
Sort和 過濾 (filter)
-
索引優化和高亮Solr課程接著前面lucene技術搜尋,如果把lucene技術比如為發動機,那solr就是一兩成型的汽車了。學習完solr可以幫助你在企業裡面快速的架構搜尋系統。首先Solr是基於Lucene做的,Lucene是一套資訊檢索工具包,但並不包含搜尋引擎系統,它包含了索引結構、讀寫索引工具、相關性工具、排序等功能,因此在使用Lucene時你仍需要關注搜尋引擎系統,例如資料獲取、解析、分詞等方面的東西。而Solr的目標是打造一款企業級的搜尋引擎系統,因此它更接近於我們認識到的搜尋引擎系統,它是一個搜尋引擎服務,通過各種API可以讓你的應用使用搜索服務,而不需要將搜尋邏輯耦合在應用中。而且Solr可以根據配置檔案定義資料解析的方式,更像是一個搜尋框架,它也支援主從、熱換庫等操作。還添加了飄紅、facet等搜尋引擎常見功能的支援。1) 什麼是solr
-
為什麼工程中要使用solr
-
Solr的原理
-
如何在tomcat中執行solr
-
如何利用solr進行索引與搜尋
-
solr的各種查詢
-
solr的Filter
-
solr的排序
-
solr的高亮
-
solr的某個域統計
-
solr的範圍統計
-
solrcloud叢集搭建
Hadoop
離線計算大綱一、初識hadoop 聽過大資料,必聽過hadoop,此部分帶領大家瞭解hadoop的用途,在大資料中的用途,以及快速搭建一個hadoop的實驗環境,在本過程中不僅將用到前面的Linux知識,而且會對hadoop的架構有深入的理解,併為你以後架構大資料專案打下堅實基礎。1) Hadoop生態環境介紹
-
Hadoop雲端計算中的位置和關係
-
國內外Hadoop應用案例介紹
-
Hadoop 概念、版本、歷史
-
Hadoop 核心組成介紹及hdfs、mapreduce 體系結構
-
Hadoop 的叢集結構
-
Hadoop 偽分佈的詳細安裝步驟
-
通過命令列和瀏覽器觀察hadoop
二、 HDFS體系結構和shell以及java操作詳細剖析HDFS,從知曉原理到開發網盤的專案讓大家打好學習大資料的基礎,大資料之於分散式,分散式學習從學習分散式檔案系統(HDFS)開始。1) HDFS底層工作原理
-
HDFS datanode,namenode詳解
-
Hdfs shell
-
Hdfs java api
三、 詳細講解MapreduceMapreduce可以說是任何一家大資料公司都會用到的計算框架,也是每個大資料工程師應該熟練掌握的,此處的學習除了老師詳細的講解理論外,會通過大量的案例讓大家徹底掌握。1) Mapreduce四個階段介紹
-
Writable
-
InputSplit和OutputSplit
-
Maptask
-
Shuffle:Sort,Partitioner,Group,Combiner
-
Reducer
四、 Mapreduce案例案例1) 二次排序
-
倒排序索引
-
最優路徑
-
電信資料探勘之-----移動軌跡預測分析(中國稜鏡計劃)
-
社交好友推薦演算法
-
網際網路精準廣告推送 演算法
-
阿里巴巴天池大資料競賽 《天貓推薦演算法》案例
-
Mapreduce實戰pagerank演算法
五、 Hadoop2.x叢集搭建前面帶領大家開發了大量的MapReduce程式,此部分將帶來大家讓開發的程式執行在分散式叢集中,並且執行在健壯高可用的叢集中。1) Hadoop2.x叢集結構體系介紹
-
Hadoop2.x叢集搭建
-
NameNode的高可用性(HA)
-
HDFS Federation
-
ResourceManager 的高可用性(HA)
-
Hadoop叢集常見問題和解決方法
-
Hadoop叢集管理分散式資料庫
Hbase大資料中使用Hbase的案例多的舉不勝舉,也可凸顯大家學習的必要性。即使工作多年的大資料工程師Hbase的優化也是需要好好學習的重點。1) HBase定義
-
HBase與RDBMS的對比
-
資料模型
-
系統架構
-
HBase上的MapReduce
-
表的設計
-
叢集的搭建過程講解
-
叢集的監控
-
叢集的管理
-
HBase Shell以及演示
-
Hbase 樹形表設計
-
Hbase 一對多 和 多對多 表設計
-
Hbase 微博 案例
-
Hbase 訂單案例
-
Hbase表級優化
-
Hbase 寫資料優化
-
Hbase 讀資料優化
資料倉庫HiveHive是使用sql進行計算的hadoop框架,工作中最常用到的部分,也是面試的重點,此部分大家將從方方面面來學習Hive的應用,任何細節都將給大家涉及到。1) 資料倉庫基礎知識
-
Hive定義
-
Hive體系結構簡介
-
Hive叢集
-
客戶端簡介
-
HiveQL定義
-
HiveQL與SQL的比較
-
資料型別
-
外部表和分割槽表
-
ddl與CLI客戶端演示
-
dml與CLI客戶端演示
-
select與CLI客戶端演示
-
Operators 和 functions與CLI客戶端演示
-
Hive server2 與jdbc
-
使用者自定義函式(UDF 和 UDAF)的開發與演示
-
Hive 優化
資料遷移工具Sqoopsqoop適用於關係型資料庫和HDFS分散式資料系統之間進行資料轉換,在企業中,是構建資料倉庫的一大工具。1) 介紹 和 配置Sqoop
-
Sqoop shell使用
-
Sqoop-import
a) DBMS-hdfs b) DBMS-hive c) DBMS-hbase
- Sqoop-exportFlume分散式
日誌框架Flume最早是Cloudera提供的日誌收集系統,目前是Apache下的一個孵化專案,Flume支援在日誌系統中定製各類資料傳送方,用於收集資料。大家學習完此節後不但可以掌握Flume的使用,而且可以進行對於Flume的開發。1) flume簡介-基礎知識
-
flume安裝與測試
-
flume部署方式
-
flume source相關配置及測試
-
flume sink相關配置及測試
-
flume selector 相關配置與案例分析
-
flume Sink Processors相關配置和案例分析
-
flume Interceptors相關配置和案例分析
-
flume AVRO Client開發
-
flume 和kafka 的整合
Zookeeper
開發Zookeeper在分散式叢集(Hadoop生態圈)中的地位越來越突出,對分散式應用的開發也提供了極大便利,這也是這裡我們帶領大家深入學習 Zookeeper的原因。本課程主要內容包括Zookeeper深入、客戶端開發(Java程式設計,案例開發)、日常運維、Web介面監控。大家這裡學好Zookeeper,對後面學習其他技術至關重要。1) Zookeeper java api開發
-
Zookeeper rmi高可用分散式叢集開發
-
Zookeeper redis高可用監控實現
-
Netty 非同步io通訊框架
-
Zookeeper實現netty分散式架構的高可用專案實戰某大型電商日誌分析和訂單管理在實戰中學習,技術點非常多,怎麼樣實際運用這些點是我們在自學過程中體驗不到的。電商日誌分析包括:pv、uv,跳出率,二跳率、廣告轉化率、搜尋引擎優化等,訂單模組有:產品推薦,商家排名,歷史訂單查詢,訂單報表統計等。專案技術架構體系:
a) Web專案和雲端計算專案的整合
b) Flume通過avro實時收集web專案中的日誌
c) 資料的ETL
d) Hive 批量 sql執行
e) Hive 自定義函式
f) Hive和hbase整合。
g) Hbase 資料支援 sql查詢分析
h) Mapreduce資料探勘
i) Hbase dao處理
j) Sqoop 在專案中的使用。
k) Mapreduce 定時呼叫和監控
第二階段:機器學習R語言
機器學習R本身是一款十分優秀的資料分析和資料視覺化軟體,同時作為第一代機器學習的工具,其中包括大量用於機器學習的新增包。此部分帶領大家學習R語言更是帶領大家進入機器學習的領域,機器學習演算法為主線的同時,通過案例學習將會讓大家對內容脈絡掌握的更加清晰。1) R語言介紹,基本函式,資料型別
-
線性迴歸
-
樸素貝葉斯聚類
-
決策樹分類
-
k均值聚類 a) 離群點檢測
-
關聯規則探索
-
神經網路Mahout
機器學習Mahout提供一些可擴充套件的機器學習領域經典演算法的實現,很多公司會使用Mahout方便快捷地建立智慧應用程式。Mahout包含許多實現,包括聚類、分類、推薦過濾、頻繁子項挖掘。Mahout通過使用 Apache Hadoop,可以有效地擴充套件到雲中。被業界奉為第二代機器學習工具。此部分過後大家不僅會學習到mahout的元件而且會有專案讓大家真正把它應用到工作中。1) 介紹為什麼使用它,它的前景
a) 簡單介紹Mahout b) 簡單介紹機器學習 c) 例項演示Mahout單機推薦程式
- 配置安裝(hadoop2.x版本的)編譯安裝步驟說明
a) 命令列中測試執行協同過濾概念
- 推薦
a) 講解基於使用者的協同過濾 b) 講解基於物品的協同過濾
- 分類
a) 分類概念 b) 分類的應用及Mahout分類優勢 c) 分類和聚類、推薦的區別 d) 分類工作原理
e) 分類中概念術語 f) 分類專案工作流 g) 如何定義預測變數 h) 線性分類器的介紹,及貝葉斯分類器
i) 決策樹分類器的介紹,及隨機森林分類器 j) 如何使用貝葉斯分類器和隨機森林分類器的程式碼展示
- 聚類
a) 聚類概念 b) 聚類步驟流程 c) 聚類中的距離測度 d) 講解K-means聚類 e) K-means聚類演算法展示
f) 聚類其他演算法 g) 介紹TF-IDF h) 歸一化 i) 微博聚類案例專案實戰微博營銷資料探勘專案使用資料來自微博平臺,專案目標通過機器學習所學知識挖掘目標客戶群體,找到代言人進行微博營銷廣告投放。專案技術架構體系:
a) 分散式平臺 Hadoop,MapReduce
b) 資料採集 Flume
c) 資料清洗 ETL
d) 資料庫 Hbase,Redis
e) 機器學習 Mahout
第三階段:storm流式計算redis快取
系統課程大綱1) redis特點、與其他資料庫的比較
-
如何安裝redis
-
如何使用命令列客戶端
-
redis的字串型別
-
redis的雜湊型別
-
redis的列表型別
-
redis的集合型別
-
如何使用java訪問redis【a.python訪問redis,scala訪問redis】
-
redis的事務(transaction)
-
redis的管道(pipeline)
-
redis持久化(AOF+RDB)
-
redis優化
-
redis的主從複製
-
redis的sentinel高可用
-
twemproxy,codis實戰
-
redis3.x叢集安裝配置
Kafka課程Kafka是當下流行的佇列,可以說是從資料採集到大資料計算承上啟下的重要環節,大家在此部分將會詳細學習它的架構,kafka在大家大資料的專案中幾乎都會涉及到。1) kafka是什麼
-
kafka體系結構
-
kafka配置詳解
-
kafka的安裝
-
kafka的儲存策略
-
kafka分割槽特點
-
kafka的釋出與訂閱
-
zookeeper協調管理
-
java程式設計操作kafka
-
scala程式設計操作kafka
-
flume 和kafka 的整合
-
Kafka 和storm 的整合
Storm
實時資料處理本部分學習過後,大家將全面掌握Storm內部機制和原理,通過大量專案實戰,讓大家擁有完整專案開發思路和架構設計,掌握從資料採集到實時計算到資料儲存再到前臺展示,所有工作一個人搞定!譬如可以一個人搞定淘寶雙11大螢幕專案!不光從專案的開發的層次去實現,並可以從架構的層次站在架構師的角度去完成一個專案。專案技術架構體系:
-
Storm的基本概念
-
Storm的應用場景
-
Storm和Hadoop的對比
-
Storm叢集的安裝的linux環境準備
-
zookeeper叢集搭建
-
Storm叢集搭建
-
Storm配置檔案配置項講解
-
叢集搭建常見問題解決
-
Storm常用元件和程式設計API:Topology、 Spout、Bolt
-
Storm分組策略(stream groupings)
-
使用Strom開發一個WordCount例子
-
Storm程式本地模式debug、Storm程式遠端debug
-
Storm事物處理
-
Storm訊息可靠性及容錯原理
-
Storm結合訊息佇列Kafka:訊息佇列基本概念(Producer、Consumer、Topic、Broker等)、訊息佇列Kafka使用場景、Storm結合Kafka程式設計API
-
Storm Trident概念
-
Trident state 原理
-
Trident開發例項
-
Storm DRPC(分散式遠端呼叫)介紹
-
Storm DRPC實戰講解
-
Storm和Hadoop 2.x的整合:Storm on Yarn
Storm開發實戰: Kafka+Storm+Hbase+redis專案實戰,以及多個案例專案實戰中國移動基站保障平臺一個市級移動公司,每天的產生海量話務資料(一線城市更高),通過大數實時分析,監控每個基站的掉話率,基站通話總數,基站掉話總數,基站告警,3g/4g上網流量實時監控。對以上維度進行實時分析以達到對基站工作情況的監控。專案技術架構體系:
Storm+hbase+kafka+flume+echarts
a) flume實時採集日誌
b) kafka緩衝佇列
c) storm實時處理
d) Hbase dao儲存處理結果
e) 前端Web實時展示報表
第四階段:spark記憶體計算Python課程Python語言的部分大家在學習後可以完全掌握Python的精髓,並通過這部分的學習給大家打好一個基礎,在其他計算框架中多語言的使用上都會涉及到Python這門流行的語言。同時課程裡會通過機器學習的案例讓大家學習Python的同時去更好的理解機器學習。1) 介紹Python以及特點
-
Python的安裝
-
Python基本操作(註釋、邏輯、字串使用等)
-
Python資料結構(元組、列表、字典)
-
使用Python進行批量重新命名小例子
-
Python常見內建函式
-
更多Python函式及使用常見技巧
-
異常
-
Python函式的引數講解
-
Python模組的匯入
-
Python中的類與繼承
-
網路爬蟲案例
-
資料庫連線,以及pip安裝模組
-
Mongodb基礎入門
-
講解如何連線mongodb
-
Python的機器學習案例
Scala課程在此部分內,將更注重scala的各種語言規則與簡單直接的應用,而不在於其是如何具體實現,通過學習本課程能具備初步的Scala語言實際程式設計能力。本部分課程也可以視為大家下面學習Spark課程的鋪墊,供大家掃盲熟悉Scala,提前進行熱身運動。1) scala直譯器、變數、常用資料型別等
-
scala的條件表示式、輸入輸出、迴圈等控制結構
-
scala的函式、預設引數、變長引數等
-
scala的陣列、變長陣列、多維陣列等
-
scala的對映、元組等操作
-
scala的類,包括bean屬性、輔助構造器、主構造器等
-
scala的物件、單例物件、伴生物件、擴充套件類、apply方法等
-
scala的包、引入、繼承等概念
-
scala的特質
-
scala的操作符
-
scala的高階函式
-
scala的集合
-
scala資料庫連線
Spark
大資料處理本部分內容全面涵蓋了Spark生態系統的概述及其程式設計模型,深入核心的研究,Spark on Yarn,Spark Streaming流式計算原理與實踐,Spark SQL,Spark的多語言程式設計以及SparkR的原理和執行。不僅面向專案開發人員,甚至對於研究Spark的學員,此部分都是非常有學習指引意義的課程。1) Spark介紹
-
Spark應用場景
-
Spark和Hadoop MR、Storm的比較和優勢
-
RDD
-
Transformation
-
Action
-
Spark計算PageRank
-
Lineage
-
Spark模型簡介
-
Spark快取策略和容錯處理
-
寬依賴與窄依賴
-
Spark配置講解
-
Spark叢集搭建
-
叢集搭建常見問題解決
-
Spark原理核心元件和常用RDD
-
資料本地性
-
任務排程
-
DAGScheduler
-
TaskScheduler
-
Spark原始碼解讀
-
效能調優
-
Spark和Hadoop2.x整合:Spark on Yarn原理
Spark Streaming
實時計算1) Spark Streaming:資料來源和DStream
-
無狀態transformation與有狀態transformation
-
Streaming Window的操作
-
sparksql 程式設計實戰
-
spark的多語言操作
-
spark最新版本的新特性
Spark MLlib
機器學習前面課程大家已經掌握第一代機器學習工具R,而後又學習了第二代機器學習工具Mahout,這裡大家將會學習第三代機器學習工具MLlib,大家不僅將會了解MLlib的元件及其呼叫,而且會通過Spark的專案深入瞭解MLlib的現實使用。通過此部分大家也可以看出課程不僅著眼於現在,更是著眼於大家的未來在行業中的發展。1) 介紹
a) Spark MLlib元件介紹 b) 基本資料型別
- 迴歸演算法
c) 廣義線性模型 d) 邏輯迴歸
- 分類演算法
e) 樸素貝葉斯 f) 決策樹 g) 隨機森林
-
第四章 推薦系統
-
第五章 聚類
h) Kmeans i) Sparse kmeans j) Kmeans++ k) Kmeans II
l) Streaming kmeans m) Gaussian Mixture ModelSparkt GraphX
圖計算a) 二分圖
b) 概述
c) 構造圖
d) 屬性圖
e) PageRank
專案實戰智慧城市大資料分析專案城市中每時每刻都會產生海量資料,應用資料探勘、機器學習和視覺化技術,分析出的資料可以改進城市規劃,緩解交通擁堵,抓捕罪犯。專案會使用真實的資料。涉及到所學知識如下:專案技術架構體系:
a) 實時流處理 Kafka,Spark Streaming
b) 分散式運算 Hadoop,Spark
c) 資料庫 Hbase,Redis
d) 機器學習 Spark Mllib
e) 前臺web展示資料 Struts2,echart
手機軟體推薦系統專案使用資料來自某網際網路平臺手機助手,專案目標通過機器學習所學知識挖掘平臺手機使用者喜好,給使用者準確推薦手機軟體,類似360手機助手、華為手機助手、百度手機助手推薦功能。專案技術架構體系:
a) 分散式平臺 Hadoop,Spark
b) 資料清洗 Hive
c) 資料分析 R RStudio
d) 推薦服務 Dubbox
e) 規則過濾 Drools
f) 機器學習 MLlib
網路流量異常檢測專案專案目標通過機器學習所學知識檢測出異常,包括檢測欺詐,網路攻擊,伺服器感測器故障燈(本專案使用者現在熱門的電商網站的流量分析檢測,比如京東,天貓,淘寶等)。專案功能應用於各大網際網路平臺中,各大網際網路平臺均需要網路安全予以重視和預防以及檢測。專案技術架構體系:
a) 資料儲存 Hadoop
b) 資料準備 Spark
c) 資料分析 R RStudio
d) 機器學習 MLlib
e) 資料評價及調參
第五階段:雲端計算平臺
Docker 課程Docker 是一個開源的應用容器引擎,讓開發者可以打包他們的應用以及依賴包到一個可移植的容器中,然後釋出到任何流行的 Linux 機器上,也可以實現虛擬化。容器是完全使用沙箱機制,相互之間不會有任何介面(類似 iPhone 的 app)。幾乎沒有效能開銷,可以很容易地在機器和資料中心中執行。最重要的是,他們不依賴於任何語言、框架包括系統。1) 基本介紹
-
vm docker 對比
-
docker基本架構介紹
-
unfs cgroup namespace
-
程序虛擬化 輕量級虛擬化
-
docker 安裝
-
docker 映象製作
-
docker 常用命令
-
docker 映象遷移
-
docker pipework【i.openvswitch】
-
docker weave
虛擬化KVM雲端計算算平臺,比如openstack,cloudstack 底層採用的技術都是虛擬化方案,現在以kvm市場佔有率最高,我們要深入的去學習這些原生的虛擬化,才能深入瞭解和架構openstack這樣的雲端計算的平臺,也才更有能力去開發自己的雲端計算平臺。1) 虛擬化介紹,虛擬化適用場景等等
-
Qemu Libvirt & KVM
-
安裝KVM, Qemu, Libvirt
-
QEMU-KVM: 安裝第一個能上網的虛擬機器
-
Kvm虛擬機器 nat,網橋基本原理
-
kvm虛擬機器克隆
-
kvm虛擬機器vnc配置
-
kvm虛擬機器擴充套件磁碟空間
-
Kvm快照
-
Kvm 遷移
-
Java,python,c語言程式設計控制kvm
-
構建自己的虛擬雲平臺
雲平臺OpenStack在實戰中學習,課程絕不紙上談兵,通過搭建和除錯一個真實的openstack平臺,深入淺出, 詳細講解openstack的各個組成模組:keystone, glance, nova, cinder, neutron, horizen。課程中遇到的各種實際問題,不僅演示瞭如何解決,更是要教會大家學會去找到解決問題的方法。難點問題全面講解。在雲端計算的各種技術當中,網路部分是最難,也是最複雜多樣的。課程中針對虛擬網路進行了詳細的講解,包括基本原理,以及實際環境搭建,問題的跟蹤和解決。講師擁有豐富的移動集團工作經驗,負責雲平臺的各方面工作,講課內容完全貼近企業需求,絕不紙上談兵。1) openstack介紹和模組基本原理分析
-
openstack多節點安裝部署【a.採用centos6.x系統】
-
Keystone基本原理
-
glance
-
Cinder
-
Swift
-
Neutron
-
Openstack api 二次開發
大資料學習群142973723