1. 程式人生 > >cdh整合kafka,spark2

cdh整合kafka,spark2

參考文章:

http://blog.cloudera.com/blog/2016/09/apache-spark-2-0-beta-now-available-for-cdh/

https://www.cloudera.com/documentation/spark2/latest/topics/spark2_installing.html

在CDH官網中關於Kafka的安裝和升級中已經說到,在CDH中,Kafka作為一個分散式的parcel,單獨出來作為parcel分發安裝包。只要我們把分離開的kafka的服務描述jar包和服務parcel包下載了,就可以實現完美集成了。

注意整合之前請閱讀官方文件,特別是版本支援方面。


整合過程,直接上圖:

Kafka安裝包準備:

我們這裡centos6.7 x64的系統,注意下載對應的parcel包,如下圖所示


在此得注意hash值的匹配

CDH整合Kafka實現:

1、將原來Kafka的在CDH中刪除

2、csd包放到cm安裝節點下的 /opt/cloudera/csd目錄下,如圖 :


3、將parcel包放到cm安裝節點下的/opt/cloudera/parcel-repo目錄下,如圖:


4、啟動cm服務,檢查更新parcel,分配並激活percel包,注意此處一定要啟用才能使用

 

5、新增kafka服務和配置角色節點


6、啟動服務

安裝完成後需要在spark2的配置裡面指定kafka版本。