StreamSets學習系列之StreamSets的Core Tarball方式安裝(圖文詳解)
不多說,直接上幹貨!
前期博客
核心安裝包(Core Tarball)
該安裝包包含核心的SDC軟件,使該軟件具有最小的軟件連接器集合,當然你可以手動下載額外的節點(Stage)
① 通過Streamsets的UI進行安裝,UI上點擊的位置為:在該軟件界面的右邊(圖標是一個禮物盒子。。。)。
② 也可以通過使用CLI進行安裝,安裝過程如下所示:
第一步、下載該【核心安裝包】,比如版本為:streamsets-datacollector-core-3.3.0.tgz
第二步、解壓該安裝包
[hadoop@master app]$ tar -zxvf streamsets-datacollector-core-3.3.0.tgz
[hadoop@master streamsets-datacollector-3.3.0]$ ./bin/streamsets dc Java1.8 detected; adding $SDC_JAVA8_OPTS of "-XX:+UseConcMarkSweepGC -XX:+UseParNewGC -Djdk.nio.maxCachedBufferSize=262144" to $SDC_JAVA_OPTS Configuration of maximum open file limit is too low: 1024 (expected at least 32768). Please consult https://goo.gl/LgvGFl [hadoop@master streamsets-datacollector-3.3.0]$
註:在這個啟動的過程中會出現啟動報錯的情況,錯誤提示是:最大的文件數為1024,而streamsets需要更大的文件數,因此就要必要的設置一下環境了。
設置方式有兩種:
(1)修改配置文件,然後重啟centos永久生效,
(2)通過一個命令進行生效:
ulimit -n 65535 Browse to http://<system-ip>:18630/ The default username and password are “admin” and “admin”.
[hadoop@master streamsets-datacollector-3.3.0]$ pwd /home/hadoop/app/streamsets-datacollector-3.3.0 [hadoop@master streamsets-datacollector-3.3.0]$ ./bin/streamsets dc Java 1.8 detected; adding $SDC_JAVA8_OPTS of "-XX:+UseConcMarkSweepGC -XX:+UseParNewGC -Djdk.nio.maxCachedBufferSize=262144" to $SDC_JAVA_OPTS Logging initialized @6514ms to org.eclipse.jetty.util.log.Slf4jLog Running on URI : ‘http://master:18630‘
通過這種方式:你就可以看到正真的streamsets真面目了。。。。後面我們看看他真面目裏面的一些細節。。。。這個工具主要進行數據移動及數據清洗有很大的幫助。
或者
[hadoop@master streamsets-datacollector-3.3.0]$ pwd /home/hadoop/app/streamsets-datacollector-3.3.0 [hadoop@master streamsets-datacollector-3.3.0]$ nohup /home/hadoop/app/streamsets-datacollector-3.3.0/bin/streamsets dc & [1] 2881 [hadoop@master streamsets-da
也許,你在啟動過程中,會出現
StreamSets學習系列之啟動StreamSets時出現Caused by: java.security.AccessControlException: access denied ("java.util.PropertyPermission" "test.to.ensure.security.is.configured.correctly" "read")錯誤的解決辦法
安裝成功的後續步驟(建議去做):
1、添加sdc用戶的進程操作文件描述符的並行度
[root@master streamsets-datacollector-3.3.0]# vim /etc/security/limits.conf
sdc soft nofile 32768 sdc hard nofile 32768
2、vim /etc/profile
[root@master streamsets-datacollector-3.3.0]# vim /etc/profile
[root@master streamsets-datacollector-3.3.0]# source /etc/profile
3、創建文件目錄,用於放日誌信息
[root@master data]# su hadoop [hadoop@master data]$ pwd /data [hadoop@master data]$ cd /home/hadoop/app/streamsets-datacollector-3.3.0/ [hadoop@master streamsets-datacollector-3.3.0]$ pw bash: pw: command not found [hadoop@master streamsets-datacollector-3.3.0]$ pwd /home/hadoop/app/streamsets-datacollector-3.3.0 [hadoop@master streamsets-datacollector-3.3.0]$ [hadoop@master streamsets-datacollector-3.3.0]$ pwd /home/hadoop/app/streamsets-datacollector-3.3.0 [hadoop@master streamsets-datacollector-3.3.0]$ cd /data/ [hadoop@master data]$ pwd /data [hadoop@master data]$ ll total 4 drwxr-xr-x 3 hadoop hadoop 4096 Jul 27 2017 kafka-log [hadoop@master data]$ mkdir -p /data/streamsets/sdc-stand-alone [hadoop@master data]$ mkdir -p /data/streamsets/sdc-stand-alone-dirs/ [hadoop@master data]$ mkdir -p /data/streamsets/sdc-stand-alone-dirs/configuration [hadoop@master data]$ mkdir -p /data/streamsets/sdc-stand-alone-dirs/data [hadoop@master data]$ mkdir -p /data/streamsets/sdc-stand-alone-dirs/log [hadoop@master data]$ mkdir -p /data/streamsets/sdc-stand-alone-dirs/resource [hadoop@master data]$
修改配置文件
# directory where the data collector will store pipelines and their runtime information # #export SDC_DATA=/var/lib/sdc # directory where the data collector write its logs # #export SDC_LOG=/var/log/sdc # directory where the data collector will read its configuration # #export SDC_CONF=/etc/sdc # directory where the data collector will read pipeline resource files from # #export SDC_RESOURCES=/var/lib/sdc-resources
改為
# directory where the data collector will store pipelines and their runtime information # export SDC_DATA=/data/streamsets/sdc-stand-alone-dirs/data # directory where the data collector write its logs # export SDC_LOG=/data/streamsets/sdc-stand-alone-dirs/log # directory where the data collector will read its configuration # export SDC_CONF=/data/streamsets/sdc-stand-alone-dirs/configuration # directory where the data collector will read pipeline resource files from # export SDC_RESOURCES=/data/streamsets/sdc-stand-alone-dirs/resource
歡迎大家,加入我的微信公眾號:大數據躺過的坑 人工智能躺過的坑
同時,大家可以關註我的個人博客:
http://www.cnblogs.com/zlslch/ 和 http://www.cnblogs.com/lchzls/ http://www.cnblogs.com/sunnyDream/
詳情請見:http://www.cnblogs.com/zlslch/p/7473861.html
人生苦短,我願分享。本公眾號將秉持活到老學到老學習無休止的交流分享開源精神,匯聚於互聯網和個人學習工作的精華幹貨知識,一切來於互聯網,反饋回互聯網。
目前研究領域:大數據、機器學習、深度學習、人工智能、數據挖掘、數據分析。 語言涉及:Java、Scala、Python、Shell、Linux等 。同時還涉及平常所使用的手機、電腦和互聯網上的使用技巧、問題和實用軟件。 只要你一直關註和呆在群裏,每天必須有收獲
對應本平臺的討論和答疑QQ群:大數據和人工智能躺過的坑(總群)(161156071)
StreamSets學習系列之StreamSets的Core Tarball方式安裝(圖文詳解)