confluent4.0安裝和kafka connect快速使用
安裝
需要JDK 1.7以上版本。
直接解壓就可以使用了。
加入全域性path目錄:
export PATH=<path-to-confluent>/bin:$PATH
啟動
$ confluent start
Starting zookeeper
zookeeper is [UP]
Starting kafka
kafka is [UP]
Starting schema-registry
schema-registry is [UP]
Starting kafka-rest
kafka-rest is [UP]
Starting connect
connect is [UP]
檢視日誌檔案目錄
$ confluent current
# /tmp/confluent.BnzjkBY7
列出連線
$ confluent list connectors
Bundled Predefined Connectors (edit configuration under etc/):
elasticsearch-sink
file-source
file-sink
jdbc-source
jdbc-sink
hdfs-sink
s3-sink
把本地檔案當作生產者源
屬性檔案在./etc/kafka/connect-file-source.properties
# User defined connector instance name.
name=file-source
# The class implementing the connector
connector.class=FileStreamSource
# Maximum number of tasks to run for this connector instance
tasks.max=1
# The input file (path relative to worker's working directory)
# This is the only setting specific to the FileStreamSource
file=test.txt
# The output topic in Kafka
topic=connect-test
弄一些測試資料:
$ for i in {1..3}; do echo "log line $i"; done > test.txt
載入檔案源
$ confluent load file-source
{
"name": "file-source",
"config": {
"connector.class": "FileStreamSource",
"tasks.max": "1",
"file": "test.txt",
"topics": "connect-test",
"name": "file-source"
},
"tasks": []
}
檢視載入的聯結器
$ confluent status connectors
[
"file-source"
]
檢視具體聯結器狀態
可以使用這個方法來排錯,經常使用。
$ confluent status file-source
{
"name": "file-source",
"connector": {
"state": "RUNNING",
"worker_id": "192.168.10.1:8083"
},
"tasks": [
{
"state": "RUNNING",
"id": 0,
"worker_id": "192.168.10.1:8083"
}
]
}
在命令列裡檢視訊息
$ kafka-avro-console-consumer --bootstrap-server localhost:9092 --topic connect-test --from-beginning
"log line 1"
"log line 2"
"log line 3"
使用聯結器寫檔案資料
使用聯結器file-sink
,配置程式碼在./etc/kafka/connect-file-sink.properties
:
# User defined name for the connector instance
name=file-sink
# Name of the connector class to be run
connector.class=FileStreamSink
# Max number of tasks to spawn for this connector instance
tasks.max=1
# Output file name relative to worker's current working directory
# This is the only property specific to the FileStreamSink connector
file=test.sink.txt
# Comma separate input topic list
topics=connect-test
載入消費檔案聯結器
$ confluent load file-sink
{
"name": "file-sink",
"config": {
"connector.class": "FileStreamSink",
"tasks.max": "1",
"file": "test.sink.txt",
"topics": "connect-test",
"name": "file-sink"
},
"tasks": []
}
檢視狀態
$ confluent status file-sink
{
"name": "file-sink",
"connector": {
"state": "RUNNING",
"worker_id": "192.168.10.1:8083"
},
"tasks": [
{
"state": "RUNNING",
"id": 0,
"worker_id": "192.168.10.1:8083"
}
]
}
現在就有倆聯結器了:
$ confluent status connectors
[
"file-source",
"file-sink"
]
檢視效果
$ tail -f test.sink.txt
隨機寫入一些資料:
$ for i in {4..1000}; do echo "log line $i"; done >> test.txt
出來了:
"log line 1"
"log line 2"
"log line 3"
"log line 4"
"log line 5"
...
解除安裝聯結器
$ confluent unload file-source
$ confluent unload file-sink
停用聯結器
$ confluent stop connect
Stopping connect
connect is [DOWN]
關閉confluent
$ confluent stop
Stopping connect
connect is [DOWN]
Stopping kafka-rest
kafka-rest is [DOWN]
Stopping schema-registry
schema-registry is [DOWN]
Stopping kafka
kafka is [DOWN]
Stopping zookeeper
zookeeper is [DOWN]
消滅痕跡
$ confluent destroy
Stopping connect
connect is [DOWN]
Stopping kafka-rest
kafka-rest is [DOWN]
Stopping schema-registry
schema-registry is [DOWN]
Stopping kafka
kafka is [DOWN]
Stopping zookeeper
zookeeper is [DOWN]
Deleting: /tmp/confluent.BnzjkBY7
參考
相關推薦
confluent4.0安裝和kafka connect快速使用
安裝 需要JDK 1.7以上版本。 直接解壓就可以使用了。 加入全域性path目錄: export PATH=<path-to-confluent>/bin:$PATH 啟動 $ confluent start Start
CentOS6.8下Nagios-4.2.0安裝和配置
因此 figure 問題 usermod linux文件 httpd的配置 pen kconfig etc 1實驗目標 掌握Nagios的安裝 2實驗環境 主機名:Nagios-Server 操作系統:CentOS release 6.8 (Final) IP地址:19
zabbix4.0安裝和配置
以下為master端安裝,開始 核心$ cat /etc/centos-release CentOS Linux release 7.4.1708 (Core) $ uname -r 3.10.0-693.el7.x86_64 IP
linux ubuntu 下 mongodb 4.0 安裝和配置遠端連線
安裝 搬運: 安裝教程 選擇對應版本,複製貼上命令即可,這裡就不涉及了。 安裝完成後啟動服務:sudo service mongod start 如果提示Unit mon
vue-cli 3.0安裝和使用
Vue CLI介紹 Vue CLI 是一個基於 Vue.js 進行快速開發的完整系統,提供: 通過 @vue/cli 搭建互動式的專案腳手架。 通過 @vue/cli + @vue/cli-servic
spark-2.2.0安裝和部署
Spark下載 為了方便,我直接是進入到了/usr/local資料夾下面進行下載spark-2.2.0 wget https://d3kbcqa49mib13.cloudfront.net/spark-2.2.0-bin-hadoop2.7.tgz Spark安裝之前的準備 檔案的解壓與
node.js學習1.0-安裝和配置
1、開啟NodeJS的官網,下載和自己系統相配的NodeJS的安裝程式,包括32位還是64位一定要選擇好,否則會出現安裝問題。 我選擇的是Window版本64位的安裝程式,也有MAC平臺的安裝程式。 下載完成,如圖: 2、接下來就是安裝了,
CUDA8.0安裝和vs2015配置
1、新建空專案2、新增test.cu3、右鍵專案---生成依賴項--生成自定義---CUDA8.0打鉤4、右鍵test.cu---屬性--選擇CUDA C/C++5、包含目錄C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\
Tesseract-OCR 3.0+ 安裝和使用
終端輸入命令:tesseract --help Usage: tesseract --help | --help-psm | --version tesseract --list-langs [--tessdata-dir PATH] tesseract --print-parameters [
ActiveMQ-5.9.0 安裝和啟動
安裝環境:linux activemq版本:5.9.0 2.解壓縮到指定的目錄 Shell程式碼 tar zxvf apache-activemq-5.9.0-bin.tar.gz -C /usr/local 解壓縮後會在/usr/local下生成apa
ActiveMQ-5.8.0 安裝和啟動
安裝環境:linux rhe activemq版本:5.8.0 2.解壓縮到指定的目錄 Shell程式碼 tar zxvf apache-activemq-5.8.0-bin.tar.gz -C /usr/local 解壓縮後會在/usr/local下生成
Hyperledger Fabric 1.0 安裝和使用
Hyperledger Fabric 1.0 版本整體 重新設計了架構,預計將於今年 3 月份釋出。目前已經進入了 alpha 階段,可以進行功能性驗證。本文將介紹如何快速啟動一個 Fabric 1.0 的網路,並部署和呼叫 chaincode 進行測試。安裝 DockerD
centos7中hive3.1.0安裝和部署
一 前期準備 1. hadoop叢集 版本: 2.8.4 2 mysql 版本: 5.7.21 3 mysql驅動 版本: 5.1.46 4 hive安裝包 hive-3.1.0 二 hive安裝 1 解壓和配置 # 解壓 tar -zxvf
Spark2.1.0安裝和配置
Spark主要使用HDFS充當持久化層,所以完整地使用Spark需要預先安裝Hadoop Spark在生產環境中,主要部署在安裝Linux系統的叢集中。在Linux系統中安裝Spark需要預先安裝JDK、Scala等所需要的依賴。 由於
VMware下OSSIM 5.0安裝和使用小結
1. 概述 OSSIM即開源安全資訊管理系統(Open Source Security Information Management),是目前一個非常流行和完整的開源安全架構體系。 OSSIM通過將開源產品進行整合,從而提供一個能夠實現安全監控功能的、集中式、有組織的基礎框
Visual C++ 6.0 安裝和使用
bug program mic soft jpg 技術 http 窗口 控制 新建一個控制臺程序 默認位置C:\Program Files\Microsoft Visual Studio\MyProjects\001C bui
Kafka-0.10.1叢集的安裝和配置
準備 1.kafka_2.10-0.10.1.1.tgz 2.安裝配置好的Zookeeper-3.4.10分散式叢集 mini1:192.168.213.133 mini2:192.168.213.134 mini3:192.168.213.135
kafka安裝和使用
grep keys operator comment 隨機 寫入 實時流處理 生產者 keyword kafka安裝和啟動 kafka的背景知識已經講了很多了,讓我們現在開始實踐吧,假設你現在沒有Kafka和ZooKeeper環境。 Step 1: 下
Kafka的安裝和設置
發布 scp keep 三種模式 conf 多個 file 解壓 path Kafka是一種分布式發布訂閱消息系統。 Kafka有三種模式: (1)單節點單Broker,在一臺機器上運行一個Kafka實例; (2)單節點多Broker,在一臺機器上運行多個Kafka實
(一)在Linux上安裝和編譯OpenCV3.0.0
接口 mac os color 下載源 同時 beta c函數 install mkdir OpenCV的全稱是:Open Source Computer Vision Library。OpenCV是一個基於(開源)發行的跨平臺計算機視覺庫,可以運行在Linux、W