1. 程式人生 > >本地開發spark streaming無法消費雲主機kafka訊息

本地開發spark streaming無法消費雲主機kafka訊息

1、Kafka叢集在一個192.168.0.x網段的,而我們的生產者在叢集外,無法將訊息傳送過去

錯誤:11:21:13,936 ERROR KafkaProducer - Batch containing 11 record(s) expired due to timeout while requesting metadata from brokers for onlinelogs-1


2、spark streaming作為消費者在叢集之外,無法消費kafka裡面的訊息

例如:IDEA在本地做開發,但kafka部署在雲主機上


解決方案:

配置advertised.host.name 引數

,該引數配置為當前機器的外網IP即可,重啟生效配置


參考部落格:

http://blog.itpub.net/30089851/viewspace-2152671/


【來自@若澤大資料】