cdh安裝spark遇到的幾個BUG
spark安裝後啟動:
[[email protected] spark]$ sbin/start-all.sh
starting org.apache.spark.deploy.master.Master, logging to /home/zdwy/cdh5.9/spark/logs/spark-zdwy-org.apache.spark.deploy.master.Master-1-master.out
failed to launch org.apache.spark.deploy.master.Master:
at java.lang.ClassLoader.loadClass(ClassLoader.java:357)
... 7 more
full log in /home/zdwy/cdh5.9/spark/logs/spark-zdwy-org.apache.spark.deploy.master.Master-1-master.out
slave1: starting org.apache.spark.deploy.worker.Worker, logging to /home/zdwy/cdh5.9/spark/logs/spark-zdwy-org.apache.spark.deploy.worker.Worker-1-slave1.out
slave2: starting org.apache.spark.deploy.worker.Worker, logging to /home/zdwy/cdh5.9/spark/logs/spark-zdwy-org.apache.spark.deploy.worker.Worker-1-slave2.out
slave1: failed to launch org.apache.spark.deploy.worker.Worker:
slave1: at java.lang.ClassLoader.loadClass(ClassLoader.java:358)
slave1: ... 6 more
slave1: full log in /home/zdwy/cdh5.9/spark/logs/spark-zdwy-org.apache.spark.deploy.worker.Worker-1-slave1.out
slave2: failed to launch org.apache.spark.deploy.worker.Worker:
slave2: at java.lang.ClassLoader.loadClass(ClassLoader.java:358)
slave2: ... 6 more
slave2: full log in /home/zdwy/cdh5.9/spark/logs/spark-zdwy-org.apache.spark.deploy.worker.Worker-1-slave2.out
原因:缺少hadoop和spark之間通訊的jar包
解決方案:下載3個jar包:jackson-core-xxx.jar,jackson-annotations-xxx.jar,jackson-databind-xxx.jar,下載地址:http://mvnrepository.com/artifact/com.fasterxml.jackson.core/
下載後將jar包放入到hadoop/share/hadoop/commom/目錄下,重新啟動spark即可。
相關推薦
cdh安裝spark遇到的幾個BUG
spark安裝後啟動: [[email protected] spark]$ sbin/start-all.sh starting org.apache.spark.deploy.master.Master, logging to /home/zdwy/cdh5.9/spark/logs/spark
802.11n CSI tools 安裝遇到的幾個問題
1.首先安裝Ubuntu Ubuntu系統,核心版本3.2~4.2,對應發行版Ubuntu12.04~Ubuntu14.04.4 核心版本可以使用uname -r命令來檢視 確保安裝的ubuntu系統可以聯網(有線網絡卡可以上網就行) 安裝雙系統的話,注意引導方
MySQL連線服務端時的幾個bug
最近在使用MySQL 做服務端的資料儲存,之前只使用過sqlite3移植到開發板,屬於嵌入式的那種檔案式的關係型資料庫,但是為了滿足服務端的需求,必須使用sql server或者是MySQL這樣的資料庫開發才便於管理大型的資料儲存和管理。 MySQL是C/S模式的,一開
Spark Scalaa 幾個常用的示例
SparkWordCount 類原始碼 standalong 模式 import org.apache.spark.SparkConf import org.apache.spark.SparkContext import org.apache.spark.SparkCo
虛擬機器安裝遇到的幾個小問題及解決方法
1.必須注意硬碟預留100G空間==,慘痛遭遇不忍贅述。 2.安裝時提示缺失vmnetBridge.dll,下載可得。vmnetbridge.dll是屬於VMware Workstation虛擬機器軟體中的一個重要dll檔案,用於建立虛擬網路橋接時的資料檔案。
Spark的幾個基本概念:Driver和Job,Stage
Driver Program, Job和Stage是Spark中的幾個基本概念。Spark官方文件中對於這幾個概念的解釋比較簡單,對於初學者很難正確理解他們的涵義。 官方解釋如下(http://spark.apache.org/docs/latest/cluster-overview.html): Driv
Centos Oprofile 安裝過程的幾個錯誤注意點
1. 確認oprofile 是否被編譯進核心,是模組方式還是別的方式 cat /boot/config-2.6.18-128.el5 |grep OPROFILE 2. 配置中錯誤 ./configure checking dynamic linker characte
在ubuntu最新docker映象上安裝apache2的幾個坑
[email protected]:/app# exec apache2 -D FOREGROUND apache2: Syntax error on line 80 of /etc/apache2/apache2.conf: DefaultRuntimeDir must
百度ueditor1.4.3幾個bug修復
1.多圖線上管理無法顯示圖片: 下載ueditor原始碼包,將jsp/src下的com/baidu/ueditor/hunter/FileManger.java中的getPath(file)方法: private String getPath ( File file )
Docker nginx+php+memcache安裝遇到的幾個小問題
首先記錄下安裝步驟,然後介紹遇到的問題及解決辦法 1. Docker安裝 yum install docker 安裝完成後,使用下面的命令來啟動docker 服務,並將其設定為開機啟動: #service docker start #chkconfig docker
由於ndk引發的幾個bug,以及解決方法
問題一: Error:(12, 0) Error: NDK integration is deprecated in the current plugin. Consider trying th
【Eclipse提高開發速度-外掛篇】Eclipse外掛安裝慢得幾個原因
1、修改“Available Softeware Site” ,減少關聯,具體做法 Install New Software >> Available Softeware Site 去勾選
【Hadoop】Hadoop2.7.3執行job下來幾個bug和解決思路
基本條件:name伺服器和node伺服器都正常。WEBUI中顯示都是OK,都是存活。 執行現象之一:總是job執行中,毫無反應。 16/09/01 09:32:29 INFO mapreduce.Job: Running job: job_1472644
記一下幾個BUG
這幾天工作,也是剛開始集中時間,以任務為導向的寫程式碼,會有錯誤提醒,然後查了半天,發現是很小很小的細節問題。所以,push之前一定要注意細節,審查一遍。今天遇到幾個Bug,都是由於提交之前沒有做仔細的審查導致的。 不斷向伺服器傳送請求,因為測試時改了一個ID,導致沒有這
(四): Flink1.6.1 standalone叢集模式安裝部署,幾個常用引數配置
NameNode檢查點異常 安裝flink之前,觀察到一個NameNode檢查點異常: 沒去找官方解釋,按照此文的第4點解決了問題: namenode的Cluster ID 與 secondnamenode的Cluster ID 不一致,對比/dfs/nn
MacOS 安裝 convnet的幾個問題
1. 類似fatal error: 'jpeglib.h' file not found或者 X11/Xlib.h找不到這種檔案找不到的問題。 原因:該檔案引入路徑不對,可能是電腦上不存在這類檔案,更多可能是該類檔案指向不對。 解決方法:此時一般需要先找出該檔案所
Spark on Yarn遇到的幾個問題
添加 shuffle tasks pil 生產 當前 lis file 被拒 1 概述 Spark的on Yarn模式。其資源分配是交給Yarn的ResourceManager來進行管理的。可是眼下的Spark版本號,Application日誌的查看,僅僅
【轉載】Spark學習——spark中的幾個概念的理解及參數配置
program submit man 聯眾 tail 進行 orb 數據源 work 首先是一張Spark的部署圖: 節點類型有: 1. master 節點: 常駐master進程,負責管理全部worker節點。2. worker 節點: 常駐worker進程,負責管理
安裝Exchange 2013 CU18遇到的幾個問題和解決方法
exchange server cu18 安裝 問題 2017年9月16日Exchange 2013和Exchange 2016分別發布了更新版本,Exchange Server 2013 CU18和Exchange Server 2016 CU17。分別的下載地址為:Exchange 20
MySQL 5.7 安裝完成後,首次登陸的幾個問題
centos grep lock pri using net 什麽 roo nbsp Server:CentOS 7.0 MySQL : 5.7.20 MySQL Community Server (GPL) 1.首次登陸後修改密碼: 根據安裝時的選擇不同,有mysql