搭建Ambari 2.6.0 tar 解壓縮報錯
背景:我們使用的方式不是wget 去下載ambari的源碼包,而是在windows 的 firefox 下直接下載,將文件存儲到本地。
執行 tar -zxvf HDP-2.6.3.0-centos7-rpm.tar.gz 後
報錯信息:tar 解壓失敗tar: Skipping to next header tar: Exiting with failure status due to previous errors
然後網上有人提出使用gzip 和 gunzip 均失敗
gzip 報錯 invalid compressed data--length error
然後嘗試在windows下的本地嘗試解壓,發現也報錯。
初步判定:估計是源碼包下載不齊全導致。
初步探討:重新使用wget 進行下載。
結論:是gz包在解壓過程中,由於包下載不完全導致的。
解決方案:重新wget。
搭建Ambari 2.6.0 tar 解壓縮報錯
相關推薦
搭建Ambari 2.6.0 tar 解壓縮報錯
pos span 使用 解決方案 centos7 .gz res val unzip 背景:我們使用的方式不是wget 去下載ambari的源碼包,而是在windows 的 firefox 下直接下載,將文件存儲到本地。 執行 tar -zxvf HDP-2.6.3.0-c
Spark專案之環境搭建(單機)四 sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz 安裝
上傳解壓 sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz,重新命名 tar -zxf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz mv sqoop-1.4.7.bin__hadoop-2.6.0 sqoop 進入sqoop
阿里雲虛擬機器搭建Hadoop-2.6.0-cdh5.7.1安裝詳解(偽分散式環境)
首先先搭配安全組 開啟映象後輸入以下內容: 重要: yum -y install lrzsz HOSTNAME=(自己的主機名字) hostname $HOSTNAME echo "$(grep -E '127|::1' /etc/host
CentOS 7.4 安裝 Ambari 2.6.0 + HDP 2.6.3 搭建Hadoop叢集
1.安裝環境說明 三臺機器安裝好CentOS-7-x86_64-Minimal-1708.iso 下載地址:https://www.centos.org/download/ 最好在安裝時設定好IP和HOSTNAME 三臺機器的IP和HOSTNAME下載如下 主
hadoop-2.6.0.tar.gz + spark-1.5.2-bin-hadoop2.6.tgz的叢集搭建(單節點)(Ubuntu系統)
前言 關於幾個疑問和幾處心得! a.用NAT,還是橋接,還是only-host模式? b.用static的ip,還是dhcp的? 答:static c.別認為快照和克隆不重要,小技巧,比別人靈活用,會很節省時間和大大減少錯誤。 d.重用起來指令碼語言的程式設計,如paython
hadoop-2.6.0.tar.gz + spark-1.6.1-bin-hadoop2.6.tgz的叢集搭建(單節點)(CentOS系統)
前言 關於幾個疑問和幾處心得! a.用NAT,還是橋接,還是only-host模式? b.用static的ip,還是dhcp的? 答:static c.別認為快照和克隆不重要,小技巧,比別人靈活用,會很節省時間和大大減少錯誤。 d.重用起來指令碼語言
hadoop-2.6.0.tar.gz的叢集搭建(3節點)(不含zookeeper叢集安裝)
前言 關於幾個疑問和幾處心得! a.用NAT,還是橋接,還是only-host模式? b.用static的ip,還是dhcp的? 答:static c.別認為快照和克隆不重要,小技巧,比別人靈活用,會很節省時間和大大減少錯誤。 d.重用起來指令碼語言的程式設計,如paython或s
ambari 2.6.0.0開發環境配置
環境配置 pom span url c-c++ pack max adl clean ambari 2.6.0.0開發環境配置安裝git安裝依賴 yum -y install curl-devel expat-devel gettext-devel openssl-deve
Ambari 安裝 HDP(Centos7,HDP-2.6.3.0-235,HDP-UTILS-1.1.0.21,ambari-2.6.0.0)
centos1:192.168.1.4 2G 2核 60G centos2:192.168.1.5 1G 1核 60G centos3:192.168.1.6 1G 1核 60G (1) SSH免密登陸 hadoop.001 [[emai
Windows環境下搭建Hadoop(2.6.0)+Hive(2.2.0)環境並連線Kettle(6.0)
前提:配置JDK1.8環境,並配置相應的環境變數,JAVA_HOME 一.Hadoop的安裝 1.1 下載Hadoop (2.6.0) http://hadoop.apache.org/releases.html 1.1.1 下載對應版本的winutils(https://gith
CentOS 6.5下搭建hadoop 2.6.0叢集(二):網路配置
以Master機器為例,即主機名為”Master.hadoop”,IP為”192.168.2.30”進行一些主機名配置的相關操作。其他的Slave機器以此為依據進行修改。 檢視當前機器名稱 用下面命令進行顯示機器名稱,如果跟規劃的不一致,要按照下面進行修
windows下搭建hadoop-2.6.0本地idea開發環境
概述 本文記錄windows下hadoop本地開發環境的搭建: OS:windows hadoop執行模式:獨立模式 安裝包結構: Hadoop-2.6.0-Windows.zip -
Spark on YARN模式的安裝(spark-1.6.1-bin-hadoop2.6.tgz + hadoop-2.6.0.tar.gz)(master、slave1和slave2)(博主推薦)
說白了 Spark on YARN模式的安裝,它是非常的簡單,只需要下載編譯好Spark安裝包,在一臺帶有Hadoop YARN客戶端的的機器上執行即可。 Spark on YARN分為兩種: YARN cluster(YARN standalone,0.9版本以前)和 YA
在Ubuntu 上搭建hadoop-2.6.0-cdh分散式叢集
1 虛擬機器配置 序號 作業系統 CPU/core 記憶體/GB 硬碟/GB IP地址 主機名 1 Ubuntu 2 3 20 192.168.0.122 master 2 Ubuntu 1 2 20 192.168.0.123 slave
tar解壓報錯
tar 在解壓jdk時,報錯如下:[[email protected]/* */_22_86_centos tools]# tar xf jdk-8u144-linux-x64.tar.gz gzip: stdin: not in gzip formattar: Child returned
tar 解壓報錯
日常運維中,在安裝某些軟體包時需要先進行解壓,但是解壓時出現了報錯,錯誤內容如下: [[email protected] ~]# tar -zxvf php-5.6.38.tar.gz gzip: stdin: not in gzip formattar: Child returne
VB6 安裝完成,新增Windows Common Controls 6.0控制元件,報錯Object Library Not Registered
文章主要來自整理,以備不時之需。 1.我的系統為win7 專業版+sp1,在準備安裝vb之前系統已經安裝vs2010,+sqlserver2005 2.安裝vb英文版,安裝完成後重啟計算機.(未進行msdn的安裝) 3.安裝vbsp6英文版補丁 4.安裝vb其他更新補丁 5.在開
centos普通使用者解壓縮報錯:Cannot open: No such file or directory
使用普通使用者解壓縮檔案,在tar命令前需要賦予命令sudo,否則會報Cannot open: No such file or directory錯誤。就是一個許可權問題。 sudo是linux系統管理指令,是允許系統管理員讓普通使用者執行一些或者全部的root命令的一個工具,如halt,rebo
linux tar 解壓報錯解決方法
在解壓tar.gz檔案的時候報錯 1 2 3 4 5 [[email protected] Downloads]$ tar -zxvf clion-141.351.4.tar.gz gzip: stdin: not in gz
hadoop-2.6.0-cdh5.4.5.tar.gz(CDH)的3節點叢集搭建(含zookeeper叢集安裝)
前言 附連結如下: http://blog.csdn.net/u010270403/article/details/51446674 關於幾個疑問和幾處心得! a.用NAT,還是橋接,還是only-host模式? b.用static的ip,還是dhcp的? 答:stat