一步一步安裝hive2,beeline
--session 1: hive --service hiveserver2 netstat -nplt|grep 10000 繫結的是127.0.0.1,遠端不能連 [[email protected] conf]$ vi hive-site.xml <property> <name>hive.server2.thrift.bind.host</name> <value>node1</value> <description>Bind host on which to run the HiveServer2 Thrift service.</description> </property> 本地測試是否能聯通,hive提供了遠端客戶端,相當於遠端的sqlplus,和直接執行hive是一樣的顯示: --session 2: [
[email protected] ~]$ hadoop fs -chmod 777 /tmp [[email protected] conf]$ beeline Beeline version 1.2.1 by Apache Hive beeline> !connect jdbc:hive2://node1:10000/default Connecting to jdbc:hive2://node1:10000/default Enter username for jdbc:hive2://node1:10000/default: root Enter password for jdbc:hive2://node1:10000/default: Connected to: Apache Hive (version 1.2.1) Driver: Hive JDBC (version 1.2.1) Transaction isolation: TRANSACTION_REPEATABLE_READ 0: jdbc:hive2://node1:10000/default> show tables; +---------------+--+ | tab_name | +---------------+--+ | t_ansi | | t_dept_count | | t_emp | | t_utf | +---------------+--+ 4 rows selected (5.204 seconds) 0: jdbc:hive2://node1:10000/default> desc t_emp; +-----------+------------+----------+--+ | col_name | data_type | comment | +-----------+------------+----------+--+ | id | int | | | name | string | | | age | int | | | dept | string | | +-----------+------------+----------+--+ 0: jdbc:hive2://node1:10000/default> select count(*) from t_emp; INFO : Number of reduce tasks determined at compile time: 1 INFO : In order to change the average load for a reducer (in bytes): INFO : set hive.exec.reducers.bytes.per.reducer=<number> INFO : In order to limit the maximum number of reducers: INFO : set hive.exec.reducers.max=<number> INFO : In order to set a constant number of reducers: INFO : set mapreduce.job.reduces=<number> INFO : number of splits:1 INFO : Submitting tokens for job: job_1447681295674_0002 INFO : The url to track the job: http://node1:8088/proxy/application_1447681295674_0002/ INFO : Starting Job = job_1447681295674_0002, Tracking URL = http://node1:8088/proxy/application_1447681295674_0002/ INFO : Kill Command = /home/hadoop/hadoop-2.7.1/bin/hadoop job -kill job_1447681295674_0002 INFO : Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 1 INFO : 2015-11-17 09:23:01,010 Stage-1 map = 0%, reduce = 0% INFO : 2015-11-17 09:24:01,912 Stage-1 map = 0%, reduce = 0% INFO : 2015-11-17 09:25:02,665 Stage-1 map = 0%, reduce = 0% INFO : 2015-11-17 09:26:11,228 Stage-1 map = 0%, reduce = 0% INFO : 2015-11-17 09:26:27,671 Stage-1 map = 100%, reduce = 0%, Cumulative CPU 5.17 sec INFO : 2015-11-17 09:27:28,482 Stage-1 map = 100%, reduce = 0%, Cumulative CPU 6.28 sec INFO : 2015-11-17 09:28:23,379 Stage-1 map = 100%, reduce = 67%, Cumulative CPU 8.22 sec INFO : 2015-11-17 09:28:29,053 Stage-1 map = 100%, reduce = 100%, Cumulative CPU 9.75 sec INFO : MapReduce Total cumulative CPU time: 9 seconds 750 msec INFO : Ended Job = job_1447681295674_0002 +------+--+ | _c0 | +------+--+ | 3 | +------+--+ 1 row selected (451.259 seconds)
相關推薦
一步一步安裝hive2,beeline
--session 1: hive --service hiveserver2 netstat -nplt|grep 10000 繫結的是127.0.0.1,遠端不能連 [[email protected] conf]$ vi hive-site.xml
linux 下 一步一步安裝odb
sta dual hit c++ option ubun packages sim before Introduction This guide presents step-by-step instructions for installing the ODB system
Linux入門之一步一步安裝系統
1引言 2安裝前的準備工作 下載vmware workstation 下載gentoo所需要的檔案 知識點 1 我們下載的是基於x86架構的安裝包在這裡我們可以學習到用什麼來區分架
U盤安裝蘋果系統教程,菜鳥一步一步也能成大牛
女朋友蘋果電腦遇到問題,女朋友不會整,又怕自己整壞了,就跑去電腦城修,結果被坑了150塊,本來說要雙系統Mac和Windows,結果店家拿著電腦就跑出去了(並不知道幹啥去了),回來發現只有win7,沒有Mac,並且索要正版的價格,我尼瑪,就坑我小女朋友,還好小女朋友沒給他,本來就是盜版系
centos 7下原始碼安裝mysql5.7--一步一步親測操作完成
安裝依賴包 #yum -y install libaio libaio-devel 更改服務區時區 &
一步一步講解如何安裝Ubuntu18.04,零基礎
在一塊空的硬碟上安裝Ubuntu是最為簡單的,我接下將介紹如何進行安裝 1、準備 Ubuntu映象,b( ̄▽ ̄)d 這個是肯定yaod Rufus,一個寫入映象的工具‘ U盤一個 2、開始 2.1、寫入映象 先插入U盤,然後開啟Rufus,它將自動檢測到你的U盤 不要去修
一步一步講解安裝NodeJs開發環境
安裝NodeJS的作業系統下載NodeJs安裝包首先在NodeJS官方網址(https://nodejs.org/)下載安裝包,NodeJS官網會自動根據電腦作業系統下載適應於本系統的安裝包。當前的安裝版本: v0.12.7當前下載的檔案:node-v0.12.7-x64.m
一步一步跟我學習hadoop(2)----hadoop eclipse外掛安裝和執行wordcount程式
本部落格hadoop版本是hadoop 0.20.2。 安裝hadoop-0.20.2-eclipse-plugin.jar 下載hadoop-0.20.2-eclipse-plugin.jar檔案,並新增到eclipse外掛庫,新增方法很簡單:找到eclipse安裝目錄
一步一步在Linux上安裝Oracle 11gR2 RAC (1)
接下來,完全參照上述建立虛擬機器步驟,建立第2個節點,虛擬機器命名為11gnode2,在配置網路步驟中,需要注意,將其eth0配置為172.16.0.192,eth1配置為192.168.94.12,主機名為node2.localdomain。
一步一步教你在redhat linux 下安裝oracle 11g grid + database
給想學習oracle的新手看看,老鳥請飄過 作業系統資訊: Vbox虛擬機器軟體版本: 安裝所需要的軟體: 所需軟體下載地址: http://pan.baidu.com/s/1mgl8kzu具體安裝步驟: 一、新建虛擬機器,並安裝redhat5.4作業系統(64位)
【Linux】教你一步一步在CentOS Linux release 7.1上安裝vsftpd FTP伺服器
1.執行yum安裝vsftpd sudo yum install vsftpd 2.安裝完成後,修改vsftpd ftp登入使用者配置檔案 如果你希望可以使用root使用者登入ftp的話,需要做以下修改 /etc/vsftpd/ftpusers 該檔案中定義的使
從0開始一步一步安裝walle
最近新接觸了walle這個部署系統工具,還是挺好用的,就是無奈官方文件太多坑。。。光ldap我就鬧了好半天最後發現做的都是無用功,那麼下面我一步一步教大家怎麼部署walle以及我遇到的坑 先說一下,walle不支援windows,只支援linux,用win的小夥伴再等等吧。
一步一步教你在Windows下安裝Scrapy
http://www.tuicool.com/articles/NzAF7n Scrapy簡介 Scrapy是一個快速,高效的網頁抓取python框架。主要用於Web抓取&提取資訊&格式化資料。經常用此做資料探勘、檢測、測試等。 安裝所需軟體 pythonpythonpython安裝步驟 1
從安裝作業系統開始,一步一步詳細的基於spring web專案建立與釋出
1.centos7 安裝 software selection選擇server with gui 設定centos鎖屏時間:Application→System Tools→Settings→Privacy→close→Screen Lock→ Lock Screen
Oracle資料庫的安裝與解除安裝一步一步詳細過程
資料庫安裝和解除安裝 一、 安裝 1. 在Oracle官網下載11g版本資料庫,將會得到如下2個檔案: 解壓檔案將得到database資料夾,檔案組織如下: 點選setup.exe執行安裝
一步一步 在mac上安裝ubuntu
做為程式設計師的你,一定聽說過Linux甚至非常喜歡Linux. 最近買了一臺mac air,我非常喜歡蘋果的工藝,但作為屌絲程式設計師,我依舊喜歡基於Linux核心的Ubuntu 進行開發.下面我就
Centos7下一步一步安裝YCM外掛(附vimrc配置檔案)
前言 由於博主太naive,使用yum update將核心升級了,直接導致gnome炸了,然後開機就宕機,只要進救援模式去把資料備份了,結果一不小心使用rm /home -rf將需要備份的資料也刪了。。。然後就開始重灌系統了。 YouCompleteMe這款
一步一步學習Ubuntu之NodeJs安裝篇
一.安裝方式 初始化工作,安裝nodejs之前,你的機器上可能nodejs依賴的一些安裝包,需要先安裝一下; 具體Command: $ sudo apt-get install g++ curl libssl-dev apache2-utils git也是不可少的 $
【Linux】教你一步一步在CentOS Linux release 7.1上解除安裝vsftpd FTP伺服器
1.首先檢視系統中是否安裝了vsftpd rpm -qa | grep vsftpd 例如:如果顯示結果如下的話,說明是安裝了vsfptd3.0的ftp伺服器的 [[email protected] sbin]# rpm -qa | grep vsftpd v
Python學習筆記(一)三步走安裝pip
原地址:http://www.cnblogs.com/NanShan2016/p/5518235.html pip是用來方便地管理Python的第三方包的,由於此前玩Python僅僅是淺嘗輒止,用的是python(x,y),但是這裡並不代表你想用什麼包都能從裡面找到的