1. 程式人生 > >Presto 安裝部署

Presto 安裝部署

1 部署 JDK7

  /usr/local/jdk7

2 待下載軟體列表:

  presto-server:

  discovery-server:

  presto-cli-executable:

3 準備工作

# mkdir -p /opt/presto /opt/presto/data /opt/presto/config

4 安裝discovery-server

   下載完成後,選擇一臺機器部署discovery-server,用來處理叢集發現

# cd /opt/presto # tar xvf /root/discovery-server-1.16.tar.gz
# ln -s discovery-server-1.16 discovery-server # mkdir config/discovery-server # cd discovery-server # ln -s ../config/discovery-server etc

  編輯配置檔案:

etc/node.properties
node.environment=production node.id=ffffffff-0000-0000-0000-ffffffffffff node.data-dir=/opt/presto/data/discovery/
etc/config.properties
http-server.http.port=8411
etc/jvm.config
-server -Xmx1G -XX:+UseConcMarkSweepGC -XX:+ExplicitGCInvokesConcurrent -XX:+AggressiveOpts -XX:+HeapDumpOnOutOfMemoryError -XX:OnOutOfMemoryError=kill -9 %p

  修改啟動指令碼,在exec一行之前加上

bin/launcher
PATH=/usr/local/jdk7/bin/:$PATH

5 安裝presto-coordinator 和 presto-worker

  coordinator是管事的,worker是幹活的

  找臺機器

# cd /opt/presto # tar xvf /root/presto-server-0.54.tar.gz # ln -s presto-server-0.54 presto-server # mkdir config/presto-coordinator config/presto-worker

在coordinator上

# cd presto-server # ln -s ../config/presto-coordinator etc

worker上

# cd presto-server # ln -s ../config/presto-worker etc

公用的配置:

etc/jvm.config
-server -Xmx16G -XX:+UseConcMarkSweepGC -XX:+ExplicitGCInvokesConcurrent -XX:+CMSClassUnloadingEnabled -XX:+AggressiveOpts -XX:+HeapDumpOnOutOfMemoryError -XX:OnOutOfMemoryError=kill -9 %p -XX:PermSize=150M -XX:MaxPermSize=150M -XX:ReservedCodeCacheSize=150M
etc/log.properties
com.facebook.presto=DEBUG
etc/node.properties
node.environment=production node.id=ffffffff-0000-0000-0000-ffffffffffff node.data-dir=/opt/presto/data/discovery/

確保每臺機器node.id都不一樣

catalog配置:

etc/catalog/jmx.properties
connector.name=jmx
etc/hive-cdh4.properties
connector.name=hive-cdh4 hive.metastore.uri=thrift://hadoop4.lecai.com:9083 hive.config.resources=/etc/hadoop/conf/core-site.xml,/etc/hadoop/conf/hdfs-site.xml

如果CDH使用了nameservice HA,一定要包含最後一行的配置,否則可能會報主機名找不到。有這行配置的前提是所在的伺服器是hadoop的節點機。

coordinator的配置

etc/config.properties
coordinator=true datasources=jmx http-server.http.port=28282 presto-metastore.db.type=h2 presto-metastore.db.filename=/opt/presto/data/presto/var/db/MetaStore task.max-memory=1GB discovery-server.enabled=true discovery.uri=http://hadoop4.lecai.com:8411

worker的配置

etc/config.properties
coordinator=false datasources=jmx,hive-cdh4 http-server.http.port=28282 presto-metastore.db.type=h2 presto-metastore.db.filename=/opt/presto/data/presto/var/db/MetaStore task.max-memory=1GB discovery.uri=http://hadoop4.lecai.com:8411

按官方的說法,coordinator的datasource不要加hive-cdh4,這樣coordinator能高效地coordinates。

datasource的名字就是catalog配置的檔名。

 修改啟動指令碼,在exec一行之前加上

bin/launcher
PATH=/usr/local/jdk7/bin/:$PATH

6 啟動程式

由於launch指令碼都已經加上了JDK7的環境變數設定,所以所有的都是使用

# ./bin/launch start

就行了

如果要以非daemon方式工作,使用

# ./bin/launch run

7 使用CLI客戶端

/usr/local/jdk7/bin/java -jar /root/presto-cli-0.54-executable.jar --server hadoop4.lecai.com:28282 --catalog hive-cdh4 --schema lecai_stats_source

功能很有限,速度還行

presto:lecai_stats_source> help Supported commands: QUIT EXPLAIN [FORMAT {TEXT | GRAPHVIZ}] <query> DESCRIBE <table> SHOW COLUMNS FROM <table> SHOW FUNCTIONS SHOW SCHEMAS SHOW PARTITIONS FROM <table> [WHERE ...] [ORDER BY ...] [LIMIT n] SHOW TABLES [LIKE <pattern>]

8 故障排查

新裝的時候data目錄清空就好,免得出問題。升級的時候可以重新link目錄。

相關推薦

hadoop--presto安裝部署

  系統環境:hadoop + hive已經配置完成 1、下載presto:https://repo1.maven.org/maven2/com/facebook/presto/presto-server/0.167/presto-server-0.167.tar.gz 2、解壓安裝 #&n

PRESTO安裝部署和引數說明(一)

PRESTO部署和引數說明(一) 一,概要 在部署和使用presto的過程中,在此記錄一下部署記錄和使用記錄以及需要注意的事項。本人使用的presto版本是0.214,3臺redhat虛擬機器。使用背景:客戶需要定期查詢大批量的資料,最後選擇了sqoop工具定期匯入hive,並且定期刪除定期更新,因為沒有

Presto 安裝部署

1 部署 JDK7   /usr/local/jdk7 2 待下載軟體列表:   presto-server:   discovery-server:   presto-cli-executable: 3 準備工作 # mkdir -p /opt/pr

fuel6.0安裝部署

信息 記錄 修改 ont pan compute spl auto 網絡配置   在經過一系列安裝openstack方式後,個人覺得fuel的安裝方式相對簡易,接下來記錄下安裝部署fuel6.0的過程。本教程適合想把fuel6.0部署後,雲主機需要連接外網的需求。   安裝

【原創 Spark動手實踐 1】Hadoop2.7.3安裝部署實際動手

dmi 遠程 nag proc host 一個 error img 連接 目錄: 第一部分:操作系統準備工作:   1. 安裝部署CentOS7.3 1611   2. CentOS7軟件安裝(net-tools, wget, vim等)   3. 更新CentOS

LNP 安裝部署

lnp一、安裝nginx1.安裝依賴包:yum install openssl openssl-devel pcre GeoIP perl-devel perl perl-ExtUtils-Embed GeoIP-devel libatomic libatomic_ops-devel2.安裝zlibtar -

Unity3D中tolua的“安裝部署和使用“教程

替換 部署 ref 比對 text asset gin 系統 .com 棄坑Cocos2d-x,轉戰Unity3D 考慮到項目一定會使用熱更,花了不少時間比對了lua的支持方案,最後定為tolua,原因不解釋。 俗話說,萬事開頭難,中間難,最後難……我反正是沒有找到如何安裝

hadoop分布式安裝部署具體視頻教程(網盤附配好環境的CentOS虛擬機文件/hadoop配置文件)

down hdf lan nag home 開機啟動 prop baidu ifcfg-eth 參考資源下載:http://pan.baidu.com/s/1ntwUij3視頻安裝教程:hadoop安裝.flvVirtualBox虛擬機:hadoop.part1-part

Confluence 安裝部署

all extract pro 技術分享 create read 1-1 expr starting Confluence安裝與部署 下載安裝包及破解包 安裝包下載地址:https://www.atlassian.com/software/confluence/down

ZooKeeper安裝部署

sa0x01 簡介Zookeeper是一個很好的集群管理工具,被大量用於分布式計算。如Hadoop以及Storm系統中。Apache ZooKeeper是一個為分布式應用所設計開源協調服務,其設計目是為了減輕分布式應用程序所承擔的協調任務。可以為用戶提供同步、配置管理、分組和命名服務。0x02 環境說明在三臺

zookeeper與kafka安裝部署及java環境搭建

3.4 項目目錄 tin bytes result zxvf util ise cat 1. ZooKeeper安裝部署 本文在一臺機器上模擬3個zk server的集群安裝。 1.1. 創建目錄、解壓 cd /usr/ #創建項目目錄 mkdir zookeepe

ELK 日誌服務器安裝部署

搜索引擎 應用程序 服務器 安全性 數據源 高清原文 烏龜運維 wuguiyunwei.com簡單介紹:ELK是三個開源工具組成,簡單解釋如下:Elasticsearch是個開源分布式搜索引擎,它的特點有:分布式,零配置,自動發現,索引自動分片,索引副本機制,restful風格接口,多數據

openfire 安裝部署

doc 系統啟動 clas mpp 壓縮 resource 7月 article 管理 1. openfire安裝和配置 本文介紹openfire 在linux上安裝部署過程 linux上有兩種安裝方式,一個是RPM包方式。還有一個是tar.gz壓縮包方式,

環境搭建/安裝部署

common user utf-8 opts 自動 環境搭建 leg ini min 1、M2e(maven-eclipse-plugin)插件只能在線安裝,官方地址:http://wiki.eclipse.org/M2E_updatesite_and_gittags ma

Centos7.3 Docker安裝部署學習記錄1

docker一、Docker基礎環境的安裝1. 環境說明本機采用操作系統如下: CentOS-7.3-X86-64,內核3.10 x64位,docker 1.12.x版本。 建議采用CentOS7版本或ubuntu版本,本文采用CentOS7即CentOS-7-x86_64-DVD-1611.iso版本最

FastDFS單點在 CentOS 安裝部署

fastdfs centos 單點 關於分布式文件系統FastDFS,在這裏不做過多介紹,我們直接開始安裝1.安裝 libfastcommon [[email protected]/* */ softwares]# yum -y install wget pcre pcre-devel

spark2.10安裝部署(集成hadoop2.7+)

use star temp 保存 local export per home hadoop 這裏默認你的hadoop是已經安裝好的,master是node1,slaver是node2-3,hdfs啟動在node1,yarn啟動在node2,如果沒安裝好hadoop可以看我前

MySQL二進制安裝部署

upa linux gin nologin 系統 clu path file x86 1 #使用二進制包安裝mysql 2 cp mysql-5.6.29-linux-glibc2.5-x86_64.tar.gz /data/ 3 tar -xf

安裝部署Solrcloud

ros info vim eba 創建 boot 1.8 bin nvi 實驗說明:   三臺虛擬機做solrcloud集群 安裝solr前請確保jdk 、tomcat、zookeeper已安裝好,否則無法啟動    

Linux之安裝部署squid代理服務器

duyuheng linux squid代理服務器Linux之安裝部署squid代理服務器1、案例拓撲圖系統centos6.5 軟件sarg-2.3.7.tar.gz squid-3.4.6.tar.gz2、案例要求(1)如上圖要求配置網絡,內部linux需要配置默認網關,外部linux不需要配置默認