openstack的自動化部署--saltstack
一、前言
關於什麼是openstack以及什麼時saltstack,這裡就不多說了,直接進入主題
二、openstack 的自動化部署
1.實驗環境
系統版本 | hostname | ip | 角色 |
---|---|---|---|
redhat7.2 | server1 | 172.25.27.1 | controller \ salt-minion |
redhat7.2 | server2 | 172.25.27.2 | comput \ salt-minion |
redhat7.2 | server3 | 172.25.27.3 | salt-master |
請確保關閉防火牆,iptables,selinux
2.saltstack環境安裝
驗證:
[root@server3 ~]# salt-key -L
Accepted Keys:
server1
server2
Denied Keys:
Unaccepted Keys:
Rejected Keys:
3. 建立saltstack指令碼進行自動化部署
第一版程式碼已經放到github
程式碼可以直接拿本人提交到github的
[[email protected] ~]# git clone https://github.com/valor7/salt_openstack.git
[[email protected] ~]# vim salt_openstack/base/top.sls
base:
'server1':
- ntp.service
- openstack.install
- sql.init
- rabbitmq.service
- memcached.service
- keystone.service
- service_entity.service
- glance.service
- nova.services
- neutron.services
- dashboard.service
'server2':
- ntp.service
- comput_node.service
- 我這裡是server1為控制節點,server2為計算節點,可根據自己的情況進行相應配置,修改top.sls即可
- 如果直接拿我的程式碼需要修改相應使用者密碼及ip等資訊,全部在pillar資料夾裡面
[[email protected] salt_openstack]# tree
.
├── base
│ ├── bash
│ │ └── script ##部分服務啟動及資料庫認證指令碼
│ ├── comput_node ##計算節點相應的服務
│ │ ├── files
│ │ │ ├── linuxbridge_agent.ini
│ │ │ ├── neutron.conf
│ │ │ └── nova.conf
│ │ ├── install.sls
│ │ └── service.sls
│ ├── dashboard
│ │ ├── files
......
│ └── top.sls
└── pillar
├── openstack
│ ├── chronyd_info.sls ##時間同步伺服器資訊,預設使用阿里雲的時間同步伺服器
│ ├── comput_info.sls ##計算節點伺服器資訊
│ ├── controller_info.sls ##控制節點伺服器資訊
│ ├── db_resources.sls ##建立資料庫資訊,使用者名稱及密碼等
│ ├── user_info.sls ## dashboard使用者資訊
│ └── yum_info.sls ##yum 源,需要進行配置,我是搭建的本地yum倉庫,檔案已上傳百度雲
└── top.sls
27 directories, 54 files
- 修改salt-master的預設檔案指向,需要指向我們的資料夾路徑
[root@server3 salt_openstack]# ls
base pillar
[root@server3 salt_openstack]# pwd
/root/salt_openstack
[root@server3 salt_openstack]# vim /etc/salt/master
file_roots:
base:
- /root/salt_openstack/base
pillar_roots:
base:
- /root/salt_openstack/pillar
-
[root@server3 salt_openstack]# systemctl restart salt-master.service
openstack所需的軟體包我是搭建的本地yum倉庫,本地倉庫裡的所有內容已打包上傳到百度雲了,直接下載解壓即可使用
百度雲傳送門:mitaka.tgz
提取碼:ydih
4.見證奇蹟的時刻
[root@server3 salt_openstack]# salt '*' test.ping
server2:
True
server1:
True
[root@server3 salt_openstack]# salt '*' state.highstate ##然後就是等他完成
正常情況是這樣的
使用者名稱和密碼是在pillar中定義的,domain為default
先用admin賬戶登陸
登上去是這樣子的,setting裡面改成中文
管理員>> 映象 檢視已經有一個映象了,是通過指令碼上傳上去的,你也可以上傳你自己的映象,點選建立映象即可上傳自己的映象
接下來建立一個網路就可以愉快的起雲主機了
管理員>>網路>>建立網路>>按圖示填寫(只有名稱可隨意)>>提交
點選我們剛才建立的網路provider,新增子網
管理員>>網路>>privider>>建立子網>>根據實際情況進行填寫
填好之後下一步
根據實際情況填寫好之後點選已建立,網路就建立完成了
- 建立一個雲主機型別
系統>>雲主機型別>>建立雲主機型別
由於指令碼中上傳的映象消耗資源較少,所以這裡建立一個主機型別避免資源浪費,同時減小計算節點壓力
建立好之後退出admin使用者,切到demo使用者
雲主機>>建立雲主機
然後點啟動例項
進入控制檯
建立快照旁邊的倒三角>>控制檯
與可以從網路拓撲裡面開啟控制檯
輸入提示的使用者名稱 cirros 和密碼 cubswin:) 登陸控制檯
總結
至此,用saltstack自動化部署openstack完成,後續還有塊儲存服務等沒有新增,讀者若有興趣可進行新增。saltstack指令碼有不足之處歡迎指出
相關推薦
openstack的自動化部署--saltstack
一、前言 關於什麼是openstack以及什麼時saltstack,這裡就不多說了,直接進入主題 二、openstack 的自動化部署 1.實驗環境 系統版本 hostname ip 角色 redhat7.2
openstack 自動化部署/離線部署
前言 openstack如何部署,怎樣使用,在官網上很是詳細,即使是linux小白使用者,按照官網上一步一步做起來,還是可以讓雲平臺跑起來的。使用linux是離不開shell,我們可以使用shell來自動化部署openstack平臺。其實,說是自動化其實也不是,只是把繁瑣的配置檔案,
Openstack 自動化部署
一、Allinone部署 二、多節點部署 三、新增Zone 環境:Centos 6.5 一、Allinone部署 特點:控制節點以及計算節點全部在一臺伺服器上。 步驟: 使用RedHat的自動化部署工具,部署IceHouse版本 連結:http://openstack.r
saltstack 自動化部署openstack queens 版本
saltstack openstack前面寫了使用手動部署openstack的queens版本,但是太過繁瑣,還容易出錯,現在有時間寫了一個使用saltstack部署openstack queens版本。環境:saltmaster 192.168.147.166 saltstack version 2017
Centos 7 Saltstack自動化部署Haproxy+Keepalived
centos 7 saltstack haproxy keepalivedmaster node 10.10.10.1 minion node 10.10.10.2# cat /etc/salt/master |grep -v "#" |grep -v "^ *$"interface:
Centos 7 Saltstack自動化部署weblogic 12c
centos7 saltstack weblogic12c 自動化部署域 集群 受管。 # pwd/etc/salt/base# tree cluster/cluster/├── files│ ├── creat.rsp -------------1│ ├──
SaltStack自動化部署Kubernetes v1.9.3版本----Dashboard
docker k8s kubernetes [root@linux-node1 coredns]# pwd/srv/addons/coredns [root@linux-node1 srv]# cd addons/[root@linux-node1 addons]# lscoredns dash
自動化部署之SaltStack
pre init 6 tap 消息隊列 devel -418 註釋 安裝 grep -v SaltStack原理 SaltStack由Master和Minion構成,Master 是服務端, 表示一臺服務器;Minion是客戶服務端,表示多臺服務器。在Master上發送命
openstack Queens版企業雲自動化部署(openvswith+vxlan)
數據 dash fff 就是 tex 網絡 term 最新版 均衡 openstack開源社區最新版本Q版本相比之前版本增加了許多新的功能,例如地址中繼,集群,以及負載均衡在dashboard中做了集成,網絡方面相比之前做了很大的變化,所以很多小夥版在安裝的時候在網絡地方出
openstack Q版本自動化部署課程直播通知
images watermark alt mark 畫面 process ESS 聲音 技術 自昨天openstackQ版課程上線之後,有很多小夥伴在解答區域留言問能否搞一次openstackQ課程直播,解答大家在部署openstack中常見的問題,思前想後決定在九月份給大
部署 SaltStack 自動化運維工具,並簡易批量安裝 httpd 服務
SaltStack 介紹 SaltStack 是一個基於 Python 開發的一套架構配置管理工具,採用 C/S模式,server端就是salt的master,client端就是minion,minion與master之間通過ZeroMQ訊息佇列通訊。master監聽4505和4506埠,4505為mas
自動化部署openstack
這篇文章主要是通過基於devstack進行自動化部署,後續會通過解析這個部署指令碼的原始碼的形式,學習openstack的部署,同時一步步閱讀openstack其他服務的原始碼,比如keystone、nvoa等,一步步深入。學習這個框架個人覺得,閱讀原始碼
Openstack學習筆記(八)-使用Devstack自動化部署openstack重啟指令碼
#!/usr/bin/env bash # restart the interfaces sudo /etc/init.d/networking restart # close previrous screen SCREEN=$(which screen)
openstack學習筆記(四)-使用devstack自動化部署openstack的實驗環境
devstack 是一套用來給開發人員快速部署Openstack開發環境的指令碼,其實對於整個安裝過程沒有什麼好說的,因為指令碼寫的很完善,安裝過程沒有難度,安裝的速度取決於自身的網路情況。 實驗環境:Ubuntu 14.04 LTS 64 1、安裝git
SaltStack一鍵自動化部署高可用負載均衡叢集
本節內容涉及的saltstack配置以及各服務的安裝包和配置檔案均打包上傳到了百度雲,可自由下載使用 實驗環境(rhel6.5 x86_64bit virtual machine) 172.25.5.91 salt-master rhel65-lockey1
使用Fuel自動化部署Openstack
Openstack自動化部署工具, 主要用於生產環境. 這裡用的是Openstack 9.0版本. 安裝Xshell, 用於遠端連線. 1. 使用指令碼安裝 (1) 安裝 Download the Mirantis VirtualBox
saltstack自動化部署haproxy實現nginx的負載均衡
實驗環境 準備三臺主機 master: 172.25.11.9 server9 rhel6.5 haproxy minion: 172.25.11.10 server10 rhel6.5 httpd m
基於saltstack自動化部署高可用kubernetes集群
內核模塊 .com state.sls nio nginx 插件 perl oot mono SaltStack自動化部署HA-Kubernetes 本項目在GitHub上,會不定期更新,大家也可以提交ISSUE,地址為:https://github.com/skym
運維自動化之Saltstack使用詳解
自動化運維 saltstack 概要saltstack是基於Python開發的C/S架構的一款批量管理工具,底層采用動態的連接總線(ZeroMQ消息隊列pub/sub方式通信),使用ssl證書簽發的方式進行認證管理,使其可以用於編配, 遠程執行, 配置管理等等。部署輕松,在幾分鐘內可運行起來,擴展性好
linux下使用shell腳本自動化部署項目
href -s itl 地址 home ref ont cin 9.png 在Java開發項目時經常要把正在開發的項目發布到測試服務器中去測試,一般的話是要把項目先打成war包,然後把war包發布到服務器中,關閉服務器, 最後重新啟動服務器,雖然這過程不是很繁瑣,但如果是多