模擬百萬PV架構
阿新 • • 發佈:2018-08-04
then -h 異常情況 $path iss 如果 localhost 頁面 jre_home 案例
本案例設計采用四層模式實現,主要分為前端反向代理層,web層,數據庫緩存層和數據庫層。前端反向代理層采用主備模式,web層采用集群模式,數據庫緩存層采用主備模式,數據庫層采用主從模式。
拓撲圖如下。 實線是正常情況下的數據流向連接,虛線是異常情況下的數據流向連接
前端反向代理服務器配置
安裝帶有nginx rpm軟件包的源 rpm -ivh http://nginx.org/packages/centos/7/noarch/RPMS/nginx-release-centos-7-0.el7.ngx.noarch.rpm yum install keepalived nginx -y vim /etc/keepalived/keepalived.conf global_defs { route_id NGINX_HA ##主從服務器的ID不同 } vrrp_script nginx { ##設置腳本 script "/opt/shell/nginx.sh" interval 2 ##間隔2秒 } vrrp_instance VI_1 { state MASTER ##主為MASTER,從為BACKUP interface ens33 virtual_router_id 51 priority 100 ##優先級,主的高於從 advert_int 1 authentication { auth_type PASS auth_pass 1111 } track_script { ##運行腳本 nginx } virtual_ipaddress { 192.168.x.x ##設置內網虛擬IP和外網虛擬IP x.x.x.x } } mkdir /opt/shell vi /opt/shell/nginx.sh ##創建腳本,此腳本的目的是當keepalived啟動的時候,nginx同時啟動,且如果不關閉keepalived,nginx同樣無法關閉 #!/bin/bash k=`ps -ef | grep keepalived | grep -v grep | wc -l` if [ $k -gt 0 ];then /bin/systemctl start nginx.service else /bin/systemctl stop nginx.service fi chmod +x /opt/shell/nginx.sh ##給予腳本運行權限 接下來配置NGINX 的調度功能 vim /etc/nginx/nginx.conf 在http中添加 upstream tomcat_pool { server 192.168.x.x:8080; server 192.168.x.x:8080; ##兩臺tomcat的地址 ip_hash; #會話穩固功能,如果不用這條,需要另外做session共享 } server { listen 80; server_name 192.168.x.x; #虛擬IP location / { proxy_pass http://tomcat_pool; proxy_set_header X-Real-IP $remote_addr; } } nginx -t -c /etc/nginx/nginx.conf ##測試配置文件語法 systemctl start keepalived.service ##nginx也會被打開
tomcat配置(兩臺相同)
tar xf apache-tomcat-8.5.23.tar.gz tar xf jdk-8u144-linux-x64.tar.gz cp -rv jdk1.8.0_144/ /usr/local/java vi /etc/profile export JAVA_HOME=/usr/local/java export JRE_HOME=/usr/local/java/jre export PATH=$PATH:/usr/local/java/bin export CLASSPATH=./:/usr/local/java/lib:/usr/local/java/jre/lib source /etc/profile ##使系統識別java 輸入 java -version 能看到版本號說明完成 cp -r apache-tomcat-8.5.23 /usr/local/tomcat8 ln -s /usr/local/tomcat8/bin/startup.sh /usr/bin/tomcatup ##啟動tomcat ln -s /usr/local/tomcat8/bin/shutdown.sh /usr/bin/tomcatdown ##關閉tomcat netstat -anpt | grep 8080 ## 看到8080 服務開啟成功 通過客戶端訪問 http://192.168.x.x:8080 ##測試默認測試頁是否正常顯示 vi /usr/local/tomcat8/webapps/ROOT/index.jsp ##修改默認網頁內容 輸入調度服務器(虛擬IP) 地址,測試兩臺節點服務器的調度情況。 vim /usr/local/tomcat8/conf/server.xml 在<Host name="localhost" appBase="webapps" unpackWARs="true" autoDeploy="true"> 下插入 <Context path="" docBase="SLSaleSystem" reloadable="true" debug="0"></Context> ##日誌調試信息debug為0表示信息越少,docBase指定訪問目錄
mysql安裝
由於是模擬架構,本篇mysql用mariadb代替 yum install -y mariadb-server mariadb systemctl start mariadb.service systemctl enable mariadb.service netstat -anpt | grep 3306 mysql_secure_installation ##常規安全設置 ----------導入數據庫----------- mysql -u root -p < xxxx.sql ##導入商城網站數據庫 mysql -uroot -p show databases; ##確定導入成功 GRANT all ON xxxx.* TO ‘root‘@‘%‘ IDENTIFIED BY ‘abc123‘; ##給數據庫授權 flush privileges; ##刷新數據 ----------------以下在兩臺tomcat節點做---------------- tar xf SLSaleSystem.tar.gz -C /usr/local/tomcat8/webapps/ cd /usr/local/tomcat8/webapps/SLSaleSystem/WEB-INF/classes vi jdbc.properties ##修改數據庫IP地址是VRRP的虛擬IP,以及授權的用戶名root和密碼abc123。 ------------網站測試------ http://192.168.x.x:8080/ ##默認的用戶名admin 密碼:123456 http://192.168.x.x ##輸入虛擬地址測試登錄,並且關閉主再測試登錄
redis集群
yum install redis -y
vi /etc/redis.conf
bind 0.0.0.0 ##修改
systemctl start redis.service
redis-cli -h 192.168.x.x -p 6379 ##測試連接
192.168.x.x:6379> set name test ##設置name 值是test
192.168.x.x:6379> get name ##獲取name值
在從服務器上
266 slaveof 192.168.x.x 6379 ##主服務器的IP不是虛擬IP
redis-cli -h 192.168.x.x -p 6379 ##登錄從,如能成功獲取主上設置的值,說明主從同步成功
192.168.x.x:6379> get name
"test"
-------------配置商城項目中連接redis的參數---
vi /usr/local/tomcat8/webapps/SLSaleSystem/WEB-INF/classes/applicationContext-mybatis.xml
<!--redis 配置 開始-->
<constructor-arg value="192.168.x.x"/> ##虛擬IP
<constructor-arg value="6379"/>
------------以下測試緩存效果-----
redis-cli -h 192.168.x.x -p 6379 ##虛擬IP
192.168.175.188:6379> info
keyspace_hits:1 或者 keyspace_misses:2 ##關註這個值,命中數和未命中數
登錄商城,然後反復點擊需要數據庫參與的操作頁面,再回來檢查keyspace_hits或者keyspace_misses: 值變化。
---------以下配置redis集群主從切換---只在主服務器是操作--------
vi /etc/redis-sentinel.conf
protected-mode no
sentinel monitor mymaster 192.168.x.x 6379 1 ##1表示1臺從 註意:修改
sentinel down-after-milliseconds mymaster 3000 ##故障切換時間單位是毫秒
service redis-sentinel start ##啟動集群
netstat -anpt | grep 26379
redis-cli -h 192.168.x.x -p 26379 info Sentinel ##查看集群信息
mysql 主從
在主 和 從mysql服務器上
vim /etc/my.cnf
[mysqld]
binlog-ignore-db=mysql,information_schema
character_set_server=utf8
log_bin=mysql_bin
server_id=1 ## 主從服務器的 server_id 不相同
log_slave_updates=true
sync_binlog=1
systemctl restart mysqld
在 主MYSQL上 為 從服務器授予權限
mysql -u root -p
grant replication slave on *.* to ‘replication‘@‘192.168.x.%‘ identified by ‘123456‘;
show master status;
+-------------------+----------+--------------+------------------+
| File | Position | Binlog_Do_DB | Binlog_Ignore_DB |
+-------------------+----------+--------------+------------------+
| master-bin.000002 | 335 | | |
+-------------------+----------+--------------+------------------+
在從服務器上
mysql -u root -p
change master to master_host=‘192.168.x.x‘,master_user=‘replication‘,master_password=‘123456‘,master_log_file=‘mysql_bin.000002‘,master_log_pos=335;
start slave;
show slave status \G;
Slave_IO_Running: Yes
Slave_SQL_Running: Yes
## 出現這兩條YES 則說明 MYSQL主從復制完成
全部服務安裝完成
本案例數據庫的架構簡單了一點,配置文件也是默認的沒有經過優化,如果數據庫的壓力很大,可以考慮優化,也可以使用讀寫分離架構,或者采用多主多從模式。
模擬百萬PV架構