PostgreSQL、Greenplum 日常監控 和 維護任務
標籤
PostgreSQL , Greenplum , Recommended Monitoring and Maintenance Tasks , 監控 , 維護
背景
Greenplum的日常監控點、評判標準,日常維護任務。
展示圖層
由於一臺主機可能跑多個例項,建議分層展示。
另外,即使是ON ECS虛擬機器(一個虛擬機器一個例項一對一的形態)的產品形態,實際上也建議分層展示,以示通用性。
主機級圖層
1、全域性
2、以叢集分組
展示圖形
1、餅圖(正常、警告、嚴重錯誤、不可用,佔比,數量)
2、熱力圖(每臺主機一個點,顏色描繪正常、警告、嚴重錯誤、不可用)
3、列表(正常、警告、嚴重錯誤、不可用倒排,TOP 主機)
例項級圖層
1、全域性
2、以叢集分組
展示圖形
1、餅圖(正常、警告、嚴重錯誤、不可用,佔比,數量)
2、熱力圖(每例項一個點,顏色描繪正常、警告、嚴重錯誤、不可用)
3、列表(正常、警告、嚴重錯誤、不可用倒排,TOP 例項)
明細圖層
全域性、分組 -> 主機、例項 -> 主機、資料庫例項明細監控指標
全域性、分組 -> 主機 -> 例項 -> 資料庫例項明細監控指標
資料庫狀態監控
監控叢集的健康狀態。
1、列出當前down的segment節點。
檢查方法:
連線到postgres資料庫,執行:
SELECT * FROM gp_segment_configuration
WHERE status <> 'u';
判斷方法:
有返回,表示該segment已經down了。
事件級別:
warning。
如果有mirror節點,不影響使用。
重要程度:
重要。
監控頻率:
5-10分鐘。
處理方法:
1、檢查DOWN segment主機是否正常。
2、檢查DOWN segment的primary, mirror節點的pg_log日誌。找出原因。
3、如果沒有異常,使用gprecoverseg把DOWN的節點拉起來。
2、列出當前處於change tracking的segment節點。
檢查方法:
連線到postgres資料庫,執行:
SELECT * FROM gp_segment_configuration
WHERE mode = 'c';
判斷方法:
如果有記錄返回,表示有處於change tracking的segment。
事件級別:
warning。
重要程度:
重要
監控頻率:
5-10分鐘。
處理方法:
1、檢查DOWN segment主機是否正常。
2、檢查DOWN segment的primary, mirror節點的pg_log日誌。找出原因。
3、如果沒有異常,使用gprecoverseg把DOWN的節點拉起來。
3、列出當前處於re-syncing狀態的segment節點。
檢查方法:
連線到postgres資料庫,執行:
SELECT * FROM gp_segment_configuration
WHERE mode = 'r';
需要加入時間條件。判斷是否長時間處於r狀態。
判斷方法:
如果有記錄返回,表示有處於re-syncing的segment。
事件級別:
warning。
重要程度:
重要
監控頻率:
5-10分鐘。
處理方法:
如果節點很長時間處於re-synched狀態。檢查SEGMENT的primary, mirror節點的pg_log,排查錯誤。
4、列出當前角色未處於優先角色的節點的segment節點。
檢查方法:
連線到postgres資料庫,執行:
SELECT * FROM gp_segment_configuration
WHERE preferred_role <> role;
判斷方法:
如果有記錄返回,表示當前叢集可能處於not balanced狀態。
事件級別:
warning。
重要程度:
重要
監控頻率:
5-10分鐘。
處理方法:
如果當前叢集處於not balanced狀態,某個主機的primary節點可能更多,負擔較重,影響效能。
建議找到維護視窗,重啟資料庫叢集。
5、檢測所有節點是否可達,確保QD(query dispatching)正常。
檢查方法:
連線到postgres資料庫,執行:
SELECT gp_segment_id, count(*)
FROM gp_dist_random('pg_class')
GROUP BY 1;
判斷方法:
正常情況下,每個節點返回一條記錄,如果執行失敗,表示有不可達的segment,執行SQL是QD階段會失敗。
事件級別:
critical。
重要程度:
嚴重
監控頻率:
5-10分鐘。
處理方法:
如果查詢失敗,表示某些segment節點的QD異常,這是一個罕見錯誤。需要檢查異常節點(不能觸及的segments)的硬體、網路是否正常。
6、列出當前異常的master standby節點。
檢查方法:
連線到postgres資料庫,執行:
SELECT summary_state
FROM gp_master_mirroring;
判斷方法:
返回Not Synchronized時,表示master standby異常。
事件級別:
warning。
重要程度:
重要。
監控頻率:
5-10分鐘。
處理方法:
檢查master, standby的pg_log,是否有錯誤日誌,針對性修復。
如果沒有unexpected錯誤,並且機器正常。那麼使用gpinitstandby修復standby。
GPDB 4.2以及以前的版本,需要重啟GPDB叢集。
7、列出當前down的segment節點。
檢查方法:
連線到postgres資料庫,執行:
SELECT procpid, state FROM pg_stat_replication;
判斷方法:
如果state不是'STREAMING',或者沒有記錄返回,那麼說明master standby節點異常。
事件級別:
warning。
重要程度:
重要
監控頻率:
5-10分鐘。
處理方法:
檢查master, master standby節點的pg_log是否有異常日誌。
如果沒有unexpected錯誤,並且機器正常。那麼使用gpinitstandby修復standby。
GPDB 4.2以及以前的版本,需要重啟GPDB叢集。
8、檢查master節點是否up並正常提供服務。
檢查方法:
連線到postgres資料庫,執行:
SELECT count(*) FROM gp_segment_configuration;
判斷方法:
QUERY正常返回,表示master節點正常。
事件級別:
critical。
重要程度:
嚴重
監控頻率:
5-10分鐘。
處理方法:
如果這個QUERY不能正常執行,說明active master節點可能DOWN了。
重試若干次,如果都異常,關閉active master(一定要確保關閉無誤),切換到standby master。
列出master, segment, standby, mirror狀態的其他方法
使用命令查詢master, segment, standby, mirror狀態
1、master和segment狀態
gpstate
或
gpstate -s
2、segment mirror狀態
gpstate -m
3、primary和mirror mapping狀態
gpstate -c
4、master standby狀態
gpstate -f
資料庫告警日誌監控
1、列出FATAL and ERROR級別的錯誤日誌。
檢查方法:
方法1,在安裝了gpperfmon元件的情況下
連線到gpperfmon資料庫,執行:
SELECT * FROM log_alert_history
WHERE logseverity in ('FATAL', 'ERROR')
AND logtime > (now() - interval '15 minutes');
方法2,檢視所有節點(master, standby master, primary, mirror segments)的pg_log。過濾FATAL and ERROR級別的錯誤日誌。
方法3,檢視這些系統檢視
List of relations
Schema | Name | Type | Owner | Storage
------------+------------------------+------+----------+---------
gp_toolkit | gp_log_command_timings | view | digoal | none -- 統計
gp_toolkit | gp_log_database | view | digoal | none -- 這個包含當前資料庫日誌
gp_toolkit | gp_log_master_concise | view | digoal | none -- 統計
gp_toolkit | gp_log_system | view | digoal | none -- 這個包含所有日誌
(4 rows)
實際上gp_log_system是一個command外部表,列出了所有segment, master的csvlog的內容。
View definition:
SELECT __gp_log_segment_ext.logtime, __gp_log_segment_ext.loguser, __gp_log_segment_ext.logdatabase, __gp_log_segment_ext.logpid, __gp_log_segment_ext.logthread, __gp_log_segment_ext.loghost, __gp_log_segment_ext.logport, __gp_log_segme
nt_ext.logsessiontime, __gp_log_segment_ext.logtransaction, __gp_log_segment_ext.logsession, __gp_log_segment_ext.logcmdcount, __gp_log_segment_ext.logsegment, __gp_log_segment_ext.logslice, __gp_log_segment_ext.logdistxact, __gp_log_seg
ment_ext.loglocalxact, __gp_log_segment_ext.logsubxact, __gp_log_segment_ext.logseverity, __gp_log_segment_ext.logstate, __gp_log_segment_ext.logmessage, __gp_log_segment_ext.logdetail, __gp_log_segment_ext.loghint, __gp_log_segment_ext.
logquery, __gp_log_segment_ext.logquerypos, __gp_log_segment_ext.logcontext, __gp_log_segment_ext.logdebug, __gp_log_segment_ext.logcursorpos, __gp_log_segment_ext.logfunction, __gp_log_segment_ext.logfile, __gp_log_segment_ext.logline,
__gp_log_segment_ext.logstack
FROM ONLY gp_toolkit.__gp_log_segment_ext
UNION ALL
SELECT __gp_log_master_ext.logtime, __gp_log_master_ext.loguser, __gp_log_master_ext.logdatabase, __gp_log_master_ext.logpid, __gp_log_master_ext.logthread, __gp_log_master_ext.loghost, __gp_log_master_ext.logport, __gp_log_master_ext.l
ogsessiontime, __gp_log_master_ext.logtransaction, __gp_log_master_ext.logsession, __gp_log_master_ext.logcmdcount, __gp_log_master_ext.logsegment, __gp_log_master_ext.logslice, __gp_log_master_ext.logdistxact, __gp_log_master_ext.logloc
alxact, __gp_log_master_ext.logsubxact, __gp_log_master_ext.logseverity, __gp_log_master_ext.logstate, __gp_log_master_ext.logmessage, __gp_log_master_ext.logdetail, __gp_log_master_ext.loghint, __gp_log_master_ext.logquery, __gp_log_mas
ter_ext.logquerypos, __gp_log_master_ext.logcontext, __gp_log_master_ext.logdebug, __gp_log_master_ext.logcursorpos, __gp_log_master_ext.logfunction, __gp_log_master_ext.logfile, __gp_log_master_ext.logline, __gp_log_master_ext.logstack
FROM ONLY gp_toolkit.__gp_log_master_ext
ORDER BY 1;
postgres=# \d+ gp_toolkit.__gp_log_segment_ext
External table "gp_toolkit.__gp_log_segment_ext"
Column | Type | Modifiers | Storage | Description
----------------+--------------------------+-----------+----------+-------------
logtime | timestamp with time zone | | plain |
loguser | text | | extended |
logdatabase | text | | extended |
logpid | text | | extended |
logthread | text | | extended |
loghost | text | | extended |
logport | text | | extended |
logsessiontime | timestamp with time zone | | plain |
logtransaction | integer | | plain |
logsession | text | | extended |
logcmdcount | text | | extended |
logsegment | text | | extended |
logslice | text | | extended |
logdistxact | text | | extended |
loglocalxact | text | | extended |
logsubxact | text | | extended |
logseverity | text | | extended |
logstate | text | | extended |
logmessage | text | | extended |
logdetail | text | | extended |
loghint | text | | extended |
logquery | text | | extended |
logquerypos | integer | | plain |
logcontext | text | | extended |
logdebug | text | | extended |
logcursorpos | integer | | plain |
logfunction | text | | extended |
logfile | text | | extended |
logline | integer | | plain |
logstack | text | | extended |
Type: readable
Encoding: UTF8
Format type: csv
Format options: delimiter ',' null '' escape '"' quote '"'
Command: cat $GP_SEG_DATADIR/pg_log/*.csv
Execute on: all segments
postgres=# \d+ gp_toolkit.__gp_log_master_ext
External table "gp_toolkit.__gp_log_master_ext"
Column | Type | Modifiers | Storage | Description
----------------+--------------------------+-----------+----------+-------------
logtime | timestamp with time zone | | plain |
loguser | text | | extended |
logdatabase | text | | extended |
logpid | text | | extended |
logthread | text | | extended |
loghost | text | | extended |
logport | text | | extended |
logsessiontime | timestamp with time zone | | plain |
logtransaction | integer | | plain |
logsession | text | | extended |
logcmdcount | text | | extended |
logsegment | text | | extended |
logslice | text | | extended |
logdistxact | text | | extended |
loglocalxact | text | | extended |
logsubxact | text | | extended |
logseverity | text | | extended |
logstate | text | | extended |
logmessage | text | | extended |
logdetail | text | | extended |
loghint | text | | extended |
logquery | text | | extended |
logquerypos | integer | | plain |
logcontext | text | | extended |
logdebug | text | | extended |
logcursorpos | integer | | plain |
logfunction | text | | extended |
logfile | text | | extended |
logline | integer | | plain |
logstack | text | | extended |
Type: readable
Encoding: UTF8
Format type: csv
Format options: delimiter ',' null '' escape '"' quote '"'
Command: cat $GP_SEG_DATADIR/pg_log/*.csv
Execute on: master segment
欄位解釋
Field Name | Data Type | Description |
---|---|---|
event_time | timestamp with time zone | Time that the log entry was written to the log |
user_name | varchar(100) | The database user name |
database_name | varchar(100) | The database name |
process_id | varchar(10) | The system process ID (prefixed with "p") |
thread_id | varchar(50) | The thread count (prefixed with "th") |
remote_host | varchar(100) | On the master, the hostname/address of the client machine. On the segment, the hostname/address of the master. |
remote_port | varchar(10) | The segment or master port number |
session_start_time | timestamp with time zone | Time session connection was opened |
transaction_id | int | Top-level transaction ID on the master. This ID is the parent of any subtransactions. |
gp_session_id | text | Session identifier number (prefixed with "con") |
gp_command_count | text | The command number within a session (prefixed with "cmd") |
gp_segment | text | The segment content identifier (prefixed with "seg" for primaries or "mir" for mirrors). The master always has a content ID of -1. |
slice_id | text | The slice ID (portion of the query plan being executed) |
distr_tranx_id | text | Distributed transaction ID |
local_tranx_id | text | Local transaction ID |
sub_tranx_id | text | Subtransaction ID |
event_severity | varchar(10) | Values include: LOG, ERROR, FATAL, PANIC, DEBUG1, DEBUG2 |
sql_state_code | varchar(10) | SQL state code associated with the log message |
event_message | text | Log or error message text |
event_detail | text | Detail message text associated with an error or warning message |
event_hint | text | Hint message text associated with an error or warning message |
internal_query | text | The internally-generated query text |
internal_query_pos | int | The cursor index into the internally-generated query text |
event_context | text | The context in which this message gets generated |
debug_query_string | text | User-supplied query string with full detail for debugging. This string can be modified for internal use. |
error_cursor_pos | int | The cursor index into the query string |
func_name | text | The function in which this message is generated |
file_name | text | The internal code file where the message originated |
file_line | int | The line of the code file where the message originated |
stack_trace | text | Stack trace text associated with this message |
判斷方法:
1、排查業務邏輯錯誤、資源限制錯誤、資料庫核心層面的嚴重錯誤。
2、對於業務邏輯錯誤,建議在QUERY時過濾,避免日誌過多。
3、關注資源限制、核心錯誤。
4、錯誤程式碼和解釋參考
SQL Standard Error Codes
Table 4. SQL Codes
事件級別:
warning。
重要程度:
重要
監控頻率:
15分鐘。
處理方法:
建立每種嚴重錯誤的處理方法。
2、SNMP設定,事件自動通知設定。
相關引數
gp_email_smtp_server
gp_email_smtp_userid
gp_email_smtp_password or gp_snmp_monitor_address
gp_snmp_community
gp_snmp_use_inform_or_trap
硬體和作業系統監控
1、檢查異常的主機、作業系統。
檢查方法:
Set up SNMP or other system check for hardware and OS errors.
監控硬體錯誤:
檢查/var/log/mcelog日誌檔案的內容,如果有資訊,說明該機器出現過硬體錯誤。
監控dmesg異常,例如Out of memory。
檢查/var/log/dmesg日誌檔案的內容.
判斷方法:
判斷被檢查檔案的內容,是否出現過異常。
/var/log/mcelog
/var/log/dmesg
事件級別:
critical
重要程度:
嚴重
監控頻率:
15分鐘。
處理方法:
如果有硬體錯誤或者不可修復的軟體錯誤,建議更換機器。
新增新機器到叢集,使用gprecoverseg重建segment,或者使用gpinitstandby修復standby master。
2、列出磁碟使用率。
檢查方法:
du -sh $dir
或
SELECT * FROM gp_toolkit.gp_disk_free ;
判斷方法:
資料盤:建議達到80%時warning,90%時critical。
日誌、臨時檔案盤:建議達到60%時warning,80%時critical。
事件級別:
critical
重要程度:
嚴重
監控頻率:
5-30分鐘
處理方法:
擴容、清資料、清WAL或臨時檔案。
3、網路監測。
檢查方法:
ifconfig
判斷方法:
ethx: flags=5187<UP,BROADCAST,RUNNING,MASTER,MULTICAST> mtu 1500
inet xxx.xxx.xxx.xxx netmask xxx.xxx.xxx.xxx broadcast xxx.xxx.xxx.xxx
ether xxxxxxxxxxx txqueuelen 0 (Ethernet)
RX packets 611100787 bytes 184118991357 (171.4 GiB)
RX errors 0 dropped 489309 overruns 0 frame 0
TX packets 580090906 bytes 71626153522 (66.7 GiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
檢查droped, errors的數量,如果除以packets比例超過某個閾值,說明丟包或者錯誤嚴重。告警。
事件級別:
warning。
重要程度:
重要
監控頻率:
小時
處理方法:
Work with network and OS teams to resolve errors.
4、儲存硬體錯誤。
檢查方法:
根據RAID卡廠商、SSD廠商提供的檢測工具。
smartclt命令。
如果是btrfs, zfs, lvm, md類管理的儲存,這些工具也可以檢測軟raid的健康狀態。
檢測是否異常。
注意,某些檢測可能會導致IO堵塞(雖然很短暫),但是也許會比較嚴重。建議和廠商確認監測命令的堵塞性。
判斷方法:
根據廠商提供的方法。
事件級別:
critical。
重要程度:
嚴重
監控頻率:
5分鐘。
處理方法:
對於RAID儲存,替換壞盤。
對於非RAID或R10儲存,替換主機。
5、列出硬體、作業系統核心的不正確配置。
檢查方法:
gpcheck
判斷方法:
根據gpcheck的輸出進行判斷。
事件級別:
critical
重要程度:
嚴重
監控頻率:
安裝叢集時測試一次即可。
處理方法:
根據gpdb的推薦,設定正確的配置。
6、檢測叢集的硬體效能極限。
檢查方法:
gpcheckperf
判斷方法:
檢查叢集的io, 網路的效能,判斷是否有效能傾斜。
事件級別:
critical
重要程度:
嚴重
監控頻率:
安裝叢集時測試一次即可。
處理方法:
建議單機的磁碟讀寫總頻寬、網路頻寬匹配。
例如有8塊盤,每塊盤125MB/s的讀寫頻寬,網絡卡為10GiB。
磁碟總頻寬約1 GB/s,與網絡卡頻寬1.25GB/s匹配。
The cluster may be under-specified if data transfer rates are not similar to the following:
2 GB per second disk read
1 GB per second disk write
10 Gigabit per second network read and write
If transfer rates are lower than expected, consult with your data architect regarding performance expectations.
If the machines on the cluster display an uneven performance profile, work with the system administration team to fix faulty machines.
系統表監控
1、檢查master, segment的catalog一致性。
檢查方法:
對每一個數據庫執行:
相關推薦
PostgreSQL、Greenplum 日常監控 和 維護任務
原文地址 標籤 PostgreSQL , Greenplum , Recommended Monitoring and Maintenance Tasks , 監控 , 維護 背景 Greenplum的日常監控點、評判標準,日常維護任務。 展示圖層 由於一
數據庫 之 Mysql復制的監控和維護
清理 nds 需要 命令 -c 自動更新 概率 sla cond (1) 清理日誌:PURGE ,刪除二進制文件,不能直接物理刪除,否則重啟mysql服務可能會導致各種異常,需要使用命令PURGE進行刪除,因為mysql重啟後,就不會再找對應的文件,使用purge命令刪除會
linux Vim編輯器、shell指令碼、流程控制語句和計劃任務
本章主要講解shell指令碼,vim編輯器 1. 強制儲存退出 wq! 2. 查詢主機名稱 hostname 3. 在vim中常用的命令 dd刪除游標所在行;5dd刪除自游標所在行開始往下數五行;yy複製游標所在行;5yy複製自游標所在行開始往下數5行內容;n顯示搜尋命令定位到下一個字串
日常檢查和維護資料庫
1.檢日誌查作業系統 more /var/log/messages 記錄作業系統常見的系統和服務錯誤資訊 more /var/log/lastlog 使用者最後一次登入的時間,登入IP more /var/log/secure 記錄使用者和工作組變化情況,使用者登入認證情況
Linux DNS 服務器安裝、配置和維護
web med this 包含 從右到左 主域 回復 特定 mini 每個 IP 地址都可以有一個主機名,主機名由一個或多個字符串組成,字符串之間用小數點隔開。有了主機名,就不要死記硬背每臺 IP 設備的 IP 地址,只要記住相對直觀有意義的主機名就行了。這就是 DNS 協
監控和剖析數據庫操作 -- P6Spy、SQL Profiler、IronTrack SQL 使用簡介
訪問 重新開始 war isp 調優 include 傳統 數據庫服務 過濾 在我們 Java 開發應用程序的過程中,難免會碰到系統的性能問題,特別在企業應用的開發過程中,都會與數據庫進行打交道。當我們碰到數據庫性能時,最有效的就是直接跟蹤每一個 SQL 語句的執行情況,S
[C#][代碼收集] - 利用開源的TaskScheduler組件實現監控和管理windows計劃任務
span releases [] log code str 示例 schedule 調度框架 [轉載] - 軟件人生 - 利用開源的TaskScheduler組件實現監控和管理windows計劃任務 [編輯] 對於計劃任務的執行有很多種解決方案,如利用開源Quartz作業調
zabbix的主動模式和被動模式、添加監控主機、添加自定義模板、處理圖形中的亂碼、自動發現
roo 清理 瀏覽器 間隔 原型 fin 監測 9.png sim 主動模式和被動模式 主動或者被動是相對客戶端來講的 被動模式,服務端會主動連接客戶端獲取監控項目數據,客戶端被動地接受連接,並把監控信息傳遞給服務端 主動模式,客戶端會主動把監控數據匯報給服務端,服務
主動模式和被動模式、添加監控主機、添加自定義模板、自動發現
自定義模板 上傳 點擊 中文 path face pla interface 文字 19.7 主動模式和被動模式 主動或被動是相對客戶端來講的 被動模式,服務端會主動連接客戶端獲取監控項目數據,客戶端被動地接收連接,並把監控信息傳遞給服務端 主動模式,客戶端會主動把監控數
linux監控平臺搭建(2)主動和被動模式、添加監控主機、添加自定義模板、處理圖形亂碼、自動發現
添加監控主機 主動和被動模式 添加主機添加主機:1.添加主機群組:2.添加主機:點擊主機-->創建主機(1)應用集:是監控項的集合(如:cpu的集合,內存的集合)(2)監控項:監控的項目(cpu,內存)(3)觸發器:對監控項設定的告警規則,和告警級別。(4)圖形
六十五、主動模式和被動模式、添加監控主機、添加自定義模板、處理圖形中的亂碼、自動發現
監控主機 自定義模板 圖形亂碼 自動發現 六十五、主動模式和被動模式、添加監控主機、添加自定義模板、處理圖形中的亂碼、自動發現一、主動模式和被動模式主動或者被動是相對客戶端來講的被動模式,服務端會主動連接客戶端獲取監控項目數據,客戶端被動地接受連接,並把監控信息傳遞給服務端主動模式,客戶端會主
66.主動模式和被動模式、添加監控主機、添加自定義模板、處理圖形中的亂碼、自動發現
主動模式和被動模式 添加監控主機 添加自定義模板 處理圖形中的亂碼 一、主動模式和被動模式 主動或者被動是相對客戶端來講的 被動模式,服務端會主動連接客戶端獲取監控項目數據,客戶端被動地接受連接,並把監控信息傳遞給服務端 主動模式,客戶端會主動把監控數據匯報給服務端,服務端只負責接收即可。
主動模式和被動模式、添加監控主機、添加自定義的模板、處理圖形中的亂碼、自動發現
外網 數據 font 桌面 分享圖片 code mark bfc temp 主動模式和被動模式 ?主動或者被動是相對客戶端來講的 ?被動模式,服務端會主動連接客戶端獲取監控項目數據,客戶端被動地接受連接,並把監控信息傳遞給服務端 ?主動模式,客戶端會主動把監控數據匯報給服務
Linux centosVMware 主動模式和被動模式、添加監控主機、添加自定義模板、處理圖形中的亂碼、自動發現
php work linu 數量 family image -s system 建議 一、主動模式和被動模式 主動或者被動是相對客戶端來講的 被動模式,服務端會主動連接客戶端獲取監控項目數據,客戶端被動地接受連接,並把監控信息傳遞給服務端 主動模式,客戶端會主動把監控
主動模式和被動模式、添加監控主機、添加自定義模板、處理圖形中的亂碼、自動發現
clu 分享圖片 解決亂碼 available watermark run agentd linu 刪除 主動模式和被動模式 添加監控主機 到web界面的監控中心進行配置添加主機之前先建立主機群組 再添加主機,主機名稱和可見名稱都寫hanshuo-02(在客戶
大規模服務設計部署經驗談(7) | 稽核、監控和預警
7 稽核、監控和預警 運營團隊不能在部署環境中裝配服務。要在部署過程中付出實質性的努力,以確保系統中的每個元件都可以生成效能資料
Linux的程序管理、檢視、殺死程序、任務管理、系統資源監控(課堂學習筆記)
一、程序管理 1.檢視Linux啟動的第一個程序 2.檢視程序狀態 2.1觀察系統所有程式:ps aux 2.2檢視部分程序 2.3啟動httpd服務 2.4程序樹(可以檢視父程序與子程序) 二、檢視程序 1.Linux程序狀態 2.觀察程序
安裝PostgreSQL、KONG和KONGA
提示:Redhat 的yum命令需要先註冊收費才能使用, 使用CentOS。進入CentOS官方網站 http://www-centos-org,下載。 DVD ISO:此映象型別為普通光碟安裝版,可離線安裝到計算機硬碟上,包含大量的常用軟體,一般選擇這種映象型別即可。 Everythi
mysql修改表結構 MySQL修改表結構操作命令總結 MySql資料庫在表中新增新欄位,設定主鍵,設定外來鍵,欄位移動位置,以及修改資料庫後如何進行部署和維護的總結 mysql 如何修改、新增、刪除表主鍵
MySQL修改表結構操作命令總結 以下內容轉自:http://www.jb51.net/article/58079.htm 表的結構如下: 複製程式碼程式碼如下:
JavaScript事件輪詢、微任務和巨集任務
JavaScript是單執行緒語言,也就是說同一個事件只能做一件事。雖然HTML5提出了Web Worker,允許JavaScript指令碼建立多個執行緒,但是子執行緒完全受主執行緒控制,且不得操作DOM和BOM。所以,依然沒有改變JavaScript是單執行緒的本質。 為了解決單執行緒導致