shell習題-處理日誌
寫一個腳本查找/data/log目錄下,最後創建時間是3天前,後綴是*.log的文件,打包後發送至192.168.1.2服務上的/data/log下,並刪除原始.log文件,僅保留打包後的文件
#!/bin/bash find /data/log -name “*.log” -mtime +3 > /tmp/file.list cd /data/log tar czvf log.tar.gz `cat /tmp/file.list|xargs` rsync -a log.tar.gz 192.168.1.2:/data/log //這一步需要提前做一個免密碼登錄 for f in `cat /tmp/file.list` do rm -f $f done
本文出自 “IT屌絲” 博客,請務必保留此出處http://68686789.blog.51cto.com/10438688/1978868
shell習題-處理日誌
相關推薦
shell習題-處理日誌
shell寫一個腳本查找/data/log目錄下,最後創建時間是3天前,後綴是*.log的文件,打包後發送至192.168.1.2服務上的/data/log下,並刪除原始.log文件,僅保留打包後的文件#!/bin/bash find /data/log -name “*.log” -mtime +3 &g
shell指令碼處理日誌的幾個題目
統計IP訪問: 要求分析apache訪問日誌,找出訪問頁面數量在前100位的IP數。日誌大小在78M左右。以下是apache的訪問日誌節選 202.101.129.218 - - [26/Mar/2006:23:59:55 +0800] "GET /online/s
shell處理日誌檔案常用命令
學會用shell分析日誌只要一上午!!! 很多地方分享了日誌分析的shell指令碼,但是基本沒說每個命令符的具體含義,學習成本還是很高,在這裡總結下,方便大家快速入門。 1、在Windows下的使用者要使用shell命令符的話請先安裝cygwin,安裝方法自
Shell自動化壓縮處理日誌檔案指令碼程式
Shell處理日誌,自動保留30天的日誌,如果超過14天的日誌就自動壓縮為gz格式儲存下來,這樣可以節省磁
DB處理大量數據處理日誌報錯問題
ons primary 相關配置 pda rim sin 默認 start ont 因為當插入、更新或刪除大批量數據的時候,有時候會出現事務日誌滿的問題,所以解決步驟 1.連接到當前數據庫 db2 connect to uppdb 2.查看數據庫配置文件 db
shell習題-判斷函數
shell請使用條件函數if撰寫一個shell函數 函數名為 f_judge,實現以下功能1)當/home/log 目錄存在時 將/home目錄下所有tmp開頭的文件或目錄移/home/log 目錄。2)當/home/log目錄不存在時,創建該目錄,然後退出。 #!/bin/bash f_judge (){
shell習題-批量同步代碼
shell需求背景是:一個業務,有3臺服務器(A,B,C)做負載均衡,由於規模太小目前並未使用專業的自動化運維工具。有新的需求時,開發同事改完代碼會把變更上傳到其中一臺服務器A上。但是其他2臺服務器也需要做相同變更。寫一個shell腳本,把A服務器上的變更代碼同步到B和C上。其中,你需要考慮到不需要同步的目錄
每日一shell(八)nginx日誌切割
cat ron cron nta sbin nginx日誌 日誌 處理 day nginx日誌會隨著訪問量而變大,較大的日誌會影響分析日誌時對日誌的分析和處理,我們可以使用shell對nginx日誌進行定時分割,以周或者天,對於時間久的日誌可以定時刪除,減小磁盤的浪費 代碼
shell:處理文本
awk 去重復 als for ash bin class one 如果 有如下文本,其中前5行內容為1111111:134432534562222222:132112221221111111:136435435443333333:123412431232222222:12
如何處理日誌文件丟失
日誌文件 ACTIVE current INACTIVE select group#,members from v$log;查看日誌文件的狀態select group#,status from v$log;有狀態來決定執行步驟status: active al
用shell做nginx日誌分析
linux nginx 數據挖掘#!/bin/bash if [[ $# == 0 ]];thenecho "Error:請輸入要查詢的天數???"elseecho "暫時不支持centos的7的版本!!!"NOW_TIME_CUO=date +%s((END_TIME
shell定期轉移日誌文件到雲盤並定期刪除雲盤文件
bsp 定時 AR ack 寫入 find 腳本 bin cron shell 腳本定期處理如下: cat /home/backup/logs_delete.sh #!/bin/bash /bin/find /data/logs/nginx/ -name "*.lo
shell指令碼限制日誌檔案大小和行數
背景: 專案server在後端持續執行,日誌檔案不斷變大,需及時進行清空。 解決方案:編輯sh指令碼,指定時間間隔輪詢;將超出限制的日誌檔案,先備份,再清空原日誌檔案內容。 清空日誌檔案內容的方法有: 1
shell中處理使用者輸入
1、使用命令列引數 在shell執行的時候命令列中輸入的所有引數可以賦值給一些特殊變數,這些變數成為位置變數引數。 包括: $0返回指令碼名稱、$1為第一個引數、$2為第二個引數 ...$9第九個引數 在變數到9個之後,必須使用大括號將變數括起來 ${10}第十個引數 $#是獲取傳入的引數數量 $*是獲取所
shell 文字處理——使用awk格式化時間戳
date -d @時間戳 "+%Y-%m-%d %H:%M:%S" 也可以內建函式 awk '{print strftime("%Y-%m-%d %H:%M:%S", $1)}' 如果是毫秒級的時間戳要先除以1000; 在 shell 中這樣子處理: awk '{print $1",
使用Java佇列來處理日誌資訊(執行緒池的使用)
阿里的規範是使用new ThreadPoolExecutor()來建立執行緒池,二不是使用Excutor的靜態工具類來建立執行緒池,具體可以檢視部落格(兩篇): https://blog.csdn.net/angus_Lucky/article/details/798
python記錄_day019 類的約束 異常處理 日誌
一 、約束 python中約束有兩種 第一種,通過拋異常進行約束,這種是子類不按我要求的來,我就給你拋異常(推薦) 操作:提取一個父類. 在父類中給出一個方法。但在方法中不給出任何程式碼,直接拋異常 1 # 貼吧 2 # 專案經理(級別高一點兒) 3 class Ba
linux shell習題
課件地址:https://wenku.baidu.com/view/bac2ff10f18583d0496459f3.html 1.測試環境變數:HOME,PWD,IFS等2.測試位置變數:$$,$#,$0,$1,$2,$3,[email protected],$*,再測試當IFS=‘’和取消IF
Shell正則表示式 & Grep正則表示式 & shell字串處理
摘自:https://www.cnblogs.com/hoji-real/articles/2311214.html Shell正則表示式 一個正則表示式就是由普通字元(例如字元 a 到 z)以及特殊字元(稱為元字元)組成的文字模式。該模式描述在查詢文字主體時待匹配的一個或
shell指令碼-nginx日誌切割
#!/bin/bash LOGS_PATH=/logs/nginx/ YESTERDAY=$(date -d "yesterday" +%Y-%m-%d) echo $LOGS_PATH/history/$YESTERDAY mkdir -p $LOGS_PATH/history