shell指令碼 定期刪除日誌
只保留最近三天的日誌#! /bin/bash
logdir=/var/log/httpd
cd ${logdir}
declare -i filesum=`ls access_log.* | wc -l`
declare -i delnum=$filesum-3
if [ "${delnum}" -ge 1 ];then
rm -rf `ls -tr access_log.* | head -${delnum}`
fi
chmod 755 clean_log
這樣就保留了最近3天的日誌檔案。
建立自動化任務
01 04 * * * /usr/local/crontab/clean_log
ok,搞定,就這麼簡單。這樣你就不用不必為日見增大的日誌檔案煩惱了!
相關推薦
shell指令碼 定期刪除日誌
定期刪除日誌:然後建立清除日誌檔案的shell指令碼,檔名為clean_log只保留最近三天的日誌#! /bin/bashlogdir=/var/log/httpdcd ${logdir}declare
shell 指令碼通過nginx日誌封訪問頻率過高的IP
#/bin/bash #日誌檔案 logfile=/usr/local/tengine/logs last_minutes=1 #開始時間 start_time=`date -d"$last_minutes minutes ago" +"%H:%M:%S"` echo $start_t
一個簡單的shell指令碼:weblogic日誌按天生成(日誌壓縮)
編寫目的: 在實際工作中,由於生產環境在出現問題的時候,中介軟體服務會出現大量的報錯日誌,若日誌增長量極大的情況下,會出現磁碟空間被寫滿的情況而導致宕機,為了防止此情況出現,編寫如下shell指令碼進行規避此問題。 注意: <一>本例已weblogi
linux使用shell指令碼定期備份redis的rdb檔案
一 redis相關命令 1、bgsave命令 redis bgsave 命令用於在後臺非同步儲存當前資料庫的資料到磁碟。bgsave命令執行之後立即返回 OK ,然後 redis fork 出一個新子程序,原來的 redis程序(父程序)繼續處理客戶端請求,而子程序則負責
shell指令碼實現刪除過期資料庫中的資料
一個應用系統每天都需不間斷的向資料庫中插入資料,而對於很早之前的資料一般都需要從資料庫中清理,防止資料量無限增大,耗費儲存和影響資料查詢效率。 通過兩個檔案實現,一個檔案為配置檔案,一個為指令碼檔案。 本示例為刪除資料庫中180天(時間可在配置檔案中修改)前的資料。
shell 指令碼完成對日誌檔案的提取
前言 問題 提取x xx介面的的請求報文 正文 解決方案 使用shell指令碼使用awk 去掉報文中的換行符,以便進行grep,進而使用sed進行替換操作,最後輸出到指定文字
shell 指令碼完成對日誌檔案的提取之awk 學習
前言 學習awk/sed/zmore/zgrep、istat 正文 1.awk awk就是把檔案逐行的讀入,以空格為預設分隔符將每行切片,切開的部分再進行各種分析處理(awk是一個強大的文字
bat指令碼批量刪除日誌檔案
最近在學習寫bat指令碼,以下為實現批量刪除一個月前的日誌檔案。話不多說直接上程式碼: @echo off set y=%date:~0,4% set m=%date:~5,2% set d=%date:~8,2% set /a m-=1 if %m% L
Shell指令碼定時採集日誌資料到HDFS
在一些web站點上,會在頁面上用js來監聽一些使用者操作事件,然後用ajax請求web伺服器上的action來記錄使用者的行為。Web伺服器上會有很多日誌檔案描述了使用者的行為。其他的Web伺服器也是分別記錄自己的日誌檔案到磁碟。 此時我們需要把這些日誌檔案匯
shell指令碼下檢視日誌檔案
最近工作中,發現頁面的顯示資料和預期不一致,在排查了資料表過後,發現錯誤原因不在資料表和程式碼邏輯中。因為資料表中的資料來自log檔案,所以猜測是log中的資訊有誤。 排查log檔案過程中,因為是隻讀,所以試了有vim,cat,tail,grep四個,最後主要用來檢視檔案
簡單shell指令碼,與日誌重定向輸出
linux crontab定時任務: */5 * * * * flock -xn /tmp/kettle_job_sjgz_server.lock -c '/bin/bash /opt/pdi-ce-6.1.0.1-196/kettle_job_sjgz_server.s
shell指令碼統計出日誌檔案操作以及其對應的平均時間
有如下日誌:exmple.log time: 1.236 operation:查詢 time: 2.135 operation:處理 time: 3.741 operation:處理 time: 1.236 operation:查詢 現在要求,統計出查詢和處理以及其對應的平
shell指令碼除錯 -- 執行日誌1
# mymod_log while [[ ! -z "$1" ]];do# echo "arg: $1"; case "$1" in "noall") sed -e '/^\([ \t]*\)mydebug/d'\ -e
shell指令碼---後臺執行&,日誌重定向輸出,nohup,grep命令
後臺執行命令在命令列加上&,表示程序到後臺執行,如 cmd &日誌輸出重定向命令,如 cmp > out.log &Linux預設定義兩個變數:1和2;1表示標準輸出2表示錯誤輸出如 cmd 1>info.log 2>error.lo
linux 定期刪除spark日誌 shell 指令碼
如下: 在linux命令列中建立一個空白檔案,將下面程式碼加入到檔案中。 注意:1.如果在windows 中編輯,上傳到linux伺服器中,需要利用vim 的 : set ff=unix 方法將檔案的dos格式修改為unix格式,利用 :set ff 來檢視是否修
shell定期轉移日誌文件到雲盤並定期刪除雲盤文件
bsp 定時 AR ack 寫入 find 腳本 bin cron shell 腳本定期處理如下: cat /home/backup/logs_delete.sh #!/bin/bash /bin/find /data/logs/nginx/ -name "*.lo
shell指令碼限制日誌檔案大小和行數
背景: 專案server在後端持續執行,日誌檔案不斷變大,需及時進行清空。 解決方案:編輯sh指令碼,指定時間間隔輪詢;將超出限制的日誌檔案,先備份,再清空原日誌檔案內容。 清空日誌檔案內容的方法有: 1
shell指令碼--刪除儲存相關內容指令碼
工作中刪除儲存關聯內容的shell指令碼,記錄在這裡! 需求: 1.判斷如果不是定義的常量相關內容刪除; 2.查詢刪除30前的內容; #!/bin/sh list_alldir(){ a1="face" a2="persistence" a3="reserved
運維中的日誌切割操作梳理(Logrotate/python/shell指令碼實現)
對於Linux系統安全來說,日誌檔案是極其重要的工具。不知為何,我發現很多運維同學的伺服器上都執行著一些諸如每天切分Nginx日誌之類的CRON指令碼,大家似乎遺忘了Logrotate,爭相發明自己的輪子,這真是讓人沮喪啊!就好比明明身邊躺著現成的性感美女,大家卻忙著自娛自樂,罪過!logrotate程式是一
指令碼定期清理zk快照和日誌檔案
正常執行過程中,ZK會不斷地把快照資料和事務日誌輸出到dataDir和dataLogDir這兩個目錄,並且如果沒有人為操作的話,ZK自己是不會清理這些檔案的。 我這裡採用指令碼切割。 #!/bin/bash #清理zookeeper的日誌 保留7天內的 # datadir=/opt/zook