ASM磁碟超過disk_repair_time導致磁碟狀態為forcing
SQL> select group_number,disk_number,STATE,PATH,NAME,failgroup from v$asm_disk;
GROUP_NUMBER DISK_NUMBER STATE PATH NAME FAILGROUP
------------ ----------- -------- ---------------------------------------- ------------------------------ ------------------------------
0 0 NORMAL /dev/mapper/mpathg
0 1 NORMAL /dev/mapper/mpathf
2 1 NORMAL OCR_0001 OCR_0001
1 1 FORCING _DROPPED_0001_DATA DATA_0001
1 0 FORCING _DROPPED_0000_DATA DATA_0000
0 2 NORMAL /dev/mapper/mpathcp2
0 3 NORMAL /dev/mapper/mpathdp2
0 8 NORMAL /dev/mapper/mpathe
0 9 NORMAL /dev/mapper/mpathc
0 10 NORMAL /dev/mapper/mpathd
0 11 NORMAL /dev/mapper/mpathb
GROUP_NUMBER DISK_NUMBER STATE PATH NAME FAILGROUP
------------ ----------- -------- ---------------------------------------- ------------------------------ ------------------------------
0 12 NORMAL /dev/mapper/vg_rac01-lv_swap
2 2 NORMAL /dev/mapper/mpathdp1 OCR_0002 OCR_0002
1 2 NORMAL /dev/mapper/mpathbp2 DATA_0002 DATA_0002
2 0 NORMAL /dev/mapper/mpathbp1 OCR_0000 OCR_0000
2 3 NORMAL /dev/mapper/mpathcp1 OCR_0003 OCR_0003
幸好我的磁碟組是high冗餘的。
試著online一下不管用
SQL> ALTER DISKGROUP DATA ONLINE DISKS IN FAILGROUP DATA_0001 NOWAIT;
ALTER DISKGROUP DATA ONLINE DISKS IN FAILGROUP DATA_0001 NOWAIT
*
ERROR at line 1:
ORA-15032: not all alterations performed
ORA-15281: not all specified disks were brought ONLINE
ORA-15284: ASM terminated ALTER DISKGROUP ONLINE
查了一下v$asm_disk 的官方文件說明
FORCING - Disk is being removed from the disk group without attempting to offload its data. The data will be recovered from redundant copies, where possible.
難道我這個情況是impossible?
網上查了一些資料,並沒有找到有用的方法,只能使用最簡單粗暴的dd了!
[[email protected] ~]# dd if='/dev/zero' of='/dev/mapper/mpathdp2' bs=20000 count=10000;
[[email protected] ~]# dd if='/dev/zero' of='/dev/mapper/mpathcp2' bs=20000 count=10000;
然後加回磁碟
SQL> alter diskgroup data add FAILGROUP DATA_0000 disk '/dev/mapper/mpathdp2' name DATA_0000 FAILGROUP DATA_0001 DISK '/dev/mapper/mpathcp2' name DATA_0001;
Diskgroup altered.
此時已完成了加回,但是_DROPPED開頭的磁碟仍然存在,感覺就像痔瘡。。
SQL> select GROUP_NUMBER,STATE,name,path,REPAIR_TIMER from v$asm_disk;
GROUP_NUMBER STATE NAME PATH REPAIR_TIMER
------------ -------- ------------------------------ ---------------------------------------- ------------
0 NORMAL /dev/mapper/mpathg 0
0 NORMAL /dev/mapper/mpathf 0
2 NORMAL OCR_0001 27630
1 FORCING _DROPPED_0001_DATA 0
1 FORCING _DROPPED_0000_DATA 0
0 NORMAL /dev/mapper/vg_rac01-lv_swap 0
0 NORMAL /dev/mapper/mpathb 0
0 NORMAL /dev/mapper/mpathe 0
0 NORMAL /dev/mapper/mpathc 0
0 NORMAL /dev/mapper/mpathd 0
2 NORMAL OCR_0002 /dev/mapper/mpathdp1 0
GROUP_NUMBER STATE NAME PATH REPAIR_TIMER
------------ -------- ------------------------------ ---------------------------------------- ------------
1 NORMAL DATA_0002 /dev/mapper/mpathbp2 0
2 NORMAL OCR_0000 /dev/mapper/mpathbp1 0
1 NORMAL DATA_0001 /dev/mapper/mpathcp2 0
1 NORMAL DATA_0000 /dev/mapper/mpathdp2 0
2 NORMAL OCR_0003 /dev/mapper/mpathcp1 0
檢視 v$asm_operation
SQL> select * from v$asm_operation;
GROUP_NUMBER OPERA STAT POWER ACTUAL SOFAR EST_WORK EST_RATE
------------ ----- ---- ---------- ---------- ---------- ---------- ----------
EST_MINUTES ERROR_CODE
----------- --------------------------------------------
1 REBAL RUN 1 1 4101 246529 15573
15
待operation完成後再查詢v$asm_disk
SQL> select GROUP_NUMBER,STATE,name,path,failgroup,REPAIR_TIMER from v$asm_disk where group_number=1;
GROUP_NUMBER STATE NAME PATH FAILGROUP REPAIR_TIMER
------------ -------- ------------------------------ ---------------------------------------- ------------------------------ ------------
1 NORMAL DATA_0002 /dev/mapper/mpathbp2 DATA_0002 0
1 NORMAL DATA_0001 /dev/mapper/mpathcp2 DATA_0001 0
1 NORMAL DATA_0000 /dev/mapper/mpathdp2 DATA_0000 0
_drop 開頭的磁碟已經被oracle標記為不可用從v$asm_disk幹掉了。
那麼問題來了:
1:除了dd還有木有別的方法?
2:大家的disk_repair_time 一般設定多久?感覺要是你盤壞了,24小時都不一定夠換的。
3:FORCING - Disk is being removed from the disk group without attempting to offload its data. The data will be recovered from redundant copies, where possible. 這句話到底怎麼理解? 啥叫where possible
更多精彩Oracle內容請 關注我:
相關推薦
ASM磁碟超過disk_repair_time導致磁碟狀態為forcing
今天一大早來單位一看,兩個asm磁碟超過disk_repair_time被幹掉了SQL> select group_number,disk_number,STATE,PATH,NAME,failgroup from v$asm_disk;GROUP_NUMBER DI
規劃ASM DISK GROUP、檢視asm 磁碟當前狀態、mount or dismount 磁碟組、檢查磁碟組 metadata 的內部一致性
規劃ASM DISK GROUP: 1. 每個磁碟組裡的磁碟應該大小、效能、新舊等一致,不能有太大差距 2. 對database files 和 fast recovery area 分別建立不同的diskgroup。 一般來說我們也可以把備份檔案存放到FRA裡。
oracle asm磁碟標籤丟失導致整個叢集和資料庫啟動失敗
應用環境描述一、硬體1、 伺服器:2臺dell r610—16G記憶體、2顆6核xeon cpu、2個146G sas盤,做了raid12、 儲存:dell MD3220 24個300G硬碟3、 儲存連線:6GB HBA卡,2個通道都連線了二、軟體1、 系統:64位centos 5.52、 系統核心版本:Li
重灌系統時忘記拔U盤或行動硬碟導致磁碟碟符錯位
通常會遇到在重灌系統時忘記拔U盤或行動硬碟導致磁碟碟符錯位,原因是原來的碟符被U盤或行動硬碟佔用。 磁碟管理裡面,沒有d盤碟符,是因為你拔了u盤後,電腦又把光碟機當d盤了。更改碟符,首先把C盤外的其他碟符都改到較後面的碟符,比如z、x、y等等,然後再按順序改回來(否則經常會要e盤,但已經有e盤
Hadoop的磁碟大小不一導致節點掛掉
問題描述 DataNode掛載的磁碟或者DataNode節點掛載多個磁碟,如果存在一些磁碟大小不一樣,資料在落盤時就可能會出現磁碟使用率不均勻的情況,容量較小的盤容易被寫滿,而容量大的盤還剩很多空間。磁碟寫滿後,影響Hadoop叢集的正常工作。 建好集群后需要將歷史記錄匯入到hbase中,而
VBox:增加虛擬磁碟空間上限(虛擬系統為Linux)
執行以下命令指定vdi虛擬磁碟空間新上限(此步驟需要在使用vdi磁碟檔案的虛擬機器關閉狀態下執行,單位MB): C:\Program Files\Oracle\VirtualBox>vboxmanage modifyhd D:/vm/spark/spark.vdi --resize
oracle 11g ADG 由於磁碟空間不足導致同步問題
應用軟體廠商反映adg 備庫端資料已經好幾天沒有同步了,問題檢視 發現adg備庫沒有應用日誌程序: SQL> select PROCESS,PID, STATUS ,CLIENT_PROCESS from v$managed_standby; PROCESS
linux下磁碟空間不足導致oracle無法登入的解決方案
問題:oracle突然無法登入成功 原因:發現是磁碟空間不足,而且oracle被關閉了 解決方案如下: 1、確定oracle安裝在哪臺linux機器,並登入 2、檢視磁碟使用情況 : df -h,看看哪個磁碟空間滿了 3、找到沒有用的檔案,並刪掉。
mysql-bin日誌檔案過大導致磁碟空間不足問題解決方法
在MySQL資料庫中,mysql-bin.000001、mysql- bin.000002等檔案是資料庫的操作日誌,例如UPDATE一個表,或者DELETE一些資料,即使該語句沒有匹配的資料,這個命令也會儲存到日誌檔案中,還包括每個語句執行的時間,也會記錄進去的。 這樣做主
磁碟空間不足導致的問題
偶爾伺服器會發生一些莫名其妙的錯誤,發生這些錯誤的原因之一就是磁碟空間不足。 我們使用tomcat部署,tomcat 會產生日誌,雖然一天兩天產生的日誌量不大,但是時間長達幾個月之後,日誌量可能就會積累到幾個G、十幾個G,而系統盤容量有限,此時就會對服務的正常執行產生影
怎樣處理磁碟陣列中單個磁碟故障(磁碟狀態foreign怎麼改成ready)
磁碟陣列中單個硬碟出現問題時,“熱備盤”會自動頂替“故障盤”。而“故障盤”不會自動恢復,這時,我們應該手工恢復陣列故障。 1、重新啟動伺服器,進入RAID卡BIOS設定介面。 2、進入PD Mgmt中檢視故障盤的狀態(foreign:外來的,online:正常,missing:磁碟未找到,failed:失敗
給Linux新增一塊磁碟,設定檔案系統格式為ext3,並掛載到/mnt下,最後往這塊磁碟中拷貝/etc下得所有檔案
比如我們有一塊新硬碟/dev/sda操作步驟:#mkfs.ext3 /dev/sda 提示按'y'#mkdir /mnt 建立掛載目錄#mount /dev/sda /mnt 把/dev/sda這
linux環境下根目錄磁碟空間滿導致資料庫無法啟動的問題的解決
1、登陸資料庫時,把磁碟空間不足,無法登陸 [[email protected]flash_recovery_area]$sqlplus/assysdba SQL*Plus: Release10.2.0.1.0-Productionon 星期五 11月 2817:
win10磁碟佔用100%導致經常性卡頓問題的解決!
關於win10系統磁碟佔用率過高問題的解決,由於之前電腦重灌了系統,變成了win10以後,電腦一直比較卡,所以剛開始換了一塊固態硬碟, 換了之後,電腦確實開機什麼的變的很快,但是有時候還是會卡,但是感
raid5 磁碟陣列崩潰導致資料丟失的恢復案例
資料恢復故障描述: 某研究院 DELL 磁碟陣列崩潰,內建15塊1TB硬碟搭建的RAID5陣列。一開始有一塊硬碟離線,在更換新硬碟進行同步的過程中,第二塊磁碟指示燈報警,同步失敗,陣列無法正常工作。 故障初步檢測: 儲存介質物理狀態:最先離線的硬碟訪問速度極其緩慢,第二塊離
jenkins導致磁碟佔滿問題
背景 今天登陸jenkins提示磁碟空間不足,且構建發生錯誤 排查問題 cd到jenkins 安裝目錄 執行df
Post請求方式長度參數過長導致參數為空
cat 導致 edi time threads toc thread connect htm Post提交方式本身對於參數的長度沒有限制,HTTP協議也沒有限制。 可是今天在做一個web項目的時候碰到一個問題,當要提交的表單內容達到一定大小時,發現後臺代碼接收到的參數為
啟動VIP報CRS-1028/CRS-0223致使VIP狀態為UNKNOWN故障分析與解決
ssi host article 3.6 handle 性能優化 roc ng- 應用程序 CRS版本號為10.2.0.4 1、VIP State為UNKNOWN [[email protected]/* */ ~]# crs_stat -t
hdu6006 Engineer Assignment 狀態dp 定義dp[i][s]表示前i個工程狀態為s可以執行的最大工程數。s表示前i個工人選走了s狀態的工程師。
namespace algo acm names .cn num stream assign target /** 題目:hdu6006 Engineer Assignment 鏈接:http://acm.hdu.edu.cn/showproblem.php?pid=60
Openstack 虛擬機修改error狀態為active
nova error 狀態修復 OpenStack虛擬機由於一些特殊原因導致進入error狀態,比如宿主機宕機,docker容器故障等等, 此時我們無法在界面上對虛擬機進行其他操作了,只能刪除重建,但是如果是已經在用的虛擬機,那就要想辦法恢復,有一些人是直接通過後臺數據庫直接修改數據,這種方式總覺得不安