1. 程式人生 > >ASM磁碟超過disk_repair_time導致磁碟狀態為forcing

ASM磁碟超過disk_repair_time導致磁碟狀態為forcing

今天一大早來單位一看,兩個asm磁碟超過disk_repair_time被幹掉了

SQL> select group_number,disk_number,STATE,PATH,NAME,failgroup from v$asm_disk;

GROUP_NUMBER DISK_NUMBER STATE    PATH                                     NAME                           FAILGROUP
------------ ----------- -------- ---------------------------------------- ------------------------------ ------------------------------

           0           0 NORMAL   /dev/mapper/mpathg
           0           1 NORMAL   /dev/mapper/mpathf
           2           1 NORMAL                                            OCR_0001                       OCR_0001
           1           1 FORCING                                           _DROPPED_0001_DATA             DATA_0001

           1           0 FORCING                                           _DROPPED_0000_DATA             DATA_0000
           0           2 NORMAL   /dev/mapper/mpathcp2
           0           3 NORMAL   /dev/mapper/mpathdp2
           0           8 NORMAL   /dev/mapper/mpathe
           0           9 NORMAL   /dev/mapper/mpathc

           0          10 NORMAL   /dev/mapper/mpathd
           0          11 NORMAL   /dev/mapper/mpathb

GROUP_NUMBER DISK_NUMBER STATE    PATH                                     NAME                           FAILGROUP
------------ ----------- -------- ---------------------------------------- ------------------------------ ------------------------------
           0          12 NORMAL   /dev/mapper/vg_rac01-lv_swap
           2           2 NORMAL   /dev/mapper/mpathdp1                     OCR_0002                       OCR_0002
           1           2 NORMAL   /dev/mapper/mpathbp2                     DATA_0002                      DATA_0002
           2           0 NORMAL   /dev/mapper/mpathbp1                     OCR_0000                       OCR_0000
           2           3 NORMAL   /dev/mapper/mpathcp1                     OCR_0003                       OCR_0003


幸好我的磁碟組是high冗餘的。
試著online一下不管用

SQL> ALTER DISKGROUP DATA ONLINE DISKS IN FAILGROUP DATA_0001 NOWAIT;
ALTER DISKGROUP DATA ONLINE DISKS IN FAILGROUP DATA_0001 NOWAIT
*
ERROR at line 1:
ORA-15032: not all alterations performed
ORA-15281: not all specified disks were brought ONLINE
ORA-15284: ASM terminated ALTER DISKGROUP ONLINE


查了一下v$asm_disk 的官方文件說明

FORCING - Disk is being removed from the disk group without attempting to offload its data. The data will be recovered from redundant copies, where possible.

難道我這個情況是impossible?

網上查了一些資料,並沒有找到有用的方法,只能使用最簡單粗暴的dd了!

[[email protected] ~]#  dd if='/dev/zero' of='/dev/mapper/mpathdp2' bs=20000 count=10000;
[[email protected] ~]#  dd if='/dev/zero' of='/dev/mapper/mpathcp2' bs=20000 count=10000;

然後加回磁碟


SQL> alter diskgroup data add FAILGROUP DATA_0000 disk '/dev/mapper/mpathdp2' name DATA_0000 FAILGROUP DATA_0001 DISK '/dev/mapper/mpathcp2' name DATA_0001;

Diskgroup altered.


此時已完成了加回,但是_DROPPED開頭的磁碟仍然存在,感覺就像痔瘡。。
SQL> select GROUP_NUMBER,STATE,name,path,REPAIR_TIMER from v$asm_disk;

GROUP_NUMBER STATE    NAME                           PATH                                     REPAIR_TIMER
------------ -------- ------------------------------ ---------------------------------------- ------------
           0 NORMAL                                  /dev/mapper/mpathg                                  0
           0 NORMAL                                  /dev/mapper/mpathf                                  0
           2 NORMAL   OCR_0001                                                                       27630
           1 FORCING  _DROPPED_0001_DATA                                                                 0
           1 FORCING  _DROPPED_0000_DATA                                                                 0
           0 NORMAL                                  /dev/mapper/vg_rac01-lv_swap                        0
           0 NORMAL                                  /dev/mapper/mpathb                                  0
           0 NORMAL                                  /dev/mapper/mpathe                                  0
           0 NORMAL                                  /dev/mapper/mpathc                                  0
           0 NORMAL                                  /dev/mapper/mpathd                                  0
           2 NORMAL   OCR_0002                       /dev/mapper/mpathdp1                                0

GROUP_NUMBER STATE    NAME                           PATH                                     REPAIR_TIMER
------------ -------- ------------------------------ ---------------------------------------- ------------
           1 NORMAL   DATA_0002                      /dev/mapper/mpathbp2                                0
           2 NORMAL   OCR_0000                       /dev/mapper/mpathbp1                                0
           1 NORMAL   DATA_0001                      /dev/mapper/mpathcp2                                0
           1 NORMAL   DATA_0000                      /dev/mapper/mpathdp2                                0
           2 NORMAL   OCR_0003                       /dev/mapper/mpathcp1                                0


檢視 v$asm_operation
SQL> select * from v$asm_operation;

GROUP_NUMBER OPERA STAT      POWER     ACTUAL      SOFAR   EST_WORK   EST_RATE
------------ ----- ---- ---------- ---------- ---------- ---------- ----------
EST_MINUTES ERROR_CODE
----------- --------------------------------------------
           1 REBAL RUN           1          1       4101     246529      15573
         15

待operation完成後再查詢v$asm_disk

SQL> select GROUP_NUMBER,STATE,name,path,failgroup,REPAIR_TIMER from v$asm_disk where group_number=1;


GROUP_NUMBER STATE    NAME                           PATH                                     FAILGROUP                      REPAIR_TIMER
------------ -------- ------------------------------ ---------------------------------------- ------------------------------ ------------
           1 NORMAL   DATA_0002                      /dev/mapper/mpathbp2                     DATA_0002                                 0
           1 NORMAL   DATA_0001                      /dev/mapper/mpathcp2                     DATA_0001                                 0
           1 NORMAL   DATA_0000                      /dev/mapper/mpathdp2                     DATA_0000                                 0



_drop 開頭的磁碟已經被oracle標記為不可用從v$asm_disk幹掉了。


那麼問題來了:
1:除了dd還有木有別的方法?
2:大家的disk_repair_time 一般設定多久?感覺要是你盤壞了,24小時都不一定夠換的。

3:FORCING - Disk is being removed from the disk group without attempting to offload its data. The data will be recovered from redundant copies, where possible. 這句話到底怎麼理解? 啥叫where possible

更多精彩Oracle內容請 關注我:



相關推薦

ASM磁碟超過disk_repair_time導致磁碟狀態forcing

今天一大早來單位一看,兩個asm磁碟超過disk_repair_time被幹掉了SQL> select group_number,disk_number,STATE,PATH,NAME,failgroup from v$asm_disk;GROUP_NUMBER DI

規劃ASM DISK GROUP、檢視asm 磁碟當前狀態、mount or dismount 磁碟組、檢查磁碟組 metadata 的內部一致性

規劃ASM DISK GROUP: 1. 每個磁碟組裡的磁碟應該大小、效能、新舊等一致,不能有太大差距 2. 對database files 和 fast recovery area 分別建立不同的diskgroup。 一般來說我們也可以把備份檔案存放到FRA裡。 

oracle asm磁碟標籤丟失導致整個叢集和資料庫啟動失敗

應用環境描述一、硬體1、 伺服器:2臺dell r610—16G記憶體、2顆6核xeon cpu、2個146G sas盤,做了raid12、 儲存:dell MD3220 24個300G硬碟3、 儲存連線:6GB HBA卡,2個通道都連線了二、軟體1、 系統:64位centos 5.52、 系統核心版本:Li

重灌系統時忘記拔U盤或行動硬碟導致磁碟碟符錯位

通常會遇到在重灌系統時忘記拔U盤或行動硬碟導致磁碟碟符錯位,原因是原來的碟符被U盤或行動硬碟佔用。 磁碟管理裡面,沒有d盤碟符,是因為你拔了u盤後,電腦又把光碟機當d盤了。更改碟符,首先把C盤外的其他碟符都改到較後面的碟符,比如z、x、y等等,然後再按順序改回來(否則經常會要e盤,但已經有e盤

Hadoop的磁碟大小不一導致節點掛掉

問題描述 DataNode掛載的磁碟或者DataNode節點掛載多個磁碟,如果存在一些磁碟大小不一樣,資料在落盤時就可能會出現磁碟使用率不均勻的情況,容量較小的盤容易被寫滿,而容量大的盤還剩很多空間。磁碟寫滿後,影響Hadoop叢集的正常工作。 建好集群后需要將歷史記錄匯入到hbase中,而

VBox:增加虛擬磁碟空間上限(虛擬系統Linux)

執行以下命令指定vdi虛擬磁碟空間新上限(此步驟需要在使用vdi磁碟檔案的虛擬機器關閉狀態下執行,單位MB): C:\Program Files\Oracle\VirtualBox>vboxmanage modifyhd D:/vm/spark/spark.vdi --resize

oracle 11g ADG 由於磁碟空間不足導致同步問題

應用軟體廠商反映adg 備庫端資料已經好幾天沒有同步了,問題檢視 發現adg備庫沒有應用日誌程序: SQL>  select PROCESS,PID, STATUS ,CLIENT_PROCESS  from v$managed_standby; PROCESS  

linux下磁碟空間不足導致oracle無法登入的解決方案

問題:​​​​​​oracle突然無法登入成功 原因:發現是磁碟空間不足,而且oracle被關閉了 解決方案如下: 1、確定oracle安裝在哪臺linux機器,並登入 2、檢視磁碟使用情況 : df -h,看看哪個磁碟空間滿了 3、找到沒有用的檔案,並刪掉。

mysql-bin日誌檔案過大導致磁碟空間不足問題解決方法

在MySQL資料庫中,mysql-bin.000001、mysql- bin.000002等檔案是資料庫的操作日誌,例如UPDATE一個表,或者DELETE一些資料,即使該語句沒有匹配的資料,這個命令也會儲存到日誌檔案中,還包括每個語句執行的時間,也會記錄進去的。 這樣做主

磁碟空間不足導致的問題

偶爾伺服器會發生一些莫名其妙的錯誤,發生這些錯誤的原因之一就是磁碟空間不足。 我們使用tomcat部署,tomcat 會產生日誌,雖然一天兩天產生的日誌量不大,但是時間長達幾個月之後,日誌量可能就會積累到幾個G、十幾個G,而系統盤容量有限,此時就會對服務的正常執行產生影

怎樣處理磁碟陣列中單個磁碟故障(磁碟狀態foreign怎麼改成ready)

磁碟陣列中單個硬碟出現問題時,“熱備盤”會自動頂替“故障盤”。而“故障盤”不會自動恢復,這時,我們應該手工恢復陣列故障。 1、重新啟動伺服器,進入RAID卡BIOS設定介面。 2、進入PD Mgmt中檢視故障盤的狀態(foreign:外來的,online:正常,missing:磁碟未找到,failed:失敗

給Linux新增一塊磁碟,設定檔案系統格式ext3,並掛載到/mnt下,最後往這塊磁碟中拷貝/etc下得所有檔案

比如我們有一塊新硬碟/dev/sda操作步驟:#mkfs.ext3  /dev/sda          提示按'y'#mkdir  /mnt                       建立掛載目錄#mount  /dev/sda  /mnt      把/dev/sda這

linux環境下根目錄磁碟空間滿導致資料庫無法啟動的問題的解決

1、登陸資料庫時,把磁碟空間不足,無法登陸 [[email protected]flash_recovery_area]$sqlplus/assysdba SQL*Plus: Release10.2.0.1.0-Productionon 星期五 11月 2817:

win10磁碟佔用100%導致經常性卡頓問題的解決!

關於win10系統磁碟佔用率過高問題的解決,由於之前電腦重灌了系統,變成了win10以後,電腦一直比較卡,所以剛開始換了一塊固態硬碟, 換了之後,電腦確實開機什麼的變的很快,但是有時候還是會卡,但是感

raid5 磁碟陣列崩潰導致資料丟失的恢復案例

資料恢復故障描述: 某研究院 DELL 磁碟陣列崩潰,內建15塊1TB硬碟搭建的RAID5陣列。一開始有一塊硬碟離線,在更換新硬碟進行同步的過程中,第二塊磁碟指示燈報警,同步失敗,陣列無法正常工作。 故障初步檢測: 儲存介質物理狀態:最先離線的硬碟訪問速度極其緩慢,第二塊離

jenkins導致磁碟佔滿問題

背景 今天登陸jenkins提示磁碟空間不足,且構建發生錯誤 排查問題 cd到jenkins 安裝目錄 執行df

Post請求方式長度參數過長導致參數

cat 導致 edi time threads toc thread connect htm Post提交方式本身對於參數的長度沒有限制,HTTP協議也沒有限制。 可是今天在做一個web項目的時候碰到一個問題,當要提交的表單內容達到一定大小時,發現後臺代碼接收到的參數為

啟動VIP報CRS-1028/CRS-0223致使VIP狀態UNKNOWN故障分析與解決

ssi host article 3.6 handle 性能優化 roc ng- 應用程序 CRS版本號為10.2.0.4 1、VIP State為UNKNOWN [[email protected]/* */ ~]# crs_stat -t

hdu6006 Engineer Assignment 狀態dp 定義dp[i][s]表示前i個工程狀態s可以執行的最大工程數。s表示前i個工人選走了s狀態的工程師。

namespace algo acm names .cn num stream assign target /** 題目:hdu6006 Engineer Assignment 鏈接:http://acm.hdu.edu.cn/showproblem.php?pid=60

Openstack 虛擬機修改error狀態active

nova error 狀態修復 OpenStack虛擬機由於一些特殊原因導致進入error狀態,比如宿主機宕機,docker容器故障等等, 此時我們無法在界面上對虛擬機進行其他操作了,只能刪除重建,但是如果是已經在用的虛擬機,那就要想辦法恢復,有一些人是直接通過後臺數據庫直接修改數據,這種方式總覺得不安