1. 程式人生 > >Informix高可用性的方案選擇問題

Informix高可用性的方案選擇問題

通過長達半年售前和商務,總算忽悠使用者買了informix旗艦版11.7,從實施,到Oracle遷移資料備份恢復,管理員培訓搞完了。現在又忽悠使用者在新廠也買informix資料庫,遇到了問題:

以下環境為:
X86-64 Windows 2003 企業版 64位
Informix 11.7 旗艦版
InfoSphere CDC 6.3.1 FP3 Windows Edition

1、新廠老廠相隔50公里,有電信10M光纖專線連線,由於西南邊陲,網路時常受各種原因中斷,當前條件下也無解。
2、新廠老廠均部署了informix 11.7旗艦版,各自實施了HDR以保障高可用性。
3、使用者有一個應用模組是考勤系統
,每次考勤資料資料均儲存在informix中,現在使用者有需求:老廠新廠的考勤在網路正常的時候,可以實現這個考勤的記錄可以同步,但是在兩地專線斷網的時候,也可以老廠新廠各自考勤獨立使用,網正常後資料再次同步。

我的辦法:
1、實施了新廠和老廠之間的ER,目前系統是新廠(HDR)————ER————老廠(HDR)
2、簡單的同步複製沒有問題,但是問題出現了:應用中有許聯合主鍵的SQL,導致ER複製會有失敗。查了ER的資訊中心,ER不支援聯合主鍵。
3、打算用infoSphere CDC來進行表級別的資料複製,以保證表記錄的彙總。發現又報完整性約束、唯一性索引等表設計不支援的問題。
4、翻了翻informix的高可用性主鍵,SDS等用共享儲存的方式不能適用於新廠老廠的儲存分離。
4、看來只有informix flexible grid來做了,目前正在看這個方面的文件


——————————————————————
請問各種同學,專家:
1、有沒有其他方式來繞開聯合主鍵問題?比如修改設計,怎麼修改?
2、CDC如何忽略不被支援的表和列?CDC的PPT上寫的是具備忽略功能,這個功能在哪兒?
3、informix flexible grid能滿足我的問題3 嗎?

相關推薦

Informix可用方案選擇問題

通過長達半年的售前和商務,總算忽悠使用者買了informix旗艦版11.7,從實施,到Oracle遷移,資料備份恢復,管理員培訓搞完了。現在又忽悠使用者在新廠也買informix資料庫,遇到了問題:以下

選擇SQL Server 2008可用解決方案

下面列舉了選擇高可用性解決方案的注意事項: 故障轉移群集和資料庫映象都提供以下功能: ·自動檢測和故障轉移 ·手動故障轉移 ·透明客戶端重定向 故障轉移群集具有下列限制: ·需要在伺服器例項範圍內進行操作 ·需要簽名的硬體 ·備用部分不具有報告功能 ·利用資料庫的單個副本 ·

「mysql優化專題」可用、負載均衡的mysql集群解決方案(12)

格式 return 建議 處理方式 sage 主機 等待 status 深度 一、為什麽需要mysql集群? 一個龐大的分布式系統的性能瓶頸中,最脆弱的就是連接。連接有兩個,一個是客戶端與後端的連接,另一個是後端與數據庫的連接。簡單如圖下兩個藍色框框(其實,這張圖是我在悟空

(FortiGate)飛塔防火墻HA(可用)解決方案

可用 要求 mes 級別 協議 三方 而且 也會 pan 1. 概述 HA問題是建設TCP/IP網絡需要考慮的一個重要問題。當因為某個設備出現宕機時,如何保證網絡依舊暢通是依賴於關鍵業務的公司的網絡建設的核心。所有流量都要經過安全網關,設計網絡讓安全網關不會成為單點故

keepalived-可用故障轉移的首選方案

高可用性 keepalived keepalived——高可用性故障轉移的首選方案名詞:failaver(故障轉移)failback(回復)內核態 用戶態224-239的網段是組播網段 可以 多個機器共用一個IP要使用keepalived需要開啟VRRP協議 將會自動加入224.0.0.18

RabbitMQ可用叢集映象實施方案

在我們使用rabbitmq作為訊息服務時,在服務負載不是很大的情況下,一般我們只需要一個rabbitmq節點便能為我們提供服務,可這難免會發生單點故障,要解決這個問題,我們便需要配置rabbitmq的叢集和映象,以下便是使用兩臺伺服器進行rabbitmq叢集和映

(一)什麼是可用解決方案

我們對資料庫安全常用的一些方案 凡是我們寫成功的程式大部分都會和資料庫進行互動,我們的資料庫也必須有必要的措施防止資料庫的崩潰。在我們學習高可用性解決方案之前我們都是用的資料庫備份和還原(如果你連這個都沒考慮到,那你寫的程式也太不安全了)。具體的備份的實現也有很多,比如說完

雙SVTI可用 VPN的最佳解決方案

高可用性VPN的最佳解決方案 1、方案介紹 本章主要介紹在純cisco裝置的情況下,一種簡單而又實用的高可用性的ipsec最佳解決方案。 2、拓撲圖  方案拓撲圖解析 上圖為高可用性站點到站點ipsec vpn的最佳解決方案接線圖,從左到右依次是總部公司的路由器,internet路由器,分部m

AP 可用設置

cisco ap 高可用性設置AP HA Settings1-AP HA 設置2-global configuration下配置3-確保RF group名字一致4-確保APgroup也一致本文出自 “Erick WAY” 博客,謝絕轉載!AP 高可用性設置

alwayson09-創建always on可用

src 備份 images 可用 img 創建 cnblogs alwayson http 新建數據庫或者使用現有的數據庫,完整備份 測試一下: alwayson09-創建always on高可用性組

理解HDFS可用架構

共享存儲 src mage namenode 存儲系統 tro ima 會同 同時 在Hadoop1.x版本的時候,Namenode存在著單點失效的問題。如果namenode失效了,那麽所有的基於HDFS的客戶端——包括MapReduce作業均無法讀,寫或列文件,因為nam

corosync+pacemaker+drbd 實現mysql的可用

corosync+pacemaker+drbd 實現mysql的高可用性一、環境準備1.操作系統centos 6.4 (32位)系統要是雙網卡2.配置各節點互相解析 node1:[[email protected] ~]# uname -n node1.test.com [[email 

Linux的企業-可用High Availability

linux的企業 高可用性high availability一.概念介紹 HA(High Availability)指的是通過盡量縮短因日常維護操作(計劃)和突發的系統崩潰(非計劃)所導致的停機時間,以提高系統和應用的可用性。它與被認為是不間斷操作的容錯技術有所不同。HA系統是目前企業防止核心計

LVS 之 可用

ldirectord 自動化腳本1 概述 在lvs的集群設計中,存在兩個地方不可用的問題,Director不可用 和RS不可用A)Director不可用Director不可用整個系統將不可用;SPoF Single Point of Failure,單點故障導致解決方案:通過keepalived he

Azure環境中Nginx可用和部署架構設計

基於 google ogl soft 可用性 pan googl 環境 keep 前幾篇文章介紹了Nginx的應用、動態路由、配置。在實際生產環境部署時,我們需要同時考慮Nginx的高可用性和部署架構。 Nginx自身不支持集群以保證自身的高可用性,商業版本的Nginx+

紅帽5、紅帽6、紅帽7 可用解決方案的組合程序

resource lin 底層 方式 crm 一個 message 守護 ha集群 紅帽6:corosync 版本1 + pacemaker + pcs或crmsh corosync 版本1 + cman + pacemaker 紅帽7:corosync + pac

keepalived通過vrr_script實現可用案例分析

keepalived vrr_script實現高可用性案例分析ps -C nginx --no-heading|wc -lps -C java --no-heading|wc -l先確認一下服務器上上面兩個數字cd /etc/keepalivedvi /etc/keepalived/check_ngin

MySQL可用解決方案---MHA

linux、mysql一主兩從一管理,一共四臺設備MHA的作用是做master的高可用,當主節點MySQL故障時,會將和主節點數據最接近的一個從節點提升為主節點,同時如果其他從節點有更新的數據也會同步到此“準主節點”上。如果在主節點有數據已經提交但是所有的從節點還未完成復制,則從節點提升為主節點後只能將此數據

通過heartbeat搭建lvs可用集群

linux heartbeat lvs 集群首先,在主、備節點上配置lvs信息,一般通過ldirectord配置在搭建Director Server的雙機熱備系統之前,首先需要在兩臺主機上安裝heartbeat軟件,安裝軟件後在/etc/ha.d/ha.cf產生主配置文件1.配置heartbeat的主配置文件

6.場景4:使用VRRP(L3HA)和Open vSwitch提供可用

.com 故障 失敗 因此 轉移 缺陷 vswitch vxlan 傳統 此場景描述了使用ML2插件和Open vSwitch(OVS)實現OpenStack網絡服務的高可用性實現。 該高可用性實施方案增加了以下情景:帶有虛擬路由器冗余協議(VRRP)的Open v