1. 程式人生 > >Oracle實時同步到HDFS、Kafka以及關係資料庫的方法

Oracle實時同步到HDFS、Kafka以及關係資料庫的方法

Oracle裡儲存的結構化資料匯出到Hadoop體系做離線計算是一種常見資料處置手段。近期有場景需要做Oracle到Hadoop體系的實時匯入,這裡以此案例做以介紹。
Oracle作為商業化的資料庫解決方案,自發性的獲取資料庫事務日誌等比較困難,故選擇官方提供的同步工具OGG(Oracle GoldenGate)來解決。

安裝與基本配置

環境說明

軟體配置

角色資料儲存服務及版本OGG版本IP
源伺服器OracleRelease11.2.0.1Oracle GoldenGate 11.2.1.0 for Oracle on Linux x86-6410.0.0.25
目標伺服器Hadoop 2.7.2Oracle GoldenGate for Big Data 12.2.0.1 on Linux x86-6410.0.0.2

以上源伺服器上OGG安裝在Oracle使用者下,目標伺服器上OGG安裝在root使用者下。

注意

Oracle匯出到異構的儲存系統,如MySQL,DB2,PG等以及對應的不同平臺,如AIX,Windows,Linux等官方都有提供對應的Oracle GoldenGate版本,可在這裡或者在舊版本查詢下載安裝。

Oracle源端基礎配置

將下載到的對應OGG版本放在方便的位置並解壓,本示例Oracle源端最終的解壓目錄為/u01/gg。

  1. 配置環境變數
    這裡的環境變數主要是對執行OGG的使用者新增OGG相關的環境變數,本示例為Oracle使用者新增的環境變數如下:(/home/oracle/.bash_profile

    檔案)

    export OGG_HOME=/u01/gg/
    export LD_LIBRARY_PATH=$ORACLE_HOME/lib:$OGG_HOME:/lib:/usr/lib
    export CLASSPATH=$ORACLE_HOME/jdk/jre:$ORACLE_HOME/jlib:$ORACLE_HOME/rdbms/jlib
    
  2. Oracle開啟歸檔模式
    使用如下命令檢視當前是否為歸檔模式(archive)

    SQL> archive log list 
    Database log mode              Archive Mode
    Automatic archival             Enabled
    Archive destination            /u01/arch_log
    Oldest online log sequence     6
    Next log sequence to archive   8
    Current log sequence           8
    

    如非以上狀態,手動調整即可

    SQL> conn / as sysdba(以DBA身份連線資料庫) 
    SQL> shutdown immediate(立即關閉資料庫)
    SQL> startup mount(啟動例項並載入資料庫,但不開啟)
    SQL> alter database archivelog(更改資料庫為歸檔模式)
    SQL> alter database open(開啟資料庫)
    SQL> alter system archive log start(啟用自動歸檔)
    
  3. Oracle開啟日誌相關
    OGG基於輔助日誌等進行實時傳輸,故需要開啟相關日誌確保可獲取事務內容。通過一下命令檢視當前狀態:

    SQL> select force_logging, supplemental_log_data_min from v$database;
    FOR SUPPLEME--- --------
    YES YES
    

    如果以上查詢結果非YES,可通過以下命令修改狀態:

    SQL> alter database force logging;
    SQL> alter database add supplemental log data;
    
  4. Oracle建立複製使用者
    為了使Oracle裡使用者的複製許可權更加單純,故專門建立複製使用者,並賦予dba許可權

    SQL> create tablespaceoggtbsdatafile '/u01/app/oracle/oradata/orcl/oggtbs01.dbf' size 1000M autoextend on;
    SQL> create user ggs identified by ggs default tablespaceoggtbs;
    User created.
    SQL> grant dba to ggs;
    Grant succeeded.
    

    最終這個ggs帳號的許可權如下所示:

    SQL> select * from dba_sys_privs where GRANTEE='GGS';
    GRANTEE                        PRIVILEGE                                ADM
    GGS                            DROP ANY DIRECTORY                       NO
    GGS                            ALTER ANY TABLE                          NO
    GGS                            ALTER SESSION                            NO
    GGS                            SELECT ANY DICTIONARY                    NO
    GGS                            CREATE ANY DIRECTORY                     NO
    GGS                            RESTRICTED SESSION                       NO
    GGS                            FLASHBACK ANY TABLE                      NO
    GGS                            UPDATE ANY TABLE                         NO
    GGS                            DELETE ANY TABLE                         NO
    GGS                            CREATE TABLE                             NO
    GGS                            INSERT ANY TABLE                         NO
    GRANTEE                        PRIVILEGE                                ADM
    GGS                            UNLIMITED TABLESPACE                     NO
    GGS                            CREATE SESSION                           NO
    GGS                            SELECT ANY TABLE                         NO
    
  5. OGG初始化
    進入OGG的主目錄執行./ggsci,進入OGG命令列

    [[email protected]_0_25_centos gg]$ ./ggsci 
    Oracle GoldenGate Command Interpreter for Oracle
    Version 11.2.1.0.3 14400833 OGGCORE_11.2.1.0.3_PLATFORMS_120823.1258_FBO
    Linux, x64, 64bit (optimized), Oracle 11g on Aug 23 2012 20:20:21
    Copyright (C) 1995, 2012, Oracle and/or its affiliates. All rights reserved.
    GGSCI (VM_0_25_centos) 1>
    執行create subdirs進行目錄建立
    GGSCI (VM_0_25_centos) 4> create subdirs
    Creating subdirectories under current directory /u01/gg
    Parameter files                /u01/gg/dirprm: already exists
    Report files                   /u01/gg/dirrpt: already exists
    Checkpoint files               /u01/gg/dirchk: already exists
    Process status files           /u01/gg/dirpcs: already exists
    SQL script files               /u01/gg/dirsql: already exists
    Database definitions files     /u01/gg/dirdef: already exists
    Extract data files             /u01/gg/dirdat: already exists
    Temporary files                /u01/gg/dirtmp: already exists
    Stdout files                   /u01/gg/dirout: already exists
    
  6. Oracle建立模擬複製庫表
    模擬建一個使用者叫tcloud,密碼tcloud,同時基於這個使用者建一張表,叫t_ogg

    SQL> create user tcloud  identified by tcloud default tablespace users;
    User created.
    SQL> grant dba to tcloud;
    Grant succeeded.
    SQL> conn tcloud/tcloud;
    Connected.
    SQL> create table t_ogg(id int ,text_name varchar(20),primary key(id));
    Table created.
    

目標端基礎配置

將下載到的對應OGG版本放在方便的位置並解壓,本示例Oracle目標端最終的解壓目錄為/data/gg

  1. 配置環境變數
    這裡需要用到HDFS相關的庫,故需要配置java環境變數以及OGG相關,並引入HDFS的相關庫檔案,參考配置如下:

    export JAVA_HOME=/usr/java/jdk1.7.0_75/
    export LD_LIBRARY_PATH=/usr/java/jdk1.7.0_75/jre/lib/amd64:/usr/java/jdk1.7.0_75/jre/lib/amd64/server:/usr/java/jdk1.7.0_75/jre/lib/amd64/libjsig.so:/usr/java/jdk1.7.0_75/jre/lib/amd64/server/libjvm.so:$OGG_HOME:/lib
    export OGG_HOME=/data/gg
    
  2. OGG初始化
    目標端的OGG初始化和源端類似進入OGG的主目錄執行./ggsci,進入OGG命令列

    GGSCI (10.0.0.2) 2> create subdirs
    Creating subdirectories under current directory /data/gg
    Parameter files                /data/gg/dirprm: already exists
    Report files                   /data/gg/dirrpt: already exists
    Checkpoint files               /data/gg/dirchk: already exists
    Process status files           /data/gg/dirpcs: already exists
    SQL script files               /data/gg/dirsql: already exists
    Database definitions files     /data/gg/dirdef: already exists
    Extract data files             /data/gg/dirdat: already exists
    Temporary files                /data/gg/dirtmp: already exists
    Credential store files         /data/gg/dircrd: already exists
    Masterkey wallet files         /data/gg/dirwlt: already exists
    Dump files                     /data/gg/dirdmp: already exists
    

Oracle源配置

Oracle實時傳輸到Hadoop叢集(HDFS,Hive,Kafka等)的基本原理如圖:

根據如上原理,配置大概分為如下步驟:源端目標端配置ogg管理器(mgr);源端配置extract程序進行Oracle日誌抓取;源端配置pump程序傳輸抓取內容到目標端;目標端配置replicate程序複製日誌到Hadoop叢集或者複製到使用者自定義的解析器將最終結果落入到Hadoop叢集。

配置全域性變數

在源端伺服器OGG主目錄下,執行./ggsci到OGG命令列下,執行如下命令:

GGSCI (VM_0_25_centos) 1> dblogin userid ggs password ggs
Successfully logged into database.
GGSCI (VM_0_25_centos) 3> view params ./globals
ggschema ggs

其中./globals變數沒有的話可以用edit params ./globals來編輯新增即可(編輯器預設使用的vim)

配置管理器mgr

在OGG命令列下執行如下命令:

GGSCI (VM_0_25_centos) 4> edit param mgr
PORT 7809
DYNAMICPORTLIST 7810-7909
AUTORESTART EXTRACT *,RETRIES 5,WAITMINUTES 3
PURGEOLDEXTRACTS ./dirdat/*,usecheckpoints, minkeepdays 3

說明:PORT即mgr的預設監聽埠;DYNAMICPORTLIST動態埠列表,當指定的mgr埠不可用時,會在這個埠列表中選擇一個,最大指定範圍為256個;AUTORESTART重啟引數設定表示重啟所有EXTRACT程序,最多5次,每次間隔3分鐘;PURGEOLDEXTRACTS即TRAIL檔案的定期清理
在命令列下執行start mgr即可啟動管理程序,通過info mgr可檢視mgr狀態

GGSCI (VM_0_25_centos) 5> info mgr
Manager is running (IP port VM_0_25_centos.7809).

新增複製表

在OGG命令列下執行新增需要複製的表的操作,如下:

GGSCI (VM_0_25_centos) 7> add trandata tcloud.t_ogg
Logging of supplemental redo data enabled for table TCLOUD.T_OGG.
GGSCI (VM_0_25_centos) 8> info trandata tcloud.t_ogg
Logging of supplemental redo log data is enabled for table TCLOUD.T_OGG.
Columns supplementally logged for table TCLOUD.T_OGG: ID.

配置extract程序

配置extract程序OGG命令列下執行如下命令:

GGSCI (VM_0_25_centos) 10> edit params ext2hd
extract ext2hd
dynamicresolution
SETENV (ORACLE_SID = "orcl")
SETENV (NLS_LANG = "american_america.AL32UTF8")
userid ggs,password ggs
exttrail /u01/gg/dirdat/tc
table tcloud.t_ogg;

說明:第一行指定extract程序名稱;dynamicresolution動態解析;SETENV設定環境變數,這裡分別設定了Oracle資料庫以及字符集;userid ggs,password ggs即OGG連線Oracle資料庫的帳號密碼,這裡使用2.3.4中特意建立的複製帳號;exttrail定義trail檔案的儲存位置以及檔名,注意這裡檔名只能是2個字母,其餘部分OGG會補齊;table即複製表的表明,支援*通配,必須以;結尾
接下來在OGG命令列執行如下命令新增extract程序:

GGSCI (VM_0_25_centos) 11> add extract ext2hd,tranlog,begin now
EXTRACT added.

最後新增trail檔案的定義與extract程序繫結:

GGSCI (VM_0_25_centos) 12> add exttrail /u01/gg/dirdat/tc,extract ext2hd
EXTTRAIL added

可在OGG命令列下通過info命令檢視狀態:

GGSCI (VM_0_25_centos) 14> info ext2hd
EXTRACT    EXT2HD    Initialized   2016-11-09 15:37   Status STOPPED
Checkpoint Lag       00:00:00 (updated 00:02:32 ago)
Log Read Checkpoint  Oracle Redo Logs
                     2016-11-09 15:37:14  Seqno 0, RBA 0
                     SCN 0.0 (0)

配置pump程序

pump程序本質上來說也是一個extract,只不過他的作用僅僅是把trail檔案傳遞到目標端,配置過程和extract程序類似,只是邏輯上稱之為pump程序
在OGG命令列下執行:

GGSCI (VM_0_25_centos) 16> edit params push2hd
extract push2hd
passthru
dynamicresolution
userid ggs,password ggs
rmthost 10.0.0.2 mgrport 7809
rmttrail /data/gg/dirdat/tc
table tcloud.t_ogg;

說明:第一行指定extract程序名稱;passthru即禁止OGG與Oracle互動,我們這裡使用pump邏輯傳輸,故禁止即可;dynamicresolution動態解析;userid ggs,password ggs即OGG連線Oracle資料庫的帳號密碼,這裡使用2.3.4中特意建立的複製帳號;rmthost和mgrhost即目標端OGG的mgr服務的地址以及監聽埠;rmttrail即目標端trail檔案儲存位置以及名稱
分別將本地trail檔案和目標端的trail檔案繫結到extract程序:

GGSCI (VM_0_25_centos) 17> add extract push2hd,exttrailsource /u01/gg/dirdat/tc
EXTRACT added.
GGSCI (VM_0_25_centos) 18> add rmttrail /data/gg/dirdat/tc,extract push2hd
RMTTRAIL added.

同樣可以在OGG命令列下使用info檢視程序狀態:

GGSCI (VM_0_25_centos) 19> info push2hd

EXTRACT    PUSH2HD   Initialized   2016-11-09 15:52   Status STOPPED
Checkpoint Lag       00:00:00 (updated 00:01:04 ago)
Log Read Checkpoint  File /u01/gg/dirdat/tc000000
                     First Record  RBA 0

配置define檔案

Oracle與MySQL,Hadoop叢集(HDFS,Hive,kafka等)等之間資料傳輸可以定義為異構資料型別的傳輸,故需要定義表之間的關係對映,在OGG命令列執行:

GGSCI (VM_0_25_centos) 20> edit params tcloud
defsfile /u01/gg/dirdef/tcloud.t_ogg
userid ggs,password ggs
table tcloud.t_ogg;

在OGG主目錄下執行:
./defgen paramfile dirprm/tcloud.prm
完成之後會生成這樣的檔案/u01/gg/dirdef/tcloud.t_ogg,將這個檔案拷貝到目標端的OGG主目錄下的dirdef目錄即可。

目標端的配置

建立目標表(目錄)

這裡主要是當目標端為HDFS目錄或者Hive表或者MySQL資料庫時需要手動先在目標端建立好目錄或者表,建立方法都類似,這裡我們模擬實時傳入到HDFS目錄,故手動建立一個接收目錄即可
hadoop –fs mkdir /gg/replication/hive/

配置管理器mgr

目標端的OGG管理器(mgr)和源端的配置類似,在OGG命令列下執行:

GGSCI (10.0.0.2) 2> edit params mgr
PORT 7809
DYNAMICPORTLIST 7810-7909
AUTORESTART EXTRACT *,RETRIES 5,WAITMINUTES 3
PURGEOLDEXTRACTS ./dirdat/*,usecheckpoints, minkeepdays 3

配置checkpoint

checkpoint即複製可追溯的一個偏移量記錄,在全域性配置裡新增checkpoint表即可

GGSCI (10.0.0.2) 5> edit  params  ./GLOBALS
CHECKPOINTTABLE tcloud.checkpoint

儲存即可

配置replicate程序

在OGG的命令列下執行:

GGSCI (10.0.0.2) 8> edit params r2hdfs
REPLICAT r2hdfs
sourcedefs /data/gg/dirdef/tcloud.t_ogg
TARGETDB LIBFILE libggjava.so SET property=dirprm/hdfs.props
REPORTCOUNT EVERY 1 MINUTES, RATE 
GROUPTRANSOPS 10000
MAP tcloud.t_ogg, TARGET tcloud.t_ogg;

說明:REPLICATE r2hdfs定義rep程序名稱;sourcedefs即在3.6中在源伺服器上做的表對映檔案;TARGETDB LIBFILE即定義HDFS一些適配性的庫檔案以及配置檔案,配置檔案位於OGG主目錄下的dirprm/hdfs.props;REPORTCOUNT即複製任務的報告生成頻率;GROUPTRANSOPS為以事務傳輸時,事務合併的單位,減少IO操作;MAP即源端與目標端的對映關係
其中property=dirprm/hdfs.props的配置中,最主要的幾項配置及註釋如下:

gg.handlerlist=hdfs //OGG for Big Data中handle型別
gg.handler.hdfs.type=hdfs //OGG for Big Data中HDFS目標
gg.handler.hdfs.rootFilePath=/gg/replication/hive/ //OGG for Big Data中HDFS儲存主目錄
gg.handler.hdfs.mode=op //OGG for Big Data中傳輸模式,即op為一次SQL傳輸一次,tx為一次事務傳輸一次
gg.handler.hdfs.format=delimitedtext //OGG for Big Data中檔案傳輸格式
gg.classpath=/usr/hdp/2.2.0.0-2041/hadoop/share/hadoop/common/*:/usr/hdp/2.2.0.0-2041/hadoop/share/hadoop/common/lib/*:/usr/hdp/2.2.0.0-2041/hadoop/share/hadoop/hdfs/*:/usr/hdp/2.2.0.0-2041/hadoop/etc/hadoop/:/data/gg/:/data/gg/lib/*:/usr/hdp/2.2.0.0-2041/hadoop/client/* //OGG for Big Data中使用到的HDFS庫的定義

具體的OGG for Big Data支援引數以及定義可參考地址

最後在OGG的命令列下執行:

GGSCI (10.0.0.2) 9> add replicat r2hdfs exttrail /data/gg/dirdat/tc,checkpointtable tcloud.checkpointtab
REPLICAT added.

將檔案與複製程序繫結即可

測試

啟動程序

在源端和目標端的OGG命令列下使用start [程序名]的形式啟動所有程序。
啟動順序按照源mgr——目標mgr——源extract——源pump——目標replicate來完成。

檢查程序狀態

以上啟動完成之後,可在源端與目標端的OGG命令列下使用info [程序名]來檢視所有程序狀態,如下:
源端:

GGSCI (VM_0_25_centos) 7> info mgr
Manager is running (IP port VM_0_25_centos.7809).
GGSCI (VM_0_25_centos) 9> info ext2hd
EXTRACT    EXT2HD    Last Started 2016-11-09 16:05   Status RUNNING
Checkpoint Lag       00:00:00 (updated 00:00:09 ago)
Log Read Checkpoint  Oracle Redo Logs
                     2016-11-09 16:45:51  Seqno 8, RBA 132864000
                     SCN 0.1452333 (1452333)
GGSCI (VM_0_25_centos) 10> info push2hd
EXTRACT    PUSH2HD   Last Started 2016-11-09 16:05   Status RUNNING
Checkpoint Lag       00:00:00 (updated 00:00:01 ago)
Log Read Checkpoint  File /u01/gg/dirdat/tc000000
                     First Record  RBA 1043

目標端:

GGSCI (10.0.0.2) 13> info mgr 
Manager is running (IP port 10.0.0.2.7809, Process ID 8242).

GGSCI (10.0.0.2) 14> info r2hdfs
REPLICAT   R2HDFS    Last Started 2016-11-09 16:45   Status RUNNING
Checkpoint Lag       00:00:00 (updated 00:00:02 ago)
Process ID           4733
Log Read Checkpoint  File /data/gg/dirdat/tc000000
                     First Record  RBA 0

所有的狀態均是RUNNING即可。(當然也可以使用info all來檢視所有程序狀態)

測試同步更新效果

測試方法比較簡單,直接在源端的資料表中insert,update,delete操作即可。由於Oracle到Hadoop叢集的同步是異構形式,目前尚不支援truncate操作。
源端進行insert操作

SQL> conn tcloud/tcloud
Connected.
SQL> select * from t_ogg;
no rows selected
SQL> desc t_ogg;
 Name                                      Null?    Type
 ----------------------------------------- -------- ----------------------------
 ID                                        NOT NULL NUMBER(38)
 TEXT_NAME                                          VARCHAR2(20)
SQL> insert into t_ogg values(1,'test');
1 row created.
SQL> commit;
Commit complete.

檢視源端trail檔案狀態

[[email protected]_0_25_centos dirdat]$ ls -l /u01/gg/dirdat/tc*
-rw-rw-rw- 1 oracle oinstall 1180 Nov  9 17:05 /u01/gg/dirdat/tc000000

檢視目標端trail檔案狀態

[[email protected] dirdat]# ls -l /data/gg/dirdat/tc*      
-rw-r----- 1 root root 1217 Nov  9 17:05 /data/gg/dirdat/tc000000

檢視HDFS中是否有寫入

hadoop fs -ls /gg/replication/hive/tcloud.t_ogg
-rw-rw-r--   3 root hdfs        110 2016-11-09 17:05
/gg/replication/hive/tcloud.t_ogg/tcloud.t_ogg_2016-11-09_17-05-30.514.txt

注意:從寫入到HDFS的檔案內容看,檔案的格式如下:

ITCLOUD.T_OGG2016-11-09 09:05:25.0670822016-11-09T17:05:30.51200000000000000000001080ID1TEXT_NAMEtest

很明顯Oracle的資料已準實時匯入到HDFS了。匯入的內容實際是一條條的類似流水日誌(具體日誌格式不同的傳輸格式,內容略有差異,本例使用的delimitedtext。格式為操作符 資料庫.表名 操作時間戳(GMT+0) 當前時間戳(GMT+8) 偏移量 欄位1名稱 欄位1內容 欄位2名稱 欄位2內容),如果要和Oracle的表內容完全一致,需要客戶手動實現解析日誌並寫入到Hive的功能,這裡官方並沒有提供介面卡。目前騰訊側已實現該功能的開發。
當然你可以直接把這個HDFS的路徑通過LOCATION的方式在Hive上建外表(external table)達到實時匯入Hive的目的。

總結

OGG for Big Data實現了Oracle實時同步到Hadoop體系的介面,但得到的日誌目前仍需應用層來解析(關係型資料庫如MySQL時OGG對應版本已實現應用層的解析,無需人工解析)。
OGG的幾個主要程序mgr,extract,pump,replicate配置方便,可快速配置OGG與異構關係儲存結構的實時同步。後續如果有新增表,修改對應的extract,pump和replicate程序即可,當然如果是一整個庫,在配置上述2個程序時,使用通配的方式即可。

附錄

OGG到Hadoop體系的實時同步時,可在源端extract和pump程序配置不變的情況下,直接在目標端增加replicate程序的方式,增加同步目標,以下簡單介紹本示例中增加同步到Kafka的配置方法。
本示例中extract,pump程序都是現成的,無需再新增。只需要在目標端增加同步到Kafka的replicate程序即可。

在OGG的命令列下執行:

GGSCI (10.0.0.2) 4> edit params r2kafka
REPLICAT r2kafka
sourcedefs /data/gg/dirdef/tcloud.t_ogg
TARGETDB LIBFILE libggjava.so SET property=dirprm/r2kafka.props
REPORTCOUNT EVERY 1 MINUTES, RATE
GROUPTRANSOPS 10000
MAP tcloud.t_ogg, TARGET tcloud.t_ogg;

replicate程序和匯入到HDFS的配置類似,差異是呼叫不同的配置dirprm/r2kafka.props。這個配置的主要配置如下:

gg.handlerlist = kafkahandler //handler型別
gg.handler.kafkahandler.type = kafka
gg.handler.kafkahandler.KafkaProducerConfigFile=custom_kafka_producer.properties //kafka相關配置
gg.handler.kafkahandler.TopicName =ggtopic //kafka的topic名稱,無需手動建立
gg.handler.kafkahandler.format =json //傳輸檔案的格式,支援json,xml等
gg.handler.kafkahandler.mode =op  //OGG for Big Data中傳輸模式,即op為一次SQL傳輸一次,tx為一次事務傳輸一次
gg.classpath=dirprm/:/usr/hdp/2.2.0.0-2041/kafka/libs/*:/data/gg/:/data/gg/lib/* //相關庫檔案的引用

r2kafka.props引用的custom_kafka_producer.properties定義了Kafka的相關配置如下:

bootstrap.servers=10.0.0.62:6667 //kafkabroker的地址
acks=1
compression.type=gzip //壓縮型別
reconnect.backoff.ms=1000 //重連延時

value.serializer=org.apache.kafka.common.serialization.ByteArraySerializer
key.serializer=org.apache.kafka.common.serialization.ByteArraySerializer
batch.size=102400
linger.ms=10000

以上配置以及其他可配置項可參考

相關推薦

Oracle實時同步HDFSKafka以及關係資料庫方法

Oracle裡儲存的結構化資料匯出到Hadoop體系做離線計算是一種常見資料處置手段。近期有場景需要做Oracle到Hadoop體系的實時匯入,這裡以此案例做以介紹。Oracle作為商業化的資料庫解決方案,自發性的獲取資料庫事務日誌等比較困難,故選擇官方提供的同步工具OGG(

DSG顧利斌-Oracle資料庫實時同步複製容災備份儲存歸檔與遷移技術

1.1前言1958年,Bill Gore 和他的太太 Vieve Gore在美國特拉華州Newark市,自己家裡的地下室成立了Gore公司。1969年,Gore公司研製成功獨特的,具有防風、防水、透氣功能的GORE-TEX面料並廣泛應用於生產具有功能性、保護性和時

Oracle的用戶角色以及權限相關操作

連接數據庫 創建用戶 opera pri count curry 操作 密碼 pro 1、創建用戶create user KD identified by 123456;2、授予連接數據庫的權限grant connect to KD;3、將Scott用戶的emp表授權給KD

江蘇省公安廳警綜匯聚大數據項目DSG應用(13地市Oracle實時同步到省中心的Greenplum)

oracle 實時同步 greenplum POSTGRESQL 大數據 江蘇省公安廳全省警綜匯聚大數據項目DSG應用(oracle&greenplum) 項目概述隨著大數據時代的到來,省廳下轄各級公安機關警綜系統采集匯聚的數據量日益巨大、數據結構更加復雜,增長迅速。目前,省廳

【完全分散式Hadoop】(二)HDFSYARN以及HA高可用概念介紹

一、HDFS-Hadoop分散式檔案系統 HDFS 採用Master/Slave的架構來儲存資料,這種架構主要由四個部分組成,分別為HDFS Client、NameNode、DataNode和Secondary NameNode。下面我們分別介紹這四個組成部分 1、Client:就

Visual Studio 昨日釋出新版本:增加實時同步程式設計共同除錯

多名開發者可以在同一個專案中程式設計,在編寫程式碼和除錯程式碼時只需傳送一個 URL 網址,就能邀請他人蔘與協作,而且無需重新配置開發環境和安裝任何附加包。該服務支援 Windows、Mac 與 Linux 等平臺。 同時,微軟推出了 Visual Studio Intell

python中類的定義例項化封裝以及私有變數/方法

1.  定義類 python中定義一個類的格式如下: class MyClass(object): def __init__(self,data1,data2): sel

太平洋保險家園大數據項目DSG應用(30多個Oracle實時同步KAFKA

oracle kafka 大數據 實時同步 共享采集平臺 太平洋保險集團“家園項目”大數據平臺DSG應用(oracle&kafka) 項目背景根據太平洋保險集團的IT建設規劃,在2017年年底,需要完成“一個太保,共同的家園”項目(簡稱家園項目),旨在給客戶提供更加便攜、全面的

利用Flume將MySQL表資料準實時抽取到HDFSMySQLKafka

軟體版本號 jdk1.8、apache-flume-1.6.0-bin、kafka_2.8.0-0.8.0、zookeeper-3.4.5叢集環境安裝請先測試; 參考以下作者資訊,特此感謝;http://blog.csdn.net/wzy0623/article/detail

如何使用Maxwell和flume,kafka 把MySQL資料實時同步HDFs

Maxwell介紹Maxwell是一個守護程式,一個應用程式,能夠讀取MySQL Binlogs然後解析輸出為json。支援資料輸出到Kafka中,支援表和庫過濾。配置MySQL->Maxwell->Kafka->Flume->HDFS1)MySQL配

利用ogg實現oraclekafka的增量資料實時同步

前言 ogg即Oracle GoldenGate是Oracle的同步工具,本文講如何配置ogg以實現Oracle資料庫增量資料實時同步到kafka中,其中同步訊息格式為json。 下面是我的源端和目標端的一些配置資訊: - 版本 OG

Rsync同步Rsync+Lsync實時同步

devel 查看 users ls -l eve 編譯 var 清空 創建 Rsync同步、Rsync+Lsync實時同步 原創博文http://www.cnblogs.com/elvi/p/7658049.html #!/bin/sh #Myde by Elven

Java多線程簡析——Synchronized(同步鎖)Lock以及線程池

ati auto bsp lock eas 根據 引入 封裝 util Java多線程 Java中,可運行的程序都是有一個或多個進程組成。進程則是由多個線程組成的。最簡單的一個進程,會包括mian線程以及GC線程。 線程的狀態 線程狀態由以下一張網上圖片來說明:

rsync同步操作 發布rsync共享 inotify實時同步 Split分離解析

rsync 虛擬機A 1. 將防火墻狀態設置為trusted 2.SELinux當前修改為permissive 3.SELinux永久狀態修改為permissive 4.清空Yum緩存,檢查Yum是否可用 虛擬機B 1. 將防火墻狀態設置為trusted 2.SELinu

05: 實時增量備份 XtraBackup 備份 總結和答疑 MySQL 主從同步

lte per xtra 使用 pos posit 完全備份 一次 信息 day05 增量備份一、啟用binlog日誌 實現 實時增量備份二、使用第3方軟件提供的命令做增量備份 +++++++++++++++++++++++++++++++++一、啟用binlog日誌 實

java連接oracle數據庫使用SERVICE NAMESID以及TNSName不同寫法

1.5 service log cells mes 數據庫版本 ava row oracle 格式一: 使用ServiceName方式: jdbc:oracle:thin:@//<host>:<port>/<service_name> 例

centos 7 編譯安裝以及配置rsync+inotify 文件實時同步操作記錄

註意 .com 操作記錄 修改 pid 指定 服務 entos 實時同步 準備工作: 服務器A 源文件服務器 服務器B 數據備份服務器 註意:服務器A修改文件 實時同步到 服務器B, 服務器A和B都需要安裝rsync,並且服務器A還需要安裝inotify 一、 安裝rs

Centos7 下 配置 rsync 以及 rsync+inotify 實時同步

否則 tst rsync服務 notify 檢測 日誌 文件備份 過程 ddr Centos 7 下 配置 Rsync 以及 rsync+inotify 實時同步 rsync介紹 rsync是一個開源的快速備份工具,可以在不同主機之間鏡像同步整個目錄樹,支持增量備份,保持鏈

消息隊列服務Kafka揭秘:痛點優勢以及適用場景

cli 是什麽 占滿 事務 不同之處 消息系統 監控體系 流動 系列 摘要: 消息隊列Kafka是一個分布式的、高吞吐量、高可擴展性消息隊列服務,廣泛用於日誌收集、監控數據聚合、流式數據處理、在線和離線分析等,是大數據生態中不可或缺的產品之一,阿裏雲提供全托管服務,用戶無需

rsync+inotify實現實時同步增量備份

version rev pts 常用 無需 ESS 成功 dex http 主機A:被備份的源主機主機B:備份的目的主機 在linux內核中,默認的inotify機制提供了三個調控參數 [root@fudanwuxi html]# uname -r 3.10.0-69