1. 程式人生 > >Cassandra資料分佈之5分割槽器

Cassandra資料分佈之5分割槽器

        分割槽器決定了資料在叢集中節點的分佈。分割槽器的功能是通過為每一行資料的分割槽鍵(partion key)分配一個令牌(token),然後通過這個令牌(token)將資料儲存在cassandra叢集中。

Cassandra提供瞭如下如下4種分割槽器。Cassandra中的實現如下圖:


  • ByteOrderedPartitioner:有序分割槽器,它將鍵值資料看做是裸位元組。
  • LocalPartitioner:對分割槽鍵未做任何處理的分割槽器。
  • Murmur3Partitioner:基於MurmurHash雜湊演算法,能將資料均勻地分佈在叢集上。
    OrderPreservingPartitioner:令牌是基於鍵值的UTF-8字串。各行是按照鍵值的順序儲存的,按照排序順序對齊物理結構。此分割槽器查詢並不比隨機分割槽器更有效率——它只提供順序性。它的一個缺點是非常容易讓環不均衡,所以非常有可能導致最後大量資料位於某些節點,而其它節點的資料很少。那些存在很多資料的節點,使得環非常不平衡,常常被看做是“熱點”。
  • RandomPartitioner:它使用BigIntegerToken存放MD5雜湊值,通過雜湊值來決定鍵值放在環上的具體位置。這樣做的好處是可以讓鍵值很均勻地分佈到叢集中,因為這個分佈是隨機的。它的不足在與區間查詢的效率不高,因為在一個指定區間的鍵值可能會分佈在環上很分散的位置,而且鍵值的區間查詢返回的資料也是隨機順序的。

分割槽器可以通過修改配置檔案cassandra.yaml中partitioner的配置來設定。你也可以實現org.apache.cassandra.dht.IPartitioner介面來建立自己的分割槽器,並放到Cassandra的classpath下。

Cassandra資料分佈系列文章:

相關推薦

Cassandra資料分佈5分割槽

        分割槽器決定了資料在叢集中節點的分佈。分割槽器的功能是通過為每一行資料的分割槽鍵(partion key)分配一個令牌(token),然後通過這個令牌(token)將資料儲存在cassandra叢集中。 Cassandra提供瞭如下如下4種分割槽器。Cass

Cassandra資料分佈和副本

原文 Cassandra中資料分佈和資料副本是分不開的。這個因為Cassandra被設計為一個在一組節點之間資料備份和分佈的點對點的系統。資料由表組織,並通過行健———主鍵標識。主鍵決定資料儲存在哪個節點。行的備份被稱為副本。當資料第一次寫入,這份資料也被稱作為一個副本。

《深入理解Spark》通過自定義分割槽解決資料傾斜問題

package com.lyzx.day37 import org.apache.spark.{Partitioner, SparkConf, SparkContext} class D1 { //partitionBy和自定義分割槽器解決資料傾斜的問題 def

用NI的數據采集卡實現簡單電子測試5——壓控振蕩的測試

圖片 max 運算放大器 image 電容 改變 理論 usb 延時 本文從本人的163博客搬遷至此。 為了展示連續信號采集的方法,以其外部觸發采集功能。我用運算放大器實現了一個最簡單的低頻壓控振蕩器(VCO),作為USB-6009采集的信號源。在LabVIEW下編寫的應用

redis 系列5 資料結構字典(上)

原文: redis 系列5 資料結構之字典(上) 一. 概述   字典又稱符號表(symbol table),關聯陣列(associative array), 對映(map),是一種用於儲存鍵值對(key-value pair)的抽象資料結構。在字典中,一個key和一個value進行關聯稱為鍵值對。在字典

資料學習路-Centos6安裝python3.5

Centos 6.8安裝python3.5.2 因為學習所需,需要用到python3.x的環境,目前Linux系統預設的版本都是python2.x的,還有一些自帶的工具需要用到python2.6版本,所以要求的是python3 和 python2 共存,pip2 和** pip3共存,如何安裝

資料晉級路(5)Hadoop,Spark,Storm綜合比較

大資料框架:Spark vs Hadoop vs Storm 目錄 Hadoop Spark Storm   大資料時代,TB級甚至PB級資料已經超過單機尺度的資料處理,分散式處理系統應運而生。 知識預熱 「專治不明覺厲」之“大資料

MRpartition自定義分割槽

maptask執行的結果都會放到一個分割槽檔案中,這個分割槽檔案有自己的編號,這個編號是通過一個hash演算法來生成的,通過對context.write(k,v)中的k進行hash會產生一個值,相同的key產生的值是一樣的,所以這種辦法能將相同的key值放到一個分割槽中。分割槽中的值會發送給

5資料型別整形,字串和列表

整形(不可變,儲存一個值) 對於int型別的解釋 把一個數字或者字串轉換成整形,如果沒有引數就返回0,如果引數是一個數字,那麼就不變。對於浮點型,會自動省略小數點後面的值Convert a number or string to an integer, or return 0 if no arguments

資料開發Hive篇----分割槽表的構建

在hive當中為什麼要分割槽呢?就是要提高我們的查詢速度,那麼它是怎麼提高查詢速度的呢?首先,分割槽是指根據某個或幾個欄位來將資料表格切分成多個板塊,根據你所指定的欄位,這個欄位裡面有多少個值,我們就將分割槽建成多少個。所以,分割槽其實是在表這個單位下的下一個單位。因此,在H

資料分析37 個場景使用到集算

可閱讀原文:http://c.raqsoft.com.cn/article/1534732238335?r=alice 慢 1、清單式大報表難以及時呈現,採用資料庫分頁方式翻頁效率很差 集算器將計算和呈現做成兩個非同步執行緒,取數執行緒發出 SQL 將資料快取到本地,然後交給呈現執

【原創】大資料基礎Spark(5)Shuffle實現原理及程式碼解析

一 簡介 Shuffle,簡而言之,就是對資料進行重新分割槽,其中會涉及大量的網路io和磁碟io,為什麼需要shuffle,以詞頻統計reduceByKey過程為例, serverA:partition1: (hello, 1), (word, 1)serverB:partition2: (hell

Spring系列學習Spring Data Apache Cassandra資料訪問

英文原文:https://spring.io/projects/spring-data-cassandra 目錄 概述 特性 快速開始 學習 文件 概述 Apache Cassandra NoSQL資料庫為尋求處理高速,大容量和可變資料流的解決方案的團隊提供了許多

Redis——10叢集—— 10.1Redis叢集資料分佈理論

10.1.1 資料分佈理論分散式資料庫首先要解決把整個資料集按照分割槽規則對映到多個節點的問題, 即把資料集劃分到多個節點上, 每個節點負責整體資料的一個子集。如圖10-1所示。需要重點關注的是資料分割槽規則。 常見的分割槽規則有雜湊分割槽和順序分割槽兩種, 表10-1對這兩

4.5Python資料型別(5列表型別

返回總目錄 目錄: 1.列表的定義 2.列表的常規操作 3.列表的額外操作 (一)列表的定義: 列表的定義 [var1, var2, ……, var n ] # (1)列表的定義 [var1, var2, ……, var n ] items = ["a", 456, F

【原創】大資料基礎Spark(7)spark讀取檔案split過程(即RDD分割槽數量)

spark 2.1.1 spark初始化rdd的時候,需要讀取檔案,通常是hdfs檔案,在讀檔案的時候可以指定最小partition數量,這裡只是建議的數量,實際可能比這個要大(比如檔案特別多或者特別大時),也可能比這個要小(比如檔案只有一個而且很小時),如果沒有指定最小partition數量,初始化完成的

ML分類預測ElasticNet:利用ElasticNet迴歸對二分類資料集構建二分類(DIY交叉驗證+分類的兩種度量PK)

ML之分類預測之ElasticNet:利用ElasticNet迴歸對二分類資料集構建二分類器(DIY交叉驗證+分類的兩種度量PK) 輸出結果   設計思路   核心程式碼 #(4)交叉驗證 for ixval in range(

演算法與資料結構筆記5——線性結構面向物件的陣列

面向物件的陣列 程式碼示例: 1.建立一個面向物件的類MyArray import java.util.Arrays; public class MyArray { /** 用於儲存資料的陣列 */ private int[] elements; public MyAr

資料系列資料倉庫Hive知識整理(四)Hive的嚴格模式,動態分割槽,排序,事務,調優

1.Hive的嚴格模式Hive提供了一個嚴格模式,可以防止使用者執行那些產生意想不到的不好的影響的查詢。想想看在那麼大的資料量的前提下,如果我們在分割槽上表上使用查詢所有,或是使用了笛卡爾積查詢資料等等不良情況,那得花費我們多少時間和資源成本,Hive在預設情況下會開啟一種模

MySQL--eq_range_index_dive_limit引數學習,MYSQL 5.6 5.7處理資料分佈不均的問題

官方文件如下描述:This variable indicates the number of equality ranges in an equality comparison condition when the optimizer should switch from using index dives