Mahout clustering Canopy+K-means 原始碼分析
聚類分析
聚類(Clustering)可以簡單的理解為將資料物件分為多個簇(Cluster),每個簇裡的所有資料物件具有一定的相似性,這樣一個簇可以看作一個整體,以此可以提高計算質量或減少計算量。而資料物件間相似性的衡量通常是通過座標系中空間距離的大小來判斷;常見的有 歐幾里得距離演算法、餘弦距離演算法、皮爾遜相關係數演算法等,Mahout對此都提供了實現,並且你可以在實現自己的聚類時,通過介面切換不同的距離演算法。
資料模型
在Mahout的聚類分析的計算過程中,資料物件會轉化成向量(Vector)參與運算,在Mahout中的介面是org.apache.mahout.math.Vector 它裡面每個域用一個浮點數(double)表示,你可以通過繼承Mahout裡的基類如:AbstractVector來實現自己的向量模型,也可以直接使用一些它提供的已有實現如下:
1. DenseVector,它的實現就是一個浮點數陣列,對向量裡所有域都進行儲存,適合用於儲存密集向量。
2. RandomAccessSparseVector 基於浮點數的 HashMap 實現的,key 是整形 (int) 型別,value 是浮點數(double) 型別,它只儲存向量中不為空的值,並提供隨機訪問。
3. SequentialAccessVector 實現為整形 (int) 型別和浮點數 (double) 型別的並行陣列,它也只儲存向量中不 為空的值,但只提供順序訪問。
聚類演算法K-means與Canopy
首先介紹先K-means演算法:所有做聚類分析的資料物件,會被描述成n維空間中的一個點,用向量(Vector)表示;演算法開始會隨機選擇K個點,作為一個簇的中心,然後其餘的點會根據它與每個簇心的距離,被分配到最近簇中去;接著以迭代的方式,先重新計算每個簇的中心(通過其包含的所有向量的平均值),計算完成後對所有點屬於哪個簇進行重新劃分;一直如此迭代直到過程收斂;可證明迭代次數是有限的。
雖然K-means簡單且高效,但它存在一定問題,首先K值(即簇的數量)是人為確定的,在對資料不瞭解的情況下,很難給出合理的K值;其次初始簇心的選擇是隨機的,若選擇到了較孤立的點,會對聚類的效果產生非常大的影響。因此通常會用Canopy演算法配合,進行初始化,確定簇數以及初始簇心。
Canopy演算法首先會要求輸入兩個閥值 T1和T2,T1>T2;演算法有一個叢集這裡叫Canopy的集合(Set),當然一開始它是空的;然後會將讀取到的第一個點作為集合中的一個Canopy,接著讀取下一個點,若該點與集合中的每個Canopy計算距離,若這個距離小於T1,則這個點會分配給這個Canopy(一個點可以分配給多個Canopy),而當這個距離小於T2時這個點不能作為一個新的Canopy而放到集合中。也就是說當一個點只要與集合中任意一個Canopy的距離小於T2了,即表示它裡那個Canopy太近不能作為新的Canopy。若都沒有則生成一個新的Canopy放入集合中。以此迴圈,直到沒有點了。
所以這裡用到的聚類分析演算法的思路是:首先通過Canopy演算法進行聚類,以確定簇數以及初始簇心的,接著通過K-means演算法進行迭代運算,收斂出最後的聚類結果。接下來我們看看實現。
程式碼示例
在 mahout-examples 中的 org.apache.mahout.clustering.syntheticcontrol.kmeans.Job類,對上述演算法提供了較完整的實現,它是一個Hadoop的job,我們從原始碼入手,看如何將實際的資料跑起來。下面是該類的核心邏輯程式碼:
/**
Java程式碼- * Run the kmeans clustering job on an input dataset using the given
- * distance measure, t1, t2 and iteration parameters. All output data will
- * be written to the output directory, which will be initially deleted if it
- * exists. The clustered points will reside in the path
- * <output>/clustered-points. By default, the job expects the a file
- * containing synthetic_control.data as obtained from
- * http://archive.ics.uci.
- * edu/ml/datasets/Synthetic+Control+Chart+Time+Series resides in a
- * directory named "testdata", and writes output to a directory named
- * "output".
- *
- * @param conf
- * the Configuration to use
- * @param input
- * the String denoting the input directory path
- * @param output
- * the String denoting the output directory path
- * @param measure
- * the DistanceMeasure to use
- * @param t1
- * the canopy T1 threshold
- * @param t2
- * the canopy T2 threshold
- * @param convergenceDelta
- * the double convergence criteria for iterations
- * @param maxIterations
- * the int maximum number of iterations
- */
- public static void run(Configuration conf, Path input, Path output,
- DistanceMeasure measure, double t1, double t2,
- double convergenceDelta, int maxIterations) throws Exception {
- System.out.println("run canopy output: " + output);
- Path directoryContainingConvertedInput = new Path(output,
- DIRECTORY_CONTAINING_CONVERTED_INPUT);
- log.info("Preparing Input");
- InputDriver.runJob(input, directoryContainingConvertedInput,
- "org.apache.mahout.math.RandomAccessSparseVector");
- log.info("Running Canopy to get initial clusters");
- CanopyDriver.run(conf, directoryContainingConvertedInput, output,
- measure, t1, t2, false, false);
- log.info("Running KMeans");
- System.out.println("kmeans cluster starting...");
- KMeansDriver.run(conf, directoryContainingConvertedInput, new Path(
- output, Cluster.INITIAL_CLUSTERS_DIR+"-final"), output, measure,
- convergenceDelta, maxIterations, true, false);
- // run ClusterDumper
- ClusterDumper clusterDumper = new ClusterDumper(finalClusterPath(conf,
- output, maxIterations), new Path(output, "clusteredPoints"));
- clusterDumper.printClusters(null);
- }
這個Job中呼叫了3個Map/Reduce 任務以及一個轉換,它們如下:
1. 第8行: InputDriver.runJob ( ) ,它用於將原始資料檔案轉換成 Mahout進行計算所需格式的檔案 SequenceFile,它是Hadoop API提供的一種二進位制檔案支援。這種二進位制檔案直接將<key, value>對序列化到檔案中。 2. 第11行:CanopyDriver.run( ) , 即用Canopy演算法確定初始簇的個數和簇的中心。 3. 第14行:KMeansDriver.run( ) , 這顯然是K-means演算法進行聚類。 4. 第18~20行,ClusterDumper類將聚類的結果裝換並寫出來,若你瞭解了原始碼,你也可以自己實現這個類的功能,因為聚類後的資料儲存格式,往往跟自身業務有關。 這裡細講下第一個Map/Reduce: InputDriver.runJob ( )因為我們需要了解,初始資料的格式,其他的任務CanopyDriver.run( )和KMeansDriver.run( )任務就不細講了,主要就是Canopy和K-means演算法,原理已經介紹了,實現也不難,需要你瞭解hadoop程式設計。 InputDriver.runJob( )實現也非常簡單,它只有Map,其程式碼如下: Java程式碼- @Override
- protected void map(LongWritable key, Text values, Context context) throws IOException, InterruptedException {
- String[] numbers = SPACE.split(values.toString());
- // sometimes there are multiple separator spaces
- Collection<Double> doubles = Lists.newArrayList();
- for (String value : numbers) {
- if (!value.isEmpty()) {
- doubles.add(Double.valueOf(value));
- }
- }
- // ignore empty lines in data file
- if (!doubles.isEmpty()) {
- try {
- Vector result = (Vector) constructor.newInstance(doubles.size());
- int index = 0;
- for (Double d : doubles) {
- result.set(index++, d);
- }
- VectorWritable vectorWritable = new VectorWritable(result);
- context.write(new Text(String.valueOf(index)), vectorWritable);
- } catch (InstantiationException e) {
- throw new IllegalStateException(e);
- } catch (IllegalAccessException e) {
- throw new IllegalStateException(e);
- } catch (InvocationTargetException e) {
- throw new IllegalStateException(e);
- }
- }
- }