《Apache Common CLI官方文件》
本篇文章是併發程式設計網組織的一次Apache Common元件翻譯的一部分,因為無意中看到了Apache Common CLI感覺很好奇,因為這個工具很少在網上看到,當然或許我沒有關注過。因為我之前也寫過類似的CLI工具所以感覺情有獨鍾吧。所以讓我來為大家揭開CLI的神祕面紗。
雖然各種人機互動技術飛速發展,但最傳統的命令列模式依然被廣泛應用於各個領域:從編譯程式碼到系統管理,命令列因其簡潔高效而備受寵愛。各種工具和系統都提供了詳盡的使用手冊,有些還提供示例說明如何二次開發。然而關於如何開發一個易用、強壯的命令列工具的文章卻很少。
簡介
構建命令列程式需要三個步驟. 分別是定義, 解析和詢問. 下面的章節將輪流介紹每一個階段,將介紹如何去實現一個CLI .
相關推薦
《Apache Common CLI官方文件》
原文連結 參考連結 譯者:小村長 本篇文章是併發程式設計網組織的一次Apache Common元件翻譯的一部分,因為無意中看到了Apache Common CLI感覺很好奇,因為這個工具很少在網上看到,當然或許我沒有關注過。因為我之前也寫過類似的CLI工具所以感覺情有獨鍾吧。所以讓我來為大家揭
Apache Commons Pool官方文件
原文連結 譯者:張坤 Apache Commons Pool 開源軟體庫提供了一個物件池API和一系列物件池實現。Apache Commons Pool 2.x與1.x相比實現了一個可重寫的物件池實現。另外,效能和可伸縮性也有了改進,2.x版本包含魯棒的例項追蹤和物件池監控。2.x版本需要J
Apache Shiro Architecture--官方文件
原文地址:http://shiro.apache.org/architecture.html Apache Shiro's design goals are to simplify application security by being intuitive and easy to use. Shiro'
《Apache Common官方文件》翻譯邀請
原文連結 有很多工具類其實Apache Common包裡都有,所以每次開發之前都可以先看下是否這包裡已經有相關的工具類,5月份併發網組織大家翻譯Apache Common包。 有興趣的同學可以通過評論領取,翻譯完成之後再併發網直接提交稽核。 一次領取一篇,翻譯完成之後可以繼續領取,領取文章後最
Apache Storm 官方文件 —— Trident State
Trident 中含有對狀態化(stateful)的資料來源進行讀取和寫入操作的一級抽象封裝工具。這個所謂的狀態(state)既可以儲存在拓撲內部(儲存在記憶體中並通過 HDFS 來實現備份),也可以存入像 Memcached 或者 Cassandra 這樣的外部資料庫中。而對於 Trident A
Flume.apache.org 官方文件學習筆記 part one
Apache Flume 是一個分散式,可靠且可用的系統,用於有效地從許多不同的源收集,聚合和移動大量日誌資料到集中式資料儲存。 Apache Flume的使用不僅限於日誌資料聚合。由於資料來源是可定製的,因此Flume可用於傳輸大量事件資料,包括但不限於網路流量資料
Flume.apache.org 官方文件學習筆記 part two
配置個體元件: 當你定義了這個流之後,你需要去設定每個資源、接收器、通道的屬性。這是在你設定元件型別和每個元件的特定屬性值的同一層名稱空間內完成的。 # properties for sources <Agent>.sources.<S
Flume.apache.org 官方文件學習筆記 part three
JMS 源: jms源閱讀從jms目的地發來的資訊,例如佇列,主題等。 作為一個jms應用程式,他應該和jms提供程式一起工作,但是僅使用ActiveMQ進行測試。JMS源提供可配置的批量大小,訊息選擇器,使用者/傳遞還有訊息到接收器事件轉換器。 要
Flume.apache.org 官方文件學習筆記 part five
kafka 源: Kafka 源是Apache Kafka 消耗者,讀取來自kafka主題的資訊。如果你有多個Kafka源在執行,你可以給他們配置一樣的使用者群組,以便每個源都讀取一組唯一的主題分割槽。 要注
《Apache Flink官方文件》 Apache Flink介紹
原文連結 譯者:ivansong 下面是關於Apache Flink(以下簡稱Filnk)框架和流式計算的概述。為了更專業、更技術化的介紹,在Flink文件中推薦了一些“概念性”的文章。 1、無窮資料集的持續計算 在我們詳細介紹Flink前,複習一下當我們計算資料選擇運算模型時,很可能會遇到
《Apache Hive官方文件》首頁
原文連結 譯者:BJdaxiang Apache Hive是一款資料倉庫軟體,通過SQL使得分散式儲存系統中的大的資料集的讀、寫和管理變得容易。使用者可以使用自帶的命令列工具和JDBC驅動用來連線Hive。 開始Apache Hive之旅 在我們的wiki上了解更多關於Hive的功能。
Apache Storm 官方文件 —— 配置
原文連結 譯者:魏勇 Storm 有大量配置項用於調整 nimbus、supervisors 和拓撲的行為。有些配置項是系統級的配置項,在拓撲中不能修改,另外一些配置項則是可以在拓撲中修改的。 每一個配置項都在 Storm 程式碼庫的 defaults.yaml 中有一個預設值。可以通過
Apache Storm 官方文件 —— 本地模式
原文連結 譯者:魏勇 本地模式是一種在本地程序中模擬 Storm 叢集的工作模式,對於開發和測試拓撲很有幫助。在本地模式下執行拓撲與在叢集模式下執行拓撲的方式很相似。 建立一個程序內的“叢集”只需要使用 LocalCluster 類即可,例如: import backtype.sto
《Apache RocketMQ使用者指南》官方文件
本章節主要詳細介紹如何在本地計算機上設定RocketMQ訊息系統以傳送和接收訊息. 前置條件 假定安裝了以下軟體: 推薦64bit OS, Linux/Unix/Mac系統; 64bit JDK 1.8+; Maven 3.2.x Git 從釋出版下載並構建 點選 這裡 下載4.2.0發行版原始碼. 你
《Apache Flink 官方文件》前言
原文連結 譯者:ivansong 本文件針對的是Apache Flink的 1.2.0版本。 Apache Flink是一個分散式流式和批量資料處理程式的開源平臺。Flink的核心是流式資料引擎,Flink通過資料流的分散式計算的方式提供資料的分發、通訊和容錯。Flink也構建了流引擎之上的批
《Apache Flink官方文件》程式設計模型
原文連結 譯者:魏勇 抽象層次 Flink 能夠為流式計算或批處理應用提供多種層次的抽象介面。 最低階的抽象介面是狀態化的資料流介面。這個介面是通過 ProcessFunction 整合到 資料流 API 中的。此類介面讓使用者可以使用連續的容錯狀態,並且可以不受限制地處理多個數據
《Apache Thrift官方文件》簡介
Apache Thrift 最後修改時間: 2017-11-11 簡介 Thrift是一個輕量級、語言無關的軟體棧,它具有一套為RPC通訊生成程式碼的機制。Thrift為資料的傳輸、序列化,以及應用層處理提供了乾淨的抽象。採用這種抽象棧,它的程式碼生成器僅使用一種簡潔的定義語言作為輸入,便能
《Apache Zookeeper 官方文件》管理分散式系統就像管理動物園一樣
原文連結 譯者:方騰飛,JIT Zookeeper 是一個高效能的分散式應用協調服務框架. 它以一種簡單介面的形式暴露了一系列的通用服務,比如命名,配置管理,同步和分組等。 因此你不必從一堆草稿中去實現他們。你可以使用現成的東西去實現一致性,分組管理,機器選擇和已經存在的一些協議。同時你能夠用
Apache Storm 官方文件 —— Trident Spouts
原文連結 譯者:魏勇 與一般的 Storm API 一樣,spout 也是 Trident 拓撲的資料來源。不過,為了實現更復雜的功能服務,Trident Spout 在普通的 Storm Spout 之上另外提供了一些 API 介面。 資料來源、資料流以及基於資料流更新 state(比
Apache Storm 官方文件 —— FAQ
原文連結 譯者:魏勇 Storm 最佳實踐 關於配置 Storm + Trident 的建議 worker 的數量最好是伺服器數量的倍數;topology 的總併發度(parallelism)最好是 worker 數量的倍數;Kafka 的分割槽數(partitions)最好是 Spo