HDFS基本操作(命令列和客戶端)
一、命令列操作
1.顯示目錄資訊:
[[email protected] hadoop-2.6.5]# hadoop fs -ls /
[root@hadoop001 hadoop-2.6.5]# hadoop fs -ls /
Found 2 items
drwx------ - root supergroup 0 2018-08-13 19:06 /tmp
drwxr-xr-x - root supergroup 0 2018-08-13 19:03 /user
2.顯示多級目錄:
[[email protected] hadoop-2.6.5]# hadoop fs -ls -R /
3.建立多級目錄:
[[email protected] hadoop-2.6.5]# hadoop fs -mkdir -p /aaa/bbb/cc/dd
[root@hadoop001 hadoop-2.6.5]# hadoop fs -mkdir -p /aaa/bbb/cc/dd
[root@hadoop001 hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x - root supergroup 0 2018-08-13 19:54 /aaa
drwxr-xr-x - root supergroup 0 2018-08-13 19:54 /aaa/bbb
drwxr-xr-x - root supergroup 0 2018-08-13 19:54 /aaa/bbb/cc
drwxr-xr-x - root supergroup 0 2018-08-13 19:54 /aaa/bbb/cc/dd
4.將檔案從本地剪下到hdfs
[[email protected] hadoop-2.6.5]# hadoop fs -moveFromLocal input/log.txt /user/data/
[[email protected] hadoop-2.6 .5]# hadoop fs -ls -R /
drwxr-xr-x - root supergroup 0 2018-08-13 19:03 /user
drwxr-xr-x - root supergroup 0 2018-08-13 19:58 /user/data
[[email protected] hadoop-2.6.5]# hadoop fs -moveFromLocal input/log.txt /user/data/
[[email protected] hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x - root supergroup 0 2018-08-13 19:03 /user
drwxr-xr-x - root supergroup 0 2018-08-13 19:59 /user/data
-rw-r--r-- 3 root supergroup 39654 2018-08-13 19:59 /user/data/log.txt
5.將檔案從本地拷貝到hdfs
[[email protected] hadoop-2.6.5]# hadoop fs -copyFromLocal input/phone_data.txt /user/data/
[[email protected] hadoop-2.6.5]# hadoop fs -copyFromLocal input/phone_data.txt /user/data/
[[email protected] hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x - root supergroup 0 2018-08-13 19:03 /user
drwxr-xr-x - root supergroup 0 2018-08-13 20:02 /user/data
-rw-r--r-- 3 root supergroup 39654 2018-08-13 19:59 /user/data/log.txt
-rw-r--r-- 3 root supergroup 1429 2018-08-13 20:02 /user/data/phone_data.txt
[[email protected] hadoop-2.6.5]# hadoop fs -put input/phone_data.txt /user/data/
[[email protected] hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x - root supergroup 0 2018-08-13 19:03 /user
drwxr-xr-x - root supergroup 0 2018-08-13 20:03 /user/data
-rw-r--r-- 3 root supergroup 39654 2018-08-13 19:59 /user/data/log.txt
[[email protected] hadoop-2.6.5]# hadoop fs -put input/phone_data.txt /user/data/
[[email protected] hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x - root supergroup 0 2018-08-13 19:03 /user
drwxr-xr-x - root supergroup 0 2018-08-13 20:04 /user/data
-rw-r--r-- 3 root supergroup 39654 2018-08-13 19:59 /user/data/log.txt
-rw-r--r-- 3 root supergroup 1429 2018-08-13 20:04 /user/data/phone_data.txt
6.將檔案從hdfs貼上到本地
hadoop fs - moveToLocal /aaa/bbb/cc/dd /home/hadoop/a.txt
這條命令在hadoop-2.6.5不能使用
7.將檔案從hdfs複製到本地
[[email protected] hadoop-2.6.5]# hadoop fs -get /user/data/log.txt input/
[root@hadoop001 hadoop-2.6.5]# hadoop fs -get /user/data/log.txt input/
[root@hadoop001 hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x - root supergroup 0 2018-08-13 19:03 /user
drwxr-xr-x - root supergroup 0 2018-08-13 20:04 /user/data
-rw-r--r-- 3 root supergroup 39654 2018-08-13 19:59 /user/data/log.txt
-rw-r--r-- 3 root supergroup 1429 2018-08-13 20:04 /user/data/phone_data.txt
[root@hadoop001 hadoop-2.6.5]# ll input/
total 52
-rw-r--r--. 1 root root 39654 Aug 13 20:06 log.txt
[[email protected] hadoop-2.6.5]# hadoop fs -copyToLocal /user/data/phone_data.txt input/
[[email protected] hadoop-2.6.5]# ll input/
total 48
-rw-r--r--. 1 root root 39654 Aug 13 20:06 log.txt
-rwxrw-rw-. 1 root root 116 Aug 13 19:10 part-r-00000
-rw-r--r--. 1 root root 53 Aug 13 01:27 xiaoxiao.txt
[[email protected] hadoop-2.6.5]# hadoop fs -copyToLocal /user/data/phone_data.txt input/
[[email protected] hadoop-2.6.5]# ll input/
total 52
-rw-r--r--. 1 root root 39654 Aug 13 20:06 log.txt
-rwxrw-rw-. 1 root root 116 Aug 13 19:10 part-r-00000
-rw-r--r--. 1 root root 1429 Aug 13 20:12 phone_data.txt
-rw-r--r--. 1 root root 53 Aug 13 01:27 xiaoxiao.txt
8.追加一個檔案到另一個檔案的結尾
[[email protected] hadoop-2.6.5]# hadoop fs -appendToFile input/xiaoxiao.txt /user/data/xiaoxiao.txt
[[email protected] hadoop-2.6.5]# hadoop fs -appendToFile input/xiaoxiao.txt /user/data/xiaoxiao.txt
[[email protected] hadoop-2.6.5]# hadoop fs -cat /user/data/xiaoxiao.txt
hello world sb
nimabi s hello //追加一串相同的資料進去
hhs
shh
ssh
hhs
world
hello world sb
nimabi s hello
hhs
shh
ssh
hhs
world
9.顯示檔案內容
[[email protected] hadoop-2.6.5]# hadoop fs -cat /user/data/xiaoxiao.txt
[root@hadoop001 hadoop-2.6.5]# hadoop fs -cat /user/data/xiaoxiao.txt
hello world sb
nimabi s hello
hhs
shh
ssh
hhs
world
hello world sb
nimabi s hello
hhs
shh
ssh
hhs
world
10.顯示一個檔案的末尾
[[email protected] hadoop-2.6.5]# hadoop fs -tail /user/data/xiaoxiao.txt
當檔案內容較少時,會全部顯示出來。
[root@hadoop001 hadoop-2.6.5]# hadoop fs -tail /user/data/xiaoxiao.txt
hello world sb
nimabi s hello
hhs
shh
ssh
hhs
world
hello world sb
nimabi s hello
hhs
shh
ssh
hhs
world
11.修改檔案許可權
hadoop fs -chmod 777 /user/data/xiaoxiao.txt
[[email protected] hadoop-2.6.5]# hadoop fs -chmod 777 /user/data/xiaoxiao.txt
[[email protected] hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x - root supergroup 0 2018-08-13 19:03 /user
drwxr-xr-x - root supergroup 0 2018-08-13 20:15 /user/data
-rw-r--r-- 3 root supergroup 39654 2018-08-13 19:59 /user/data/log.txt
-rw-r--r-- 3 root supergroup 1429 2018-08-13 20:04 /user/data/phone_data.txt
#該檔案被修改了許可權
-rwxrwxrwx 3 root supergroup 106 2018-08-13 20:15 /user/data/xiaoxiao.txt
12.修改檔案所屬
[[email protected] hadoop-2.6.5]# hadoop fs -chown j:j /user/data/xiaoxiao.txt
[[email protected] hadoop-2.6.5]# hadoop fs -chown j:j /user/data/xiaoxiao.txt
[[email protected] hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x - root supergroup 0 2018-08-13 19:03 /user
drwxr-xr-x - root supergroup 0 2018-08-13 20:15 /user/data
-rw-r--r-- 3 root supergroup 39654 2018-08-13 19:59 /user/data/log.txt
-rw-r--r-- 3 root supergroup 1429 2018-08-13 20:04 /user/data/phone_data.txt
-rwxrwxrwx 3 j j 106 2018-08-13 20:15 /user/data/xiaoxiao.txt
13.從hdfs的一個路徑拷貝到hdfs的另一個路徑
[[email protected] hadoop-2.6.5]# hadoop fs -cp /user/data/log.txt /user/log.txt
[[email protected] hadoop-2.6.5]# hadoop fs -cp /user/data/log.txt /user/log.txt
[[email protected] hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x - root supergroup 0 2018-08-13 20:32 /user
drwxr-xr-x - root supergroup 0 2018-08-13 20:15 /user/data
-rw-r--r-- 3 root supergroup 39654 2018-08-13 19:59 /user/data/log.txt
-rw-r--r-- 3 root supergroup 1429 2018-08-13 20:04 /user/data/phone_data.txt
-rwxrwxrwx 3 j j 106 2018-08-13 20:15 /user/data/xiaoxiao.txt
-rw-r--r-- 3 root supergroup 39654 2018-08-13 20:32 /user/log.txt
14.在hdfs目錄中移動檔案
[[email protected] hadoop-2.6.5]# hadoop fs -mv /user/log.txt /
[root@hadoop001 hadoop-2.6.5]# hadoop fs -mv /user/log.txt /
[root@hadoop001 hadoop-2.6.5]# hadoop fs -ls -R /
-rw-r--r-- 3 root supergroup 39654 2018-08-13 20:32 /log.txt
15.刪除檔案或資料夾
[[email protected] hadoop-2.6.5]# hadoop fs -rm -r /log.txt
[[email protected] hadoop-2.6.5]# hadoop fs -rm -r /log.txt
18/08/13 20:37:05 INFO fs.TrashPolicyDefault: Namenode trash configuration: Deletion interval = 0 minutes, Emptier interval = 0 minutes.
Deleted /log.txt
[[email protected] hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x - root supergroup 0 2018-08-13 20:34 /user
drwxr-xr-x - root supergroup 0 2018-08-13 20:15 /user/data
-rw-r--r-- 3 root supergroup 39654 2018-08-13 19:59 /user/data/log.txt
-rw-r--r-- 3 root supergroup 1429 2018-08-13 20:04 /user/data/phone_data.txt
-rwxrwxrwx 3 j j 106 2018-08-13 20:15 /user/data/xiaoxiao.txt
16.刪除空目錄
[[email protected] hadoop-2.6.5]# hadoop fs -rmdir /aaa/bbb/ccc
[root@hadoop001 hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x - root supergroup 0 2018-08-13 20:39 /aaa
drwxr-xr-x - root supergroup 0 2018-08-13 20:39 /aaa/bbb
drwxr-xr-x - root supergroup 0 2018-08-13 20:39 /aaa/bbb/ccc
[root@hadoop001 hadoop-2.6.5]# hadoop fs -rmdir /aaa/bbb/ccc
[root@hadoop001 hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x - root supergroup 0 2018-08-13 20:39 /aaa
drwxr-xr-x - root supergroup 0 2018-08-13 20:40 /aaa/bbb
17.統計檔案系統的可用空間資訊
[[email protected] hadoop-2.6.5]# hadoop fs -df -h /
[[email protected] hadoop-2.6.5]# hadoop fs -df -h /
Filesystem Size Used Available Use%
hdfs://hadoop001:8020 53.1 G 237.9 K 26.0 G 0%
18.統計資料夾的大小資訊
[[email protected] hadoop-2.6.5]# hadoop fs -du -s -h /user
[root@hadoop001 hadoop-2.6.5]# hadoop fs -du -s -h /user
40.2 K /user
19.統計一個指定目錄下的檔案節點數量
[[email protected] hadoop-2.6.5]# hadoop fs -count /user/
# 2表示該路徑下目錄有2層,3表示檔案數量有3個
2 3 41189 /user
[[email protected] hadoop-2.6.5]# hadoop fs -ls -R /
drwxr-xr-x - root supergroup 0 2018-08-13 20:39 /aaa
drwxr-xr-x - root supergroup 0 2018-08-13 20:40 /aaa/bbb
drwxr-xr-x - root supergroup 0 2018-08-13 20:34 /user
drwxr-xr-x - root supergroup 0 2018-08-13 20:15 /user/data
-rw-r--r-- 3 root supergroup 39654 2018-08-13 19:59 /user/data/log.txt
-rw-r--r-- 3 root supergroup 1429 2018-08-13 20:04 /user/data/phone_data.txt
-rwxrwxrwx 3 j j 106 2018-08-13 20:15 /user/data/xiaoxiao.txt
二、客戶端API操作
使用IDEA新建一個java專案,至於導包的問題的話,網上很多人是直接將hadoop.tar.gz中share目錄的包複製出來,匯入進去。
我是先使用maven匯入hadoop依賴,然後打包成war包,解壓後再lib中可以看到hadoop的依賴包。
1、上傳檔案
// 獲取配置資訊
Configuration conf = new Configuration();
conf.set("fs.defaultFs", "hdfs://hadoop001:8020");
// 獲取檔案系統
FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
System.out.println(fileSystem);
fileSystem.copyFromLocalFile(new Path("C:/usr/local/image/wardrobe/1.jpg"), new Path("/user/data/image/2.jpg"));
//關閉檔案系統
fileSystem.close();
2、上傳檔案並刪除原檔案
/**
* 檔案上傳
*
* @throws Exception
*/
@Test
public void putFileToHDFS() throws Exception {
// 獲取檔案系統
Configuration conf = new Configuration();
FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
fileSystem.copyFromLocalFile(false, new Path("C:\\Users\\JessXie\\Downloads\\hadoop-2.6.5.tar.gz"), new Path("/user/data/image/"));
fileSystem.close();
}
3、檔案下載
/**
* 檔案下載
*
* @throws Exception
*/
@Test
public void getFileToHDFS() throws Exception {
// 獲取檔案系統
Configuration conf = new Configuration();
// 由於是使用虛擬機器hadoop叢集,不是本地,所以要使用
// public static FileSystem get(java.net.URI uri, @NotNull Configuration conf,
// String user)方法,在後面加上使用者引數。
FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
fileSystem.copyToLocalFile(true, new Path("/user/data/image/4.jpg"), new Path("C:\\Users\\JessXie\\Downloads\\hadoop-2.6.5.tar.gz"), true);
fileSystem.close();
}
4、建立資料夾
/**
* 建立資料夾
*/
@Test
public void mkdirAtHDFS() throws Exception {
// 獲取檔案系統
Configuration conf = new Configuration();
FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
// 適合一級多級目錄
fileSystem.mkdirs(new Path("/user/data/image/2018"));
fileSystem.close();
}
5、刪除檔案
/**
* 刪除檔案
*/
@Test
public void rmdirAtHDFS() throws Exception {
// 獲取檔案系統
Configuration conf = new Configuration();
FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
// 適合一級多級目錄
fileSystem.delete(new Path("/user/data/image/4.jpg"), true);
fileSystem.close();
}
6、修改檔名稱
/**
* 修改檔名稱
*/
@Test
public void renameAtHDFS() throws Exception {
// 獲取檔案系統
Configuration conf = new Configuration();
FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
// 適合一級多級目錄
boolean valid = fileSystem.rename(new Path("/user/data/image/4.jpg"), new Path("/user/data/image/2.jpg"));
System.out.println(valid ? "修改成功" : "修改失敗");
fileSystem.close();
}
7、檢視檔案詳情
/**
* 檢視檔案詳情
*/
@Test
public void readFileAtHDFS() throws Exception {
// 獲取檔案系統
Configuration conf = new Configuration();
FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
// 適合一級多級目錄
RemoteIterator<LocatedFileStatus> valid = fileSystem.listFiles(new Path("/"), true);
while (valid.hasNext()) {
// 將檔案資訊拿到
LocatedFileStatus status = valid.next();
// 列印檔案資訊
System.out.println(status.getPath().getName());
System.out.println(status.getBlockSize());
System.out.println(status.getLen());
System.out.println(status.getPermission());
// 獲取檔案的塊資訊
BlockLocation[] blockLocations = status.getBlockLocations();
for (BlockLocation blockLocation : blockLocations) {
System.out.println("block offset:" + blockLocation.getOffset());
String[] hosts = blockLocation.getHosts();
for (String host : hosts) {
System.out.println("host:" + host);
}
}
System.out.println("----------------------------");
}
fileSystem.close();
}
8、檢視檔案和資料夾資訊
/**
* 檢視檔案和資料夾資訊
*/
@Test
public void readFolderAtHDFS() throws Exception {
// 獲取檔案系統
Configuration conf = new Configuration();
FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
// 適合一級多級目錄
FileStatus[] valid = fileSystem.listStatus(new Path("/user/data/image/"));
for (FileStatus fileStatus : valid) {
if (fileStatus.isDirectory()) {
System.out.println("f---" + fileStatus.getPath().getName());
} else {
System.out.println("d---" + fileStatus.getPath().getName());
}
}
fileSystem.close();
}
三、客戶端IO流操作
1、檔案上傳
/**
* 流-上傳檔案
*
* @throws Exception
*/
@Test
public void putFileToHDFS() throws Exception {
// 獲取檔案系統
Configuration conf = new Configuration();
FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
// 獲取輸出流
FSDataOutputStream fos = fileSystem.create(new Path("/user/data/input/hadoop-2.6.5.tar.gz"));
// 獲取輸輸入流
FileInputStream fis = new FileInputStream(new File("C:\\hadoop-2.6.5.tar.gz"));
// 流對接
try {
IOUtils.copyBytes(fis, fos, conf);
} catch (Exception e) {
e.printStackTrace();
} finally {
IOUtils.closeStream(fis);
IOUtils.closeStream(fos);
}
fileSystem.close();
}
2、檔案下載
/**
* 流-下載檔案
*
* @throws Exception
*/
@Test
public void getFileFromHDFS() throws Exception {
// 獲取檔案系統
Configuration conf = new Configuration();
FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
// 獲取輸入流
FSDataInputStream fis = fileSystem.open(new Path("/user/data/hadoop-2.6.5.tar.gz"));
// 獲取輸出流
FileOutputStream fos = new FileOutputStream(new File("C:\\hadoop-2.6.5.tar.gz"));
// 流對接
try {
IOUtils.copyBytes(fis, fos, conf);
} catch (Exception e) {
e.printStackTrace();
} finally {
IOUtils.closeStream(fis);
IOUtils.closeStream(fos);
}
fileSystem.close();
}
3、定位檔案下載
/**
* 大檔案定位下載第一塊
* @throws Exception
*/
@Test
public void getFileFromHDFSSeek1() throws Exception {
// 獲取檔案系統
Configuration conf = new Configuration();
FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
// 獲取輸入流
FSDataInputStream fis = fileSystem.open(new Path("/user/data/image/hadoop-2.6.5.tar.gz"));
// 獲取輸出流
FileOutputStream fos = new FileOutputStream(new File("C:\\hadoop-2.6.5.tar.gz.part1"));
// 流對接(只讀取128M)
byte[] buf = new byte[1024];
// 1024 * 1024 * 128
for (int i = 0; i < 1024 * 128; i++) {
fis.read(buf);
fos.write(buf);
}
// 關閉流
try {
IOUtils.closeStream(fis);
IOUtils.closeStream(fos);
} catch (Exception e) {
e.printStackTrace();
}
fileSystem.close();
}
/**'
* 大檔案定位下載最後一塊
* @throws Exception
*/
@Test
public void getFileFromHDFSSeek2() throws Exception {
// 獲取檔案系統
Configuration conf = new Configuration();
FileSystem fileSystem = FileSystem.get(new URI("hdfs://hadoop001:8020"), conf, "root");
// 獲取輸入流
FSDataInputStream fis = fileSystem.open(new Path("/user/data/image/hadoop-2.6.5.tar.gz"));
// 獲取輸出流
FileOutputStream fos = new FileOutputStream(new File("C:\\hadoop-2.6.5.tar.gz.part2"));
// 流對接(只讀取128M)
fis.seek(1024 * 1024 * 128);
try {
IOUtils.copyBytes(fis, fos, conf);
} catch (Exception e){
e.printStackTrace();
} finally {
IOUtils.closeStream(fis);
IOUtils.closeStream(fos);
}
fileSystem.close();
}
相關推薦
HDFS基本操作(命令列和客戶端)
一、命令列操作 1.顯示目錄資訊: [[email protected] hadoop-2.6.5]# hadoop fs -ls / [root@hadoop001 hadoop-2.6.5]# hadoop fs -ls /
MongoDB資料庫的基本操作命令以及和mysql進行比較
今天我來談一下MongoDB的基本操作命令和與關係型資料庫mysql的對比。 (1)使用mysql資料庫顯示已經存在的資料庫,使用命令show databases,截圖如下: 使用MongoDB顯示
CentOS7 使用命令列Webdav客戶端連線OwnCloud、NextCloud
平時折騰OwnCloud、NextCloud的時候,難免會出意外:資料庫損壞、誤刪資料檔案目錄等等。如果伺服器上有檔案備份,可以使用OwnCloud、NextCloud的webdav將資料匯入,就不用下載檔案再重新上傳了。 我使用的是客戶端是davfs2。
HDFS的shell(命令列客戶端操作)
HDFS提供shell命令列客戶端,使用方法如下:常用命令引數介紹-help 功能:輸出這個命令引數手冊 -ls 功能:顯示目錄資訊 示例: hadoop fs -ls hdfs://hadoop-serve
HDFS的shell(命令列客戶端)操作
-help 功能:輸出這個命令引數手冊 -ls 功能:顯示目錄資訊 示例: hadoop fs -ls hdfs://hadoop-server01:9000/ 備註:這些引數中,所有的hdfs路徑都可以簡寫 -->hadoop fs -l
NFS(expirtfs命令,NFS客戶端創建新文件所屬組和所屬主都為nobody)
mar tfs 依然 我們 重啟 此刻 otto 全部 用戶 一、exportfs命令nfs進程不能隨便從新啟動,如果不得已要重啟,必須把客戶端的掛載目錄卸載,然後在從新啟動。這時候就可以用exportfs命令-a 全部掛載或者全部卸載-r
Javascript中獲取瀏覽器類型和操作系統版本等客戶端信息常用代碼
cin nav coo temp undefined light safari macintosh else /** * @author hechen */ var gs = { /**獲得屏幕寬度**/ ScreenWidth: function () {
Socket(套接字)在服務器端和客戶端之間的基本工作原理
SocketSocket之間的連接過程主要可以概括為以下三步: 服務器建立監聽:客戶端初始化Socket動態庫後創建套接字,然後指定客戶端Socket的地址,循環綁定Socket直至成功,然後開始建立監聽,此時客戶端處於等待狀態,實時監控網絡狀態; 客戶端提出請求:客戶端的Socket向服務器端提出
Redis服務端和客戶端的命令
客戶 redis ping 命令 -s 默認 一個數 lec 數據庫 服務器端 服務器端的命令為redis-server 可以使?help查看幫助?檔 redis-server --help 個人習慣 ps aux | grep redis 查看redis服
系統延時命令(at命令,crontab命令),ftp服務(服務端和客戶端檔案的上傳和下載)[匿名使用者,本地使用者,虛擬使用者]
1.系統延遲任務 # at 命令發起的指令都是一次性的 at (+)time ##指定命令執行的時間 at -l ##檢視當前任務 ad -d 3 #取消還未執行的任務(3:at -l 所看到的任務號) atrm 4 #
docker基本命令和基本操作命令
docker-教程 docker程式設計環境小書匠 docker 教程 Docker官方英文資源 docker官網:http://www.docker.com Docker windows入門:https://docs.docker.com/windows/
到Oracle官網下載 Oracle11 G 資料可和客戶端操作
1.準備一個Oracle的官網賬號 使用者名稱:[email protected] 密碼:LR4ever.1314 2.在搜尋框中輸入Oracle 11 G 3.點選Database Downloadds 4.選中要下載的對應的系統版本 &nb
到Oracle官網下載 Oracle11 G 數據可和客戶端操作
base mage add wid database height 技術 用戶 rac 1.準備一個Oracle的官網賬號 用戶名:[email protected] 密碼:LR4ever.1314 2.在搜索框中輸入Oracle 11 G 3.點擊Databas
Hadoop系列006-HDFS概念及命令列操作
本人微信公眾號,歡迎掃碼關注! HDFS概念及命令列操作 一、HDFS概念 1.1 概念 HDFS,它是一個檔案系統,用於儲存檔案,通過目錄樹來定位檔案;其次,它是分散式的,由很多伺服器聯合起來實現其功能,叢集中的伺服器有各自的角色。 HDFS的設計適合一次寫入,多次讀出的場景,且不支
【Redis】Redis在Ubuntu中的伺服器和客戶端操作
伺服器端 伺服器端的命令為: redis-server 可以使用help檢視幫助文件 redis-server --help 個人習慣 ps aux | grep redis # 檢視redis伺服器程序 sudo kill -9
spring-data-redis的事務操作深度解析--原來客戶端庫還可以攢夠了事務命令再發?
一、官方文件 簡單介紹下redis的幾個事務命令: redis事務四大指令: MULTI、EXEC、DISCARD、WATCH。 這四個指令構成了redis事務處理的基礎。 1.MULTI用來組裝一個事務;2.EXEC用來執行一個事務;3.DISCARD用來取消一個事務; 4.WATCH類似於樂觀鎖
Ubuntu 14.04下SVN伺服器server的搭建和客戶端的簡單操作
參考:Ubuntu 14.04下搭建SVN伺服器(SVN Server) 一:搭建環境 檢視Ubuntu系統的版本資訊:可用cat /proc/version命令、uname -a命令與sb_release -a命令。 Ubuntu:14.04 64位
windows下的composer安裝和基本使用——安裝ES-PHP客戶端擴充套件
Composer 是 PHP 的一個依賴管理工具。它允許你申明專案所依賴的程式碼庫,它會在你的專案中為你安裝他們。1.下載地址:https://getcomposer.org/download/2.點選安裝,它會自動關聯已經安裝好的PHP,測試是否成功:3.在專案中新建com
Redis 安裝與配置,服務器端和客戶端的命令
--help edi size release rep com 下載 數據庫 eof step1:下載 當前redis最新穩定版本是4.0.9 wget http://download.redis.io/releases/redis-4.0.9.tar.gz ste
MySql資料庫和表的基本操作命令
資料庫和表的基本操作 Mysql注意事項 資料庫的基本操作 表的基本操作 Mysql注意事項 MySQL 建議我們關鍵字使用大寫,但不是必須大寫。 資料庫名字的反引號``