使用"iotop -tbo -d 1"獲得佔用IO比較高的程序資訊
在一個xshell中執行dd命令:
time dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
在另一個xshell中執行"iotop -tbo -d 1"以獲得佔用IO比較高的程序資訊
[[email protected] ~]# iotop -tbo -d 1
Total DISK READ: 0.00 B/s | Total DISK WRITE: 0.00 B/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
Total DISK READ: 0.00 B/s | Total DISK WRITE: 0.00 B/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
Total DISK READ: 0.00 B/s | Total DISK WRITE: 0.00 B/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
Total DISK READ: 7.85 K/s | Total DISK WRITE: 0.00 B/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:52:51 9399 be/4 root 0.00 B/s 0.00 B/s 0.00 % 0.02 % python /usr/sbin/iotop -tbo -d 1
Total DISK READ: 0.00 B/s | Total DISK WRITE: 0.00 B/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:52:52 9404 be/4 root 0.00 B/s 227.53 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 3.91 K/s | Total DISK WRITE: 265.58 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:52:53 496 be/4 root 3.91 K/s 117.22 K/s 0.00 % 5.36 % [flush-8:0]
13:52:53 9404 be/4 root 0.00 B/s 356.93 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
13:52:53 2018 be/4 highgo43 0.00 B/s 3.91 K/s 0.00 % 0.00 % postgres: stats collector process
Total DISK READ: 19.25 K/s | Total DISK WRITE: 858.54 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:52:54 9399 be/4 root 3.85 K/s 0.00 B/s 0.00 % 1.26 % python /usr/sbin/iotop -tbo -d 1
13:52:54 496 be/4 root 15.40 K/s 404.28 K/s 0.00 % 0.07 % [flush-8:0]
13:52:54 9404 be/4 root 0.00 B/s 831.85 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 65.89 K/s | Total DISK WRITE: 982.21 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:52:55 496 be/4 root 11.63 K/s 465.11 K/s 0.00 % 4.92 % [flush-8:0]
13:52:55 2015 be/4 highgo43 54.26 K/s 0.00 B/s 0.00 % 1.23 % postgres: writer process
13:52:55 9404 be/4 root 0.00 B/s 1029.74 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 0.00 B/s | Total DISK WRITE: 1030.27 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:52:56 554 be/3 root 0.00 B/s 235.36 M/s 0.00 % 0.28 % [jbd2/sda3-8]
13:52:56 496 be/4 root 0.00 B/s 476.68 K/s 0.00 % 0.18 % [flush-8:0]
13:52:56 9404 be/4 root 0.00 B/s 987.24 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 11.56 K/s | Total DISK WRITE: 1105.82 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:52:57 496 be/4 root 11.56 K/s 512.33 K/s 0.00 % 2.25 % [flush-8:0]
13:52:57 9404 be/4 root 0.00 B/s 1047.05 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 0.00 B/s | Total DISK WRITE: 974.74 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:52:58 9404 be/4 root 0.00 B/s 954.83 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
13:52:58 496 be/4 root 0.00 B/s 456.53 K/s 0.00 % 0.00 % [flush-8:0]
Total DISK READ: 27.10 K/s | Total DISK WRITE: 836.27 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:52:59 496 be/4 root 7.74 K/s 394.89 K/s 0.00 % 1.47 % [flush-8:0]
13:52:59 2048 be/4 highgo47 19.36 K/s 0.00 B/s 0.00 % 0.64 % postgres: writer process
13:52:59 9404 be/4 root 0.00 B/s 949.52 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 79.84 K/s | Total DISK WRITE: 1022.66 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:00 1498 be/3 root 79.84 K/s 0.00 B/s 0.00 % 3.70 % auditd
13:53:00 9404 be/4 root 0.00 B/s 1031.36 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
13:53:00 496 be/4 root 0.00 B/s 482.83 K/s 0.00 % 0.00 % [flush-8:0]
Total DISK READ: 34.18 K/s | Total DISK WRITE: 882.82 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:02 2063 be/4 root 22.79 K/s 0.00 B/s 0.00 % 0.56 % crond
13:53:02 496 be/4 root 11.39 K/s 417.77 K/s 0.00 % 0.55 % [flush-8:0]
13:53:02 554 be/3 root 0.00 B/s 304.06 M/s 0.00 % 0.34 % [jbd2/sda3-8]
13:53:02 9404 be/4 root 0.00 B/s 930.44 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 0.00 B/s | Total DISK WRITE: 979.58 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:03 496 be/4 root 0.00 B/s 455.98 K/s 0.00 % 1.31 % [flush-8:0]
13:53:03 9404 be/4 root 0.00 B/s 922.31 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 7.82 K/s | Total DISK WRITE: 1039.90 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:04 1956 be/4 root 7.82 K/s 0.00 B/s 0.00 % 1.15 % master
13:53:04 496 be/4 root 0.00 B/s 492.58 K/s 0.00 % 0.45 % [flush-8:0]
13:53:04 9404 be/4 root 0.00 B/s 1046.55 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 3.91 K/s | Total DISK WRITE: 1005.68 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:05 496 be/4 root 3.91 K/s 468.74 K/s 0.00 % 0.27 % [flush-8:0]
13:53:05 9404 be/4 root 0.00 B/s 1050.86 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 53.98 K/s | Total DISK WRITE: 858.12 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:06 2015 be/4 highgo43 53.98 K/s 0.00 B/s 0.00 % 1.58 % postgres: writer process
13:53:06 554 be/3 root 0.00 B/s 215.26 M/s 0.00 % 1.05 % [jbd2/sda3-8]
13:53:06 496 be/4 root 0.00 B/s 404.89 K/s 0.00 % 0.01 % [flush-8:0]
13:53:06 9404 be/4 root 0.00 B/s 831.01 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 7.79 K/s | Total DISK WRITE: 870.13 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:07 496 be/4 root 7.79 K/s 404.88 K/s 0.00 % 0.52 % [flush-8:0]
13:53:07 554 be/3 root 0.00 B/s 47.01 M/s 0.00 % 0.08 % [jbd2/sda3-8]
13:53:07 9404 be/4 root 0.00 B/s 891.80 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 105.29 K/s | Total DISK WRITE: 1000.53 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:08 2014 be/4 highgo43 105.29 K/s 0.00 B/s 0.00 % 0.03 % postgres: checkpointer process
13:53:08 9404 be/4 root 0.00 B/s 992.51 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
13:53:08 496 be/4 root 0.00 B/s 471.85 K/s 0.00 % 0.00 % [flush-8:0]
Total DISK READ: 7.80 K/s | Total DISK WRITE: 997.98 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:09 496 be/4 root 7.80 K/s 467.80 K/s 0.00 % 0.32 % [flush-8:0]
13:53:09 9404 be/4 root 0.00 B/s 1006.01 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 162.88 K/s | Total DISK WRITE: 981.66 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:10 496 be/4 root 0.00 B/s 457.61 K/s 0.00 % 6.50 % [flush-8:0]
13:53:10 2048 be/4 highgo47 19.39 K/s 0.00 B/s 0.00 % 2.67 % postgres: writer process
13:53:10 9404 be/4 root 0.00 B/s 1001.44 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
13:53:10 2047 be/4 highgo47 143.49 K/s 0.00 B/s 0.00 % 0.00 % postgres: checkpointer process
Total DISK READ: 92.21 K/s | Total DISK WRITE: 1088.62 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:11 554 be/3 root 0.00 B/s 291.99 M/s 0.00 % 5.69 % [jbd2/sda3-8]
13:53:11 2050 be/4 highgo47 65.32 K/s 0.00 B/s 0.00 % 4.00 % postgres: autovacuum launcher process
13:53:11 2045 be/4 highgo47 19.21 K/s 0.00 B/s 0.00 % 2.23 % postgres -D /home/highgo475/highgo/database/4.7.5/data
13:53:11 496 be/4 root 7.68 K/s 511.02 K/s 0.00 % 0.03 % [flush-8:0]
13:53:11 2051 be/4 highgo47 0.00 B/s 30.74 K/s 0.00 % 0.00 % postgres: stats collector process
13:53:11 9404 be/4 root 0.00 B/s 977.32 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 3.90 K/s | Total DISK WRITE: 984.85 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:12 496 be/4 root 3.90 K/s 459.72 K/s 0.00 % 1.05 % [flush-8:0]
13:53:12 9404 be/4 root 0.00 B/s 1036.08 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 0.00 B/s | Total DISK WRITE: 1043.94 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:13 496 be/4 root 0.00 B/s 488.74 K/s 0.00 % 0.18 % [flush-8:0]
13:53:13 9404 be/4 root 0.00 B/s 1005.66 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 97.14 K/s | Total DISK WRITE: 985.86 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:14 1584 be/4 rpc 93.25 K/s 0.00 B/s 0.00 % 2.38 % rpcbind
13:53:14 496 be/4 root 3.89 K/s 466.26 K/s 0.00 % 0.76 % [flush-8:0]
13:53:14 9404 be/4 root 0.00 B/s 1048.47 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 0.00 B/s | Total DISK WRITE: 1122.23 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:15 9404 be/4 root 0.00 B/s 1053.65 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
13:53:15 496 be/4 root 0.00 B/s 526.05 K/s 0.00 % 0.00 % [flush-8:0]
Total DISK READ: 294.06 K/s | Total DISK WRITE: 990.85 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:16 1745 be/4 haldaemo 212.80 K/s 0.00 B/s 0.00 % 1.63 % hald
13:53:16 2015 be/4 highgo43 54.17 K/s 0.00 B/s 0.00 % 0.70 % postgres: writer process
13:53:16 496 be/4 root 27.08 K/s 464.30 K/s 0.00 % 0.29 % [flush-8:0]
13:53:16 554 be/3 root 0.00 B/s 317.44 M/s 0.00 % 0.08 % [jbd2/sda3-8]
13:53:16 9404 be/4 root 0.00 B/s 1040.89 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 7.83 K/s | Total DISK WRITE: 986.50 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:17 496 be/4 root 7.83 K/s 461.75 K/s 0.00 % 3.32 % [flush-8:0]
13:53:17 9404 be/4 root 0.00 B/s 968.07 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 19.48 K/s | Total DISK WRITE: 902.15 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:18 496 be/4 root 19.48 K/s 420.72 K/s 0.00 % 0.46 % [flush-8:0]
13:53:18 9404 be/4 root 0.00 B/s 965.98 M/s 0.00 % 0.00 % dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync
Total DISK READ: 15.57 K/s | Total DISK WRITE: 982.55 M/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:19 554 be/3 root 0.00 B/s 120.70 K/s 0.00 % 0.11 % [jbd2/sda3-8]
13:53:19 496 be/4 root 0.00 B/s 346.53 K/s 0.00 % 0.00 % [flush-8:0]
Total DISK READ: 82.24 K/s | Total DISK WRITE: 0.00 B/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:20 1823 be/4 root 82.24 K/s 0.00 B/s 0.00 % 0.00 % automount --pid-file /var/run/autofs.pid
Total DISK READ: 27.44 K/s | Total DISK WRITE: 0.00 B/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
13:53:21 1823 be/4 root 0.00 B/s 0.00 B/s 0.00 % 5.23 % automount --pid-file /var/run/autofs.pid
Total DISK READ: 0.00 B/s | Total DISK WRITE: 0.00 B/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
Total DISK READ: 0.00 B/s | Total DISK WRITE: 0.00 B/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
Total DISK READ: 0.00 B/s | Total DISK WRITE: 0.00 B/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
Total DISK READ: 0.00 B/s | Total DISK WRITE: 0.00 B/s
TIME TID PRIO USER DISK READ DISK WRITE SWAPIN IO COMMAND
^C[ [email protected] ~]#
iotop命令的rpm包
[[email protected] ~]# yum provides iotop Loaded plugins: product-id, refresh-packagekit, search-disabled-repos, security, subscription-manager This system is not registered to Red Hat Subscription Management. You can use subscription-manager to register. iotop-0.3.2-7.el6.noarch : Top like utility for I/O Repo : rhel-source Matched from: iotop-0.3.2-7.el6.noarch : Top like utility for I/O Repo : installed Matched from: Other : Provides-match: iotop
相關推薦
使用"iotop -tbo -d 1"獲得佔用IO比較高的程序資訊
在一個xshell中執行dd命令: time dd if=/dev/zero of=test bs=100M count=256 conv=fdatasync 在另一個xshell中執行"iotop -tbo -d 1"以獲得佔用IO比較高的程序資訊 [[e
Java如何定位佔用CPU比較高的問題
編寫Java專案時,經常會遇到兩種問題。 第一種:Java程序佔用CPU比較高 第二種:Java程序堆記憶體溢位 今天主要跟大家聊聊第一種問題如何排查。 一、確定消耗CPU的Java程序 從上圖可以看到Java程序 27459 消耗的CPU比較高。
window 查詢 java 程序中佔用cpu比較高的執行緒
概述 公司內部的一個產品 (java 開發的) 執行在 window 虛擬機器上,執行一段時間後CPU飆升,然後想檢視是哪個執行緒佔用。 折騰了一下午,終於定位到該執行緒。 下面我們通過兩種方式定位到佔用cpu比較高的執行緒。 * 1. 使用Proces
JVM定位佔用cpu過高堆疊資訊(Linux)
第一步:使用top命令檢視程序佔用CPU的情況,獲取PID top
記一次iotop分析磁碟佔用io問題
問題描述 某一臺伺服器上面 程式在每小時內偶爾丟包 排查伺服器所有效能瓶頸之後發現一個奇怪的問題 程式丟包前後 會有IO過高的情況 於是使用iotop命令排查是哪個程式偶爾佔用過高的磁碟IO所用命令 io
AngularJS2.0 一個表單例子——總體說來還是簡化了1.x 使用起來比較自然
from value angularjs 簡化 dev 表單 app 返回 title <!doctype html> <html> <head> <meta charset="utf-8"> <tit
1.Linux標準IO編程
實現 緩沖類 set ... file pat 單位 函數 基本操作 1.1Linux系統調用和用戶編程接口 1.1.1系統調用 用戶程序向操作系統提出請求的接口。不同的系統提供的系統調用接口各不相同。繼承UNIX系統
二叉堆和d-堆的性能比較
合並 http ext center 對比 bsp tro -a nbsp 時間復雜度的對比,d-堆插入較快,合並較快 二叉堆和d-堆的性能比較
D-1修改元素樣式
mono style none nbsp space line pla splay ntb document.ElementById("id").style.樣式=“”; 例子: ·document.ElementById("id1").style.display="n
3.6.1.非阻塞IO
一起 因此 運行 文件描述符 方式 回收 性能 無法 需要 本節講解什麽是非阻塞IO,如何將文件描述符修改為非阻塞式 3.6.1.1、阻塞與非阻塞 (1)阻塞是指函數調用會被阻塞。本質是當前進程調用了函數,進入內核裏面去後,因為當前進程的執行條件不滿足,內核無法裏面完成操作
1、試對程式,程序,執行緒的慨念和功能進行比較?
答:程式 是計算機指令的集合它,以檔案的形式儲存在磁碟上。 程序是一個程式在其 自身的地址空間中的一次執行活動。 程序是資源申請、排程和獨立執行的單位,因此,它使用系統中的執行資源,而程式不能申請系統資源,不能被系統排程,也不能作為獨立執行的單位,因此,它不佔系統的執行資源。 執行緒:程序中的一個單一的連續控
計算機基礎.20181019.d 1
一、計算機的一些硬體 1.CPU CPU是 central processing unit 的縮寫,即中央處理器。有運算器和控制器組成,是整個計算機最重要的部分。關於CPU的一些概念: 主頻:CPU的時鐘頻率(CPU clock speed),指CPU運算時的
java的io,nio和commons的io比較總結
今天有個任務,有個120M左右,內含600多W條記錄,記錄之間按行分隔的檔案, 分割成20W條記錄每個檔案,以便在其他程式中匯入。 由於自己手殘,機器上裝了WIndows,配置還太差沒法布hadoop,因此只能本機實現了。 使用java自身的IO和c
解決liunx的Slab佔用比較高的有關問題
最近經常報記憶體超過80%的閥值. 統計了下記憶體實際使用只有1.6G,希望能幫我們分析下為什麼記憶體的使用率顯示使用了3178M. -bash-3.2$ ps -eo 'pid,rss' --sort=-rss (Not all processes could be identified, no
蛋疼的/Collision/b2TimeOfImpact.o.d:1: *** target pattern contains no `%'. Stop.錯誤
<1>問題: `/cygdrive/g/AndroidCocos2dxFile/cocos2d-x-2.1.4/cocos2d-x-2.1.4/projects/MyPlaneTest2/proj.android' obj/local/armeabi/objs/
Win10/Win8.1磁碟佔用100%的解決方法(轉載)
1.家庭組家庭組是佔用硬碟的原因之一。有使用者反映在關閉家庭組後,硬碟佔用率從90%降到10%左右,但對沒加入家庭組的使用者來說,這個方法也許無法解決問題。在Windows搜尋中輸入services.msc,找到“HomeGoup Listener”與“HomeGroup P
【代碼筆記】Java文件的輸入輸出(1)——Java.io包的初步理解
對象 eclips 是什麽 reader optional 傳輸 gre 用戶界面 cep Java裏面文件的輸入輸出全部在java.io包裏面。 Java.io包裏面所有的類都需要掌握。 java.io包裏面所有的東西都在上面了。 包裏面的相關類
javaNIO原理(含程式碼)及與 同步阻塞IO 、偽非同步IO比較
一.同步阻塞IO BIO就是阻塞式的IO,網路通訊中對於多客戶端的連入,伺服器端總是與客戶端數量一致的執行緒去處理每個客戶端任務,即,客戶端與執行緒數1:1,並且進行讀寫操作室阻塞的,當有你成千上完的客戶端進行連線,就導致伺服器不斷的建立新的執行緒,最後導
區塊鏈Hyperledger Fabric 1.2環境搭建:1. 開發環境的比較
Hyperledger Fabric三種開發環境的介紹 1. Hyperledger Fabric本地開發環境 缺點: MacOS, Windows,Ubuntu安裝方法不同, 需要手動安裝, 版本容易衝突,安裝時間較長,對初級程式設計師來說存在一定
1點兒優化:比較兩個List中是否有相同的String
一般寫法(雙層for迴圈+if語句)複雜 for(int i = 0; i < list2.size(); i++){ for(int j = 0; j < list3.siz