一次實踐:spark查詢hive速度緩慢原因分析並以此看到spark基礎架構
前一段時間資料探勘組的同學向我返回說自己的一段pyspark程式碼執行非常緩慢,而程式碼本身非常簡單,就是查詢hive 一個檢視中的資料,而且通過limit 10
限制了資料量。
不說別的,先貼我的程式碼吧:
from pyspark.sql import HiveContext
from pyspark.sql.functions import *
import json
hc = HiveContext(sc)
hc.setConf("hive.exec.orc.split.strategy", "ETL")
hc.setConf("hive.security.authorization.enabled" , "false")
zj_sql = 'select * from silver_ep.zj_v limit 10'
zj_df = hc.sql(zj_sql)
zj_df.collect()
sql語句僅僅是從一個檢視中查詢10條語句,按道理說,查詢速度應該非常快,但是執行結果是:任務執行了30分鐘也沒有執行完。檢視對應的表的資料檔案格式是parquet格式。
可能原因1:難道是因為我們使用了舊版的python api嗎?因為我們的2.1.0 版本,通過檢視2.1.0版本的spark對應的pyspark API specification ,我發現這樣一句話:
class pyspark.sql.HiveContext(sparkContext, jhiveContext=None)
A variant of Spark SQL that integrates with data stored in Hive.
Configuration for Hive is read from hive-site.xml on the classpath. It supports running both SQL and HiveQL commands.
Parameters:
sparkContext – The SparkContext to wrap.
jhiveContext – An optional JVM Scala HiveContext. If set, we do not instantiate a new HiveContext in the JVM, instead we make all calls to this object.
Note Deprecated in 2.0.0. Use SparkSession.builder.enableHiveSupport().getOrCreate().
和
class pyspark.sql.SQLContext(sparkContext, sparkSession=None, jsqlContext=None)
The entry point for working with structured data (rows and columns) in Spark, in Spark 1.x.
As of Spark 2.0, this is replaced by SparkSession. However, we are keeping the class here for backward compatibility.
A SQLContext can be used create DataFrame, register DataFrame as tables, execute SQL over tables, cache tables, and read parquet files.
2.0+ 版本的spark已經不推薦我們使用SQLContext
、HiveContext
,雖然初步推斷是這個導致問題的可能性不大,因為儘管我們使用了舊的api,但是spark server確是最新的啊,總不至於舊的api依然使用舊的spark伺服器吧?但是,我還是嘗試使用新版spark推薦的SparkSession
方式去
呼叫,結果在預料之中,執行效率沒有改變。排除這個原因。
可能原因2:由於查詢的是一個view,與普通表不同,在查詢view的時候會增加一些額外的查詢操作以首先構建view的查詢結果,然後基於構建的view資料進行查詢。
因此懷疑是是否因為這個view的建立語句含中有join等操作,導致子查詢長期無法完成,因此查詢速度緩慢,如果猜想正確,那麼這條sql語句在hive中直接執行,速度應該也是非常緩慢的,於是通過beeline執行該sql,速度非常快,而且,檢視這個view的建立語句:
CREATE VIEW `zj_v` AS SELECT `zj`.`hdate`,
MD5(`zj`.`firmid`) AS `FIRM_ID`,
`zj`.`allenablemoney`,
`zj`.`alloutmoney`,
`zj`.`zcmoney`,
`zj`.`netzcmoney`,
`zj`.`rzmoney`,
`zj`.`rhmoney`,
`zj`.`minmoney`
FROM `SILVER_SILVER_NJSSEL`.`ZJ`
並沒有join等操作,只是一個簡單的查詢。因此排除這個原因。
可能原因3:spark本身的解析引擎有問題
通過beeline使用的hadoop 的 mapreduce引擎做的檔案解析和查詢,spark使用的是自己的sql引擎做的解析。那麼,是不是spark執行引擎沒有一定的優化呢,於是,我在spark-sql中執行查詢,結果顯示,查詢效率很高,大概2s返回結果。
可能原因4:難道我們的limit關鍵字沒有起作用,也就是說spark是先把所有資料傳輸到driver然後才做limit操作的嗎?也就是說,Spark在執行collect()這個action之前,遍歷了全表,查詢了所有的資料?我們使用explain來看看spark的執行計劃:
>>> zj_df.explain(True)
== Parsed Logical Plan ==
'GlobalLimit 10
+- 'LocalLimit 10
+- 'Project [*]
+- 'UnresolvedRelation `silver_ep`.`zj_v`
== Analyzed Logical Plan ==
hdate: string, FIRM_ID: string, allenablemoney: string, alloutmoney: string, zcmoney: string, netzcmoney: string, rz
GlobalLimit 10
+- LocalLimit 10
+- Project [hdate#38, FIRM_ID#37, allenablemoney#40, alloutmoney#41, zcmoney#42, netzcmoney#43, rzmoney#44, rhmon
+- SubqueryAlias zj_v
+- Project [hdate#38, md5(cast(firmid#39 as binary)) AS FIRM_ID#37, allenablemoney#40, alloutmoney#41, zcmo
+- SubqueryAlias zj
+- Relation[hdate#38,firmid#39,allenablemoney#40,alloutmoney#41,zcmoney#42,netzcmoney#43,rzmoney#44,r
== Optimized Logical Plan ==
GlobalLimit 10
+- LocalLimit 10
+- Project [hdate#38, md5(cast(firmid#39 as binary)) AS FIRM_ID#37, allenablemoney#40, alloutmoney#41, zcmoney#42
+- Relation[hdate#38,firmid#39,allenablemoney#40,alloutmoney#41,zcmoney#42,netzcmoney#43,rzmoney#44,rhmoney#45
== Physical Plan ==
CollectLimit 10
+- *Project [hdate#38, md5(cast(firmid#39 as binary)) AS FIRM_ID#37, allenablemoney#40, alloutmoney#41, zcmoney#42,
+- *BatchedScan parquet silver_silver_njssel.zj[hdate#38,firmid#39,allenablemoney#40,alloutmoney#41,zcmoney#42,ner/hive/warehouse/silver_silver_njssel.db/zj, PushedFilters: [], ReadSchema: struct<hdate:string,firmid:string,allena
>>>
從explain的結果可以看到,spark的driver拿到了我們的sql以後,從我們的”limit 10”得到
GlobalLimit 10
然後,根據全域性limit 10的執行計劃,得到每臺單機(一個或者多個executor程序,當我們在使用pyspark互動方式的時候,其實是一個pyspark程序下面的好多executor執行緒)的
LocalLimit 10
,顯然,當executor在得到查詢結果的時候,已經處理了limit 10 , 即提交的不是全域性結果。
那麼,時間到底消耗在哪兒呢?
可能原因5:collect()操作本身決定了需要這麼長的時間
為了更佳準確的觀察spark在執行我們的hive查詢任務的時候的執行邏輯,我們通過
sc.setLogLevel("INFO")
修改pyspark的日誌級別(發現通過修改log4j沒有什麼效果),將日誌級別從WARN降低到INFO, 然後開始執行剛才的
2017-02-21 20:46:52,757 INFO [Executor task launch worker-8] datasources.FileScanRDD: Reading File path: hdfs://datah row]
2017-02-21 20:46:52,757 INFO [Executor task launch worker-28] datasources.FileScanRDD: Reading File path: hdfs://datay row]
2017-02-21 20:46:52,756 INFO [Executor task launch worker-11] datasources.FileScanRDD: Reading File path: hdfs://datay row]
2017-02-21 20:46:52,757 INFO [Executor task launch worker-6] datasources.FileScanRDD: Reading File path: hdfs://datah row]
2017-02-21 20:46:52,757 INFO [Executor task launch worker-21] datasources.FileScanRDD: Reading File path: hdfs://datay row]
2017-02-21 20:46:52,756 INFO [Executor task launch worker-18] datasources.FileScanRDD: Reading File path: hdfs://datay row]
2017-02-21 20:46:52,756 INFO [Executor task launch worker-16] datasources.FileScanRDD: Reading File path: hdfs://datay row]
2017-02-21 20:46:52,756 INFO [Executor task launch worker-0] datasources.FileScanRDD: Reading File path: hdfs://datah row]
2017-02-21 20:46:52,756 INFO [Executor task launch worker-15] datasources.FileScanRDD: Reading File path: hdfs://datay row]
2017-02-21 20:46:52,756 INFO [Executor task launch worker-31] datasources.FileScanRDD: Reading File path: hdfs://datay row]
SLF4J: Failed to load class "org.slf4j.impl.StaticLoggerBinder".
SLF4J: Defaulting to no-operation (NOP) logger implementation
SLF4J: See http://www.slf4j.org/codes.html#StaticLoggerBinder for further d
可見,Spark的解析引擎的執行策略是為每一個數據檔案都建立了一個worker執行緒。因為我們是使用pyspark進行的,所以是單機執行模式,所有的executor屬於同一程序下面的不同執行緒。所以,這個任務實際上是在一個機器上執行,共享一個jvm的記憶體。
而且,我們在執行過程中發現經常出現OutofMemory Exception
(非必現):
2017-02-22 12:07:37,724 ERROR [dag-scheduler-event-loop] scheduler.LiveListenerBus: SparkListenerBus has already stopped! Dropping event SparkListenerTaskEnd(0,0,ShuffleMapTask,ExceptionFailure(java.lang.OutOfMemoryError,Java heap space,[Ljava.lang.StackTraceElement;@394278bc,java.lang.OutOfMemoryError: Java heap space
at org.apache.parquet.hadoop.ParquetFileReader$ConsecutiveChunkList.readAll(ParquetFileReader.java:755)
at org.apache.parquet.hadoop.ParquetFileReader.readNextRowGroup(ParquetFileReader.java:494)
at org.apache.spark.sql.execution.datasources.parquet.VectorizedParquetRecordReader.checkEndOfRowGroup(VectorizedParquetRecordReader.java:270)
at org.apache.spark.sql.execution.datasources.parquet.VectorizedParquetRecordReader.nextBatch(VectorizedParquetRecordReader.java:225)
at org.apache.spark.sql.execution.datasources.parquet.VectorizedParquetRecordReader.nextKeyValue(VectorizedParquetRecordReader.java:137)
at org.apache.spark.sql.execution.datasources.RecordReaderIterator.hasNext(RecordReaderIterator.scala:36)
at org.apache.spark.sql.execution.datasources.FileScanRDD$$anon$1.hasNext(FileScanRDD.scala:91)
at org.apache.spark.sql.execution.datasources.FileScanRDD$$anon$1.nextIterator(FileScanRDD.scala:128)
at org.apache.spark.sql.execution.datasources.FileScanRDD$$anon$1.hasNext(FileScanRDD.scala:91)
at org.apache.spark.sql.catalyst.expressions.GeneratedClass$GeneratedIterator.scan_nextBatch$(Unknown Source)
at org.apache.spark.sql.catalyst.expressions.GeneratedClass$GeneratedIterator.processNext(Unknown Source)
at org.apache.spark.sql.execution.BufferedRowIterator.hasNext(BufferedRowIterator.java:43)
at org.apache.spark.sql.execution.WholeStageCodegenExec$$anonfun$8$$anon$1.hasNext(WholeStageCodegenExec.scala:370)
at scala.collection.Iterator$$anon$11.hasNext(Iterator.scala:408)
at org.apache.spark.shuffle.sort.BypassMergeSortShuffleWriter.write(BypassMergeSortShuffleWriter.java:125)
at org.apache.spark.scheduler.ShuffleMapTask.runTask(ShuffleMapTask.scala:79)
at org.apache.spark.scheduler.ShuffleMapTask.runTask(ShuffleMapTask.scala:47)
at org.apache.spark.scheduler.Task.run(Task.scala:85)
at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:274)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)
原因很明顯,將parquet檔案讀到記憶體的時候,發生了oom異常。問題又來了,我只需要10條資料,那麼每個executor最多隻需要讀10條資料就可以結束了,為啥需要將整個parquet檔案load到記憶體呢?然後我看了一下這些parquet檔案的大小:
-rwxr-xr-x 2 appuser supergroup 126287896 2017-02-22 09:08 hdfs://datahdfsmaster/hive/warehouse/silver_silver_njssel.db/zj/000000_0
-rwxr-xr-x 2 appuser supergroup 179992288 2017-02-22 09:08 hdfs://datahdfsmaster/hive/warehouse/silver_silver_njssel.db/zj/000001_0
-rwxr-xr-x 2 appuser supergroup 155053353 2017-02-22 09:08 hdfs://datahdfsmaster/hive/warehouse/silver_silver_njssel.db/zj/000002_0
-rwxr-xr-x 2 appuser supergroup 163026985 2017-02-22 09:08 hdfs://datahdfsmaster/hive/warehouse/silver_silver_njssel.db/zj/000003_0
-rwxr-xr-x 2 appuser supergroup 155736832 2017-02-22 09:08 hdfs://datahdfsmaster/hive/warehouse/silver_silver_njssel.db/zj/000004_0
-rwxr-xr-x 2 appuser supergroup 157311028 2017-02-22 09:08 hdfs://datahdfsmaster/hive/warehouse/silver_silver_njssel.db/zj/000005_0
-rwxr-xr-x 2 appuser supergroup 150175977 2017-02-22 09:08 hdfs://datahdfsmaster/hive/warehouse/silver_silver_njssel.db/zj/000006_0
-rwxr-xr-x 2 appuser supergroup 184228405 2017-02-22 09:08 hdfs://datahdfsmaster/hive/warehouse/silver_silver_njssel.db/zj/000007_0
-rwxr-xr-x 2 appuser supergroup 162361165 2017-02-22 09:08 hdfs://datahdfsmaster/hive/warehouse/silver_silver_njssel.db/zj/000008_0
這些檔案都是150MB左右,並且parquet檔案本身的儲存性質決定了我們讀取和解析parquet檔案的時候,不是按行去讀,而是一個row group一個row group去讀的。通過parquet-tools工具解析這些parquet檔案,發現這些檔案基本上都最多隻有2個row group,也就是說每個row group都非常大。
因此,當spark同時建立了多個task去讀取這些parquet檔案,儘管每個檔案讀進記憶體只需要一個row group,但是由於所有的task是屬於同一程序,因此可能會把記憶體撐滿。
這個對應的程序啟動的時候,系統分配了多少記憶體給它呢?我們看一下這個執行程序的詳細情況:
appuser 20739 1 3 Feb14 ? 06:00:46 /home/jdk/bin/java -cp /home/hbase/conf/:/home/spark/hadooplib/*:/home/spark/hivelib/*:/home/spark/hbaselib/*:/home/spark/kafkalib/*:/home/spark/extlib/*:/home/spark/conf/:/home/spark/jars/*:/home/hadoop/etc/hadoop/ -Dspark.history.ui.port=18080 -Dspark.history.fs.logDirectory=hdfs://datahdfsmaster/spark/history -Xmx1024m org.apache.spark.deploy.history.HistoryServer
看到了,系統分配了1g記憶體給這個程序。在哪兒設定的呢?也可以跟程式碼進去看看:
pyspark:
export PYSPARK_DRIVER_PYTHON
export PYSPARK_DRIVER_PYTHON_OPTS
exec "\${SPARK_HOME}"/bin/spark-submit pyspark-shell-main --name "PySparkShell" "\[email protected]"
spark-submit:
if [ -z "${SPARK_HOME}" ]; then
export SPARK_HOME="\$(cd "`dirname "$0"`"/..; pwd)"
fi
\#disable randomized hash for string in Python 3.3+
export PYTHONHASHSEED=0
exec "\${SPARK_HOME}"/bin/spark-class org.apache.spark.deploy.SparkSubmit "\[email protected]"
spark-class:
build_command() {
"$RUNNER" -Xmx128m -cp "$LAUNCH_CLASSPATH" org.apache.spark.launcher.Main "[email protected]"
printf "%d\0" $?
}
CMD=()
while IFS= read -d '' -r ARG; do
CMD+=("$ARG")
done < <(build_command "[email protected]")
COUNT=${#CMD[@]}
LAST=$((COUNT - 1))
LAUNCHER_EXIT_CODE=${CMD[$LAST]}
if [ $LAUNCHER_EXIT_CODE != 0 ]; then
exit $LAUNCHER_EXIT_CODE
fi
CMD=("${CMD[@]:0:$LAST}")
exec "${CMD[@]}"
這三個指令碼是pyspark依次的執行邏輯,只有當我們在pyspark中執行任務的時候,才會呼叫到spark-class,然後通過
"\$RUNNER" -Xmx128m -cp "\$LAUNCH_CLASSPATH" org.apache.spark.launcher.Main "\[email protected]"
組合出了我們用來建立一個單獨java程序的命令,最後,其中,
exec "${CMD[@]}"
建立了一個獨立的linux 程序,負責執行我們的分散式任務。 $RUNNER是$JAVA_HOME/java
,真正的-Xmx引數,是在
org.apache.spark.launcher.Main
裡面進行設定的。
org.apache.spark.launcher.Main.main()[line 86]
->
org.apache.spark.launcher.SparkSubmitCommandBuilder.buildCommand(Map<String, String> env) [line 151]
->
org.apache.spark.launcher.SparkSubmitCommandBuilder.buildSparkSubmitCommand(Map<String, String> env)
具體看最終的實現:
String tsMemory =
isThriftServer(mainClass) ? System.getenv("SPARK_DAEMON_MEMORY") : null;
String memory = firstNonEmpty(tsMemory, config.get(SparkLauncher.DRIVER_MEMORY),
System.getenv("SPARK_DRIVER_MEMORY"), System.getenv("SPARK_MEM"), DEFAULT_MEM);
cmd.add("-Xmx" + memory)
看到了嗎,從系統變數 SPARK_DAEMON_MEMORY
、spark的配置檔案中的配置項spark.driver.memor
以及系統變數SPARK_DRIVER_MEMORY
以及 系統變數 SPARK_MEM
和預設記憶體大小DEFAULT_MEM(1g)
中選擇第一個不是空的值作為啟動這個執行程序的xmx大小。最終,選擇了使用預設值,因此jvm啟動記憶體是1g。
那麼,難道就這麼一個簡單的操作,這麼簡單的使用場景,當前最流行的分散式處理系統真的搞不定了嗎?
我門需要的僅僅是10條資料,其實只要一個executor拿到了這10條資料,那目的就達到了,而不需要等到所有的executor都返回結果。
因此,我改用RDD.show()
操作,結果,速度非常快,幾乎是立刻返回。
從show()
方法和collect()
方法的簡單對比,我門可以發現它們的差別:
無論是collect()
還是take()
方法,最終都是通過Sparkcontext.runJob()
方法取提交任務並獲取結果,但是runJob
方法是一個多型方法。collect()
中呼叫的runJob
方法是:
def collect(): Array[T] = withScope {
val results = sc.runJob(this, (iter: Iterator[T]) => iter.toArray)
Array.concat(results: _*)
}
def take(num: Int): Array[T] = withScope {
val scaleUpFactor = Math.max(conf.getInt("spark.rdd.limit.scaleUpFactor", 4), 2)
if (num == 0) { //引數問題,直接返回空陣列
new Array[T](0)
} else {
val buf = new ArrayBuffer[T]
val totalParts = this.partitions.length //這個rdd的partition個數
var partsScanned = 0
while (buf.size < num && partsScanned < totalParts) { //資料還不夠,並且還有partition沒有返回結果
// The number of partitions to try in this iteration. It is ok for this number to be
// greater than totalParts because we actually cap it at totalParts in runJob.
var numPartsToTry = 1L
if (partsScanned > 0) {
// If we didn't find any rows after the previous iteration, quadruple and retry.
// Otherwise, interpolate the number of partitions we need to try, but overestimate
// it by 50%. We also cap the estimation in the end.
if (buf.isEmpty) {
numPartsToTry = partsScanned * scaleUpFactor //如果這次取得對結果不夠,下次需要增加掃描的partition個數
} else {
// the left side of max is >=1 whenever partsScanned >= 2
numPartsToTry = Math.max((1.5 * num * partsScanned / buf.size).toInt - partsScanned, 1)
numPartsToTry = Math.min(numPartsToTry, partsScanned * scaleUpFactor)
}
}
val left = num - buf.size
//確定partition的範圍,在剩餘需要掃描的partion和總的partion中取較小值作為partition的上限值,下限值是上次執行截止的partition
val p = partsScanned.until(math.min(partsScanned + numPartsToTry, totalParts).toInt)
val res = sc.runJob(this, (it: Iterator[T]) => it.take(left).toArray, p)//對指定範圍對partition執行任務
res.foreach(buf ++= _.take(num - buf.size))
partsScanned += p.size
}
這是collect()方法所呼叫的runJob():
/**
* Run a job on all partitions in an RDD and return the results in an array.
*
* @param rdd target RDD to run tasks on
* @param func a function to run on each partition of the RDD
* @return in-memory collection with a result of the job (each collection element will contain
* a result from one partition)
*/
def runJob[T, U: ClassTag](rdd: RDD[T], func: Iterator[T] => U): Array[U] = {
runJob(rdd, func, 0 until rdd.partitions.length)
}
而take()方法呼叫的runJob()是
/**
* Run a function on a given set of partitions in an RDD and return the results as an array.
*
* @param rdd target RDD to run tasks on
* @param func a function to run on each partition of the RDD
* @param partitions set of partitions to run on; some jobs may not want to compute on all
* partitions of the target RDD, e.g. for operations like first()
* @return in-memory collection with a result of the job (each collection element will contain
* a result from one partition)
*/
def runJob[T, U: ClassTag](
rdd: RDD[T],
func: Iterator[T] => U,
partitions: Seq[Int]): Array[U] = {
val cleanedFunc = clean(func)
runJob(rdd, (ctx: TaskContext, it: Iterator[T]) => cleanedFunc(it), partitions)
}
兩個runJob()的區別是傳入的paritions不同,前者是在所有的partition上執行任務,而後者在部分partition上執行任務。通過檢視take()
方法的原始碼和註釋,可以清晰地理解take()
方法是如何不斷執行任務,直到取到的結果數量滿足了引數規定的數量,或者,也有可能發生的是,當所有的job已經處理完了所有的partition,但是總共得到的結果依然不夠則返回當前結果集的情形。
相關推薦
一次實踐:spark查詢hive速度緩慢原因分析並以此看到spark基礎架構
前一段時間資料探勘組的同學向我返回說自己的一段pyspark程式碼執行非常緩慢,而程式碼本身非常簡單,就是查詢hive 一個檢視中的資料,而且通過limit 10限制了資料量。 不說別的,先貼我的程式碼吧: from pyspark.sql import
一次RegionServer GC導致會話超時下線的原因分析記錄
查看了regionserver的log日誌: 2017-10-30 03:18:02,718 INFO SecurityLogger.org.apache.hadoop.hbase.Server: Connection from 172.16.4.36 port: 38016 with unknow
一次使用 Redis 優化查詢效能的實踐
應用背景 有一個應用需要上傳一組ID到伺服器來查詢這些ID所對應的資料,資料庫中儲存的資料量是7千萬,每次上傳的ID數量一般都是幾百至上千數量級別。 以前的解決方案 資料儲存在Oracle中,為ID建立了索引;查詢時,先將這些上傳的ID資料儲存到臨時表中,然後用表關聯的方法來查詢。這樣做的優點是減少了查詢次
非同步併發利器:實際專案中使用CompletionService提升系統性能的一次實踐
場景 隨著網際網路應用的深入,很多傳統行業也都需要接入到網際網路。我們公司也是這樣,保險核心需要和很多保險中介對接,比如阿里、京東等等。這些公司對於介面服務的效能有些比較高的要求,傳統的核心無法滿足要求,所以資訊科技部領導高瞻遠矚,決定開發網際網路接入服務,滿足來自效能的需求。 概念 CompletionSe
一次SocketException:Connection reset 異常排查
端口 沒有 pipe eset 當前 發送 情況下 .net 指定端口 本次需求,並沒有修改邏輯,為什麽會出現這種情況呢?只是網絡關系,還是跟代碼有關呢。我有幾個疑問: 什麽情況下會產生Connection reset? 長連接中,向server發請求,是先發送數據的,如
React 重要的一次重構:認識非同步渲染架構 Fiber
Diff 演算法 熟悉 react 的朋友都知道,在 react 中有個核心的演算法,叫 diff 演算法。web 介面由 dom 樹組成,不同的 dom 樹會渲染出不同的介面。react 使用 virtual dom 來表示 dom 樹,而 diff 演算法就是用於比較 virtual dom 樹的區別,
Scrum立會報告+燃盡圖(十一月二十三日總第三十一次):介面修改及新頁面新增
此作業要求參見:https://edu.cnblogs.com/campus/nenu/2018fall/homework/2410 專案地址:https://git.coding.net/zhangjy982/QuJianBang.git Scrum立會master:田良 一、小組介紹
CSS3混合模式的一次實踐
相關介紹連結: CSS3中的mix-blend-mode和background-blend-mode css mix-blend-mode 混合模式 <!doctype html> <html lang="en"> <head> <meta c
Scrum立會報告+燃盡圖(十二月九日總第四十一次):使用者推廣
此作業要求參見:https://edu.cnblogs.com/campus/nenu/2018fall/homework/2484 專案地址:https://git.coding.net/zhangjy982/QuJianBang.git Scrum立會master:於洋 一、小組介紹
一次MySQL線上慢查詢分析及索引使用
本文由作者鄭智輝授權網易雲社群釋出。 0.前言 本文通過分析線上MySQL慢查詢日誌,定位出現問題的SQL,進行業務場景分析,結合索引的相關使用進行資料庫優化。在兩次處理問題過程中,進行的思考。 1.簡要描述 在九月底某個新上的遊戲業務MySQL慢查詢日誌 # Time:
記錄一次 docker:Primary script unknown" while reading response header from upstream
這個問題簡單翻譯過來就是: fastcgi_param SCRIPT_FILENAME $document_root$fastcgi_script_name; 這行配置無法幫我找到 傳過來的檔案。試了一下寫一個 index.html 檔案進行測試,發現是有的。
記一次大坑:SpringBoot+Mybatis專案中,配置檔案中的修改了SQL語句後不生效
問題:原是SSM框架專案,轉移到SpringBoot+Mybatis,使用的是C3P0連線資料庫。轉移到SpringBoot後的專案,我修改了xml配置檔案中的查詢sql語句,也就是增加了一個查詢欄位,無論是在前端頁面測試,還是使用單元測試時候,我修改後的SQL就是不生效,查
記一次mysql去重查詢與刪除重複記錄
查詢: select *,id,count(*) as count from artist group by id having count>1; 刪除(刪除order_id值大的): delete from artist where id in( SELECT * from
一次意外:win7 中 DCOM Server Process Launcher 服務意外終止,導致計算機重新啟動
剛遇到這個問題,也是第一次遇到,先描述下問題:在記憶體使用率比較高的情況下,突然彈出對話方塊,提示:DCOM Server Process Launcher 服務意外終止... (當時第一反應就是儲存截圖,結果由於動作慢了點,電腦過了一會就自動關閉程式,重啟了
Css in Js 一次實踐
最近需要做一個表格元件,元件需求: 指定行、列 可以跨行、跨列 行和行之間有分割線 最終採用grid實現需求。實現的時候遇到一個問題,如果css和js分開寫,css只能是定值,沒有靈活性。所以考慮採用css in js的形式。關於css in js相關的概念介紹可以參考阮一峰老師的文章:
我們最後一次晚餐:離婚前,再感動一次
離婚前,再感動一次現在離婚越來越容易了,可正因為如此,懂得堅守婚姻才是一件需要理性、忍讓和智慧的事情。那一段日子我正處於婚姻的低谷,丈夫陽成天早出晚歸,也沒見他的事業有什麼起色; 而我們的感情像衝了三遍以上的茶般淡而無味,出差回來不再有禮物、擁抱、欣喜,而是老夫老妻似的平靜…
記一次錯誤:無法調起微信分享圖片
場景 由於專案需要,要在預覽圖片介面新增圖片分享功能,需要對純圖片進行分享,所以照舊呼叫了微信分享的封裝方法(WxShareUtil.of().open(true, bitmap);),第一個引數為是否分享到朋友圈,第二個引數為bitmap,因為預覽的圖片為u
CDH安裝配置zeppelin-0.7.3以及配置spark查詢hive表
1.下載zeppelin http://zeppelin.apache.org/download.html 我下載的是796MB的那個已經編譯好的,如果需要自己按照環境編譯也可以,但是要很長時間編譯,這個版本包含了很多外掛,我雖然是CDH環境但是這個也可以使用。 2.修改
一次cpu標高問題查詢
簡單總結步驟: 1、通過ps ux 排查哪些程序cpu佔用率高 2、查出最耗CPU執行緒 top -Hp pid 2、通過執行緒ID轉換16進位制,printf “%x\n” 21742 4、追蹤執行緒內部,檢視load過高原因。通過命令:jstac
基於openapi3.0的yaml檔案生成java程式碼的一次實踐
在github上看了swagger-api專案(https://github.com/swagger-api/swagger-codegen)中的一些文件以及swagger-codegen的使用說明,還是覺得有些麻煩,該專案中有提到使用swagger-codeg