1. 程式人生 > >linux上處理大檔案生成loadrunner引數dat格式的檔案直接使用

linux上處理大檔案生成loadrunner引數dat格式的檔案直接使用

背景及需求:

匯出了線上的一批accesslog,大概有200多W條資料,獲取accesslog中URL這一個欄位出來,一共也是200多W的文字資料,如果按常規處理手段來,那無論是notepad+還是excel還是lr的dat都無法識別這麼大量的資料。

在linux上做一些處理:

1、切割大檔案,最終處理成差不多10W一個檔案

2、批量更改切割的檔案字尾,生成.dat格式,挪到loadrunner專案中直接當引數使用

3、切割後的檔案,要在每個檔案第一行加一個標頭,因為lr中作引數要用到title的

首先:切割大檔案

[[email protected] jieguo]#  split -l 1000 ../part_42.dat part_

語法涉及:

#加上-d,使用數字字尾;加上--verbose,顯示分割進度:
#large_file.txt要分割的大檔案,part_分割後的名字
split -l50000 -d large_file.txt part_ --verbose

其次:批量生成dat字尾的檔案

#!/bin/bash

#批量更改名稱
for i in * 
do 
mv $i $i".dat" 
done

再次:指加標頭

相關推薦

linux處理檔案生成loadrunner引數dat格式檔案直接使用

背景及需求: 匯出了線上的一批accesslog,大概有200多W條資料,獲取accesslog中URL這一個欄位出來,一共也是200多W的文字資料,如果按常規處理手段來,那無論是notepad+還是excel還是lr的dat都無法識別這麼大量的資料。 在linux上做

java Excel檔案生成後轉MultipartFile 完成檔案傳。

由於需求。。 使用了ByteArrayOutputStream和ByteArrayInputStream類. 將XSSFWorkbook 寫入ByteArrayOutputStream.然後用ByteArrayOutputStream來轉換為位元組流.然後再將位元組流轉換為ByteArr

linux下gcc編譯 .c檔案生成動態連結庫 .so檔案,並測試呼叫該連結庫

簡單介紹:linux中so檔案為共享庫,和windows下dll相似;so可以共多個程序呼叫,不同程序呼叫同一個so檔案,所使用so檔案不同;so原檔案不需要main函式;例項,1.通過mysqlTest.c中的函式mysql(),生成一個libmysql.so連結庫#inc

LinuxTCP的幾個核心引數調優

Linux作為一個強大的作業系統,提供了一系列核心引數供我們進行調優。光TCP的調優引數就有50多個。在和線上問題鬥智鬥勇的過程中,筆者積累了一些在內網環境應該進行調優的引數。在此分享出來,希望對大家有所幫助。 ## 調優清單 好了,在這裡先列出調優清單。請記住,這裡只是筆者在內網進行TCP核心引數調優的經

怎麼將多張CAD圖紙檔案共同轉換成PDF格式檔案

怎麼將多張CAD圖紙檔案共同轉換成PDF格式檔案?在設計繪製好一張CAD圖紙檔案,想要將其進行開啟檢視或是列印的時候都是那麼的不方便,所以這時候我們就需要將其轉換成PDF格式的檔案,那麼如果是一張一張的將CAD圖紙進行轉換的話就會很麻煩而且還很費時間,今天小編就要來教大家的就是怎樣同時將多張CAD圖紙檔

Qt 自定義dat格式檔案儲存(1)

要想寫一個自定義結構體的儲存檔案,第一步就是建立自己的結構體,但是由於不同系統的儲存方式是不一樣的,所以我們不能準確的知道自己建立的結構體的大小,那麼我們就不能正確讀取自己寫入dat檔案的資料,所以我們需要保證我們建立的結構體的大小是已知且是不變的,這時我們需要

Python 將json格式檔案轉存為RDF格式檔案

一、什麼是json格式 JSON(JavaScript Object Notation, JS 物件標記) 是一種輕量級的資料交換格式。它基於 ECMAScript 規範的一個子集,採用完全獨立於程式語言的文字格式來儲存和表示資料。簡潔和清晰的層次結構使得 J

使用uploadify控制元件檔案錯誤處理記錄

使用uploadify控制元件上傳大檔案時,會出錯:如http 404 錯誤等。 這個錯誤應該是上傳沒有成功,導致讀取上傳後的路徑不存在造成的。 實際的原因還是因為沒有能上傳成功。 上傳失敗的原因有多種,我這裡發現的情況初步判斷是因為檔案超過某個閥值造成的。 第一步: 檢視控制元件本

藍鯨平臺本地檔案ERR_CONNECTION_RESE報錯處理client intended to send too large body:,server: paas.blueking.com

[[email protected] etc]# pwd /data/bkce/etc [[email protected] etc]# vim nginx.conf [[email protected] nginx]# pw

kafka實戰 - 處理檔案需要注意的配置引數

概述   kafka配置引數有很多,可以做到高度自定義。但是很多使用者拿到kafka的配置檔案後,基本就是配置一些host,port,id之類的資訊,其他的配置項採用預設配置,就開始使用了。這些預設配置是經過kafka官方團隊經過嚴謹寬泛的測試之後,求到的最優值。在單條資訊很小,大部分場景下都能得到優異的效

Java NIO記憶體對映---G檔案處理

          摘要:本文主要講了java中記憶體對映的原理及過程,與傳統IO進行了對比,最後,用例項說明了結果。一、java中的記憶體對映IO和記憶體對映檔案是什麼?       記憶體對映檔案非常特別,它允許Java程式直接從記憶體中讀取檔案內容,通過將整個或部分檔案

HttpClien實現使用post方式模擬表單檔案和字元引數

前提:自行準備好httpmime.jar /** * HttpClien實現模擬表單post提交檔案資料和字元引數,並支援大檔案上傳 * @author dance * */ public class HttpClientUploadManager { pub

linux清除mysql的單位G,級別的日誌檔案

我的mysql日誌檔案大小如下: ll -h -rw-rw----  1 mysql mysql 1.1G Dec 22 14:23 mysql-bin.000054 -rw-rw----  1 mysql mysql 1.1G Dec 23 11:44 mysql-bin.0

使用dd命令在Linux下建立檔案,批量大小檔案生成方法

前沿:最近在開發自動從U盤拷貝大批量檔案到linux系統的的功能。由於需要幾十個G的大檔案來做測試,如果自己去找這麼多資源,然後再拷貝,非常麻煩。所以學了下dd命令,現在總結一下: 一、引數介紹 if=FILE         從FILE中讀取資料,而不是預設的標準輸入。

靜態庫資原始檔、xib、圖片打包處理,編譯生成的靜態庫.a包檔案縮小解決方法

給自己做個標記,詳情請訪問以下地址,親測過,沒問題的 另外,編譯生成的.a檔案太大,但又沒有冗餘的檔案可以刪除已減少體積,找了很久才找到解決辦法,如下: Build Settings-->Generate Debug Symbols將值設為NO

檔案至阿里雲伺服器解決方案(理論無限大檔案,支援批量處理)

一、背景     目前本地電腦有一個約120G壓縮檔案資料需要上傳到阿里雲伺服器。 二、方案 1.首先嚐試直接從本地複製檔案到雲伺服器,在檔案比較小的情況下OK。這個大檔案中途若遇到網路不穩定將會異常斷線,pass。 2.其次是將該壓縮拆分至每個少於20G,上傳至百度雲盤,

Linux生成Core Dump檔案的配置

Linux生成core dump的做法 一、 核心必須開啟選項 CONFIG_ELF_CORE; 二、配置每個程序的RLIMIT_CORE資源為RLIM_INFINITY。方法有二: 1. 在busybox的init/init.c原始檔定義了巨集CORE_ENABLE_

Linux磁碟寫入測試哦 生成檔案(dd)

dd命令可以建立指定大小的檔案 命令:     dd if=/dev/zero of=test bs=1M count=1000 會在當前目錄下生成一個大小為1M*1000=1000M大小的test.img檔案,它的內容都是0(因從/dev/zero中讀取,/dev/ze

Java記憶體對映,G檔案輕鬆處理

記憶體對映檔案(Memory-mapped File),指的是將一段虛擬記憶體逐位元組對映於一個檔案,使得應用程式處理檔案如同訪問主記憶體(但在真正使用到這些資料前卻不會消耗實體記憶體,也不會有讀寫磁碟的操作),這要比直接檔案讀寫快幾個數量級。 稍微解釋一下虛擬記憶體(很明顯,不是實體記憶體),它是計算機系

linux wdcp 文件 服務器i/o錯誤

限制 錯誤 上傳大文件 服務 lin 默認 一次 提示 http 在一次上傳大文件是 提示 服務器i/o錯誤 找了很多方案都沒有解決 最後發現 wdcp 面板 默認安裝時 web服務器引擎是 nginx + apache 公用 而且 nginx 並沒與安裝 修