EF批量插入太慢?那是你的姿勢不對
大概所有的程式設計師應該都接觸過批量插入的場景,我也相信任何的程式設計師都能寫出可正常執行的批量插入的程式碼。但怎樣實現一個高效、快速插入的批量插入功能呢?
由於每個人的工作履歷,工作年限的不同,在實現這樣的一個需求時,可能技術選型各有不同,有直接生成insert語句的,有用EF的或者其他的orm框架的。其實不管是手寫insert還是使用EF,最終交給資料庫執行的還是insert語句。下面是EF批量插入的示例程式碼:
var list = new List<Student>(); for (int i = 0; i < 100; i++) { list.Add(new Student { CreateTime = DateTime.Now, Name = "zjjjjjj" }); } await _context.Students.AddRangeAsync(list); await _context.SaveChangesAsync();
生成的指令碼截圖如下:
這種實現方式在資料量100以內時,耗時還算可以。但如果要批量匯入的資料達到萬級的時候,那耗時簡直是災難。我測試的資料如下(測試資料庫為mysql,具體配置不詳):
資料量 | 耗時(s) |
---|---|
10 | 0.028 |
1w | 3.929 |
10w | 31.280 |
10w的資料已經耗時超過了30s,我沒有勇氣測試100w資料的耗時,有興趣的可以自行測試下。
下面就應該進入正題了,對於較大資料量(1000以上)場景下的批量插入,各個資料庫應該都提供了相關的解決方案,由於工作所限,目前筆者僅接觸過mysql和mssql。
mysql的實現方案是LOAD DATA命令,此命令接收一個csv檔案,然後將檔案上傳到資料庫伺服器後,解析資料後插入。好在MySqlConnector提供了相關的封裝,不用咱們去熟悉那麼複雜的命令引數。
mssql實現的方案是使用SqlBulkCopy類,不過此類僅接收DataTable型別的資料,所以,在批量插入的時候,需要將資料來源轉換成DataTable。
綜上所示,不管是mysql,還是mssql,均需要將資料來源轉換成指定的格式才可以使用批量匯入的功能,所以這一塊的主要核心就是轉換資料來源格式。mysql需要轉換成csv,mssql需要轉換成DataTable。下面就來一起看看具體的轉換的方法。
以下程式碼是轉換csv和DataTable相關方法:
namespace FL.DbBulk { public static class Extension { /// <summary> /// 獲取實體影射的表名 /// </summary> /// <param name="type"></param> /// <returns></returns> public static string GetMappingName(this System.Type type) { var key = $"batch{type.FullName}"; var tableName = CacheService.Get(key); if (string.IsNullOrEmpty(tableName)) { var tableAttr = type.GetCustomAttribute<TableAttribute>(); if (tableAttr != null) { tableName = tableAttr.Name; } else { tableName = type.Name; } CacheService.Add(key, tableName); } return tableName; } public static List<EntityInfo> GetMappingProperties(this System.Type type) { var key = $"ICH.King.DbBulk{type.Name}"; var list = CacheService.Get<List<EntityInfo>>(key); if (list == null) { list = new List<EntityInfo>(); foreach (var propertyInfo in type.GetProperties()) { if (!propertyInfo.PropertyType.IsValueType && propertyInfo.PropertyType.Name != "Nullable`1" && propertyInfo.PropertyType != typeof(string)) continue; var temp = new EntityInfo(); temp.PropertyInfo = propertyInfo; temp.FieldName = propertyInfo.Name; var attr = propertyInfo.GetCustomAttribute<ColumnAttribute>(); if (attr != null) { temp.FieldName = attr.Name; } temp.GetMethod = propertyInfo.CreateGetter(); list.Add(temp); } CacheService.Add(key, list); } return list; } /// <summary> /// 建立cvs字串 /// </summary> /// <typeparam name="T"></typeparam> /// <param name="entities"></param> /// <param name="primaryKey"></param> /// <returns></returns> public static string CreateCsv<T>(this IEnumerable<T> entities, string primaryKey = "") { var sb = new StringBuilder(); var properties = typeof(T).GetMappingProperties().ToArray(); foreach (var entity in entities) { for (int i = 0; i < properties.Length; i++) { var ele = properties[i]; if (i != 0) sb.Append(","); var value = ele.Get(entity); if (ele.PropertyInfo.PropertyType.Name == "Nullable`1") { if (ele.PropertyInfo.PropertyType.GenericTypeArguments[0] == typeof(DateTime)) { if (value == null) { sb.Append("NULL"); } else { sb.Append(Convert.ToDateTime(value).ToString("yyyy-MM-dd HH:mm:ss")); } continue; } } if (ele.PropertyInfo.PropertyType == typeof(DateTime)) { sb.Append(Convert.ToDateTime(value).ToString("yyyy-MM-dd HH:mm:ss")); continue; } //如果是主鍵&&string型別,且值不為空 if (ele.FieldName == primaryKey && ele.PropertyInfo.PropertyType == typeof(string)) { sb.Append(Guid.NewGuid().ToString()); continue; } if (value == null) { continue; } if (ele.PropertyInfo.PropertyType == typeof(string)) { var vStr = value.ToString(); if (vStr.Contains("\"")) { vStr = vStr.Replace("\"", "\"\""); } if (vStr.Contains(",") || vStr.Contains("\r\n") || vStr.Contains("\n")) { vStr = $"\"{vStr}\""; } sb.Append(vStr); } else sb.Append(value); } sb.Append(IsWin() ? "\r\n" : "\n"); //sb.AppendLine(); } return sb.ToString(); } public static bool IsWin() { return RuntimeInformation.IsOSPlatform(OSPlatform.Windows); } public static string CreateCsv(this DataTable table) { StringBuilder sb = new StringBuilder(); DataColumn colum; foreach (DataRow row in table.Rows) { for (int i = 0; i < table.Columns.Count; i++) { colum = table.Columns[i]; if (i != 0) sb.Append(","); if (colum.DataType == typeof(string)) { var vStr = row[colum].ToString(); if (vStr.Contains("\"")) { vStr = vStr.Replace("\"", "\"\""); } if (vStr.Contains(",") || vStr.Contains("\r\n") || vStr.Contains("\n")) { vStr = $"\"{vStr}\""; } sb.Append(vStr); } else sb.Append(row[colum]); } sb.Append(IsWin() ? "\r\n" : "\n"); } return sb.ToString(); } public static DataTable ToDataTable<T>(this IEnumerable<T> list, string primaryKey = "") { var type = typeof(T); //獲取實體對映的表名 var mappingName = type.GetMappingName(); var dt = new DataTable(mappingName); //獲取實體對映的屬性列表 var columns = type.GetMappingProperties(); dt.Columns.AddRange(columns.Select(x => new DataColumn(x.FieldName)).ToArray()); foreach (var data in list) { var row = dt.NewRow(); foreach (var entityInfo in columns) { var value = entityInfo.Get(data); if (primaryKey == entityInfo.FieldName && entityInfo.PropertyInfo.PropertyType == typeof(string)) { row[entityInfo.FieldName] = value ?? Guid.NewGuid().ToString(); } else { row[entityInfo.FieldName] = value; } } dt.Rows.Add(row); } return dt; } } }
轉換成DataTable方法相對簡單,但這裡我做了個優化下,當判斷主鍵是string型別,且值為空時,會自動生成一個GUID,並給其賦值,這樣做的目的是為了和EF原生的插入功能相容。
生成Csv的相對比較麻煩,因為Csv是用逗號以及其他符號來區分每一行、每一列資料,但經常會存在要插入的資料包含了csv的特殊符號,這樣情況下就需要做轉義。另外,還有一個需要考慮的問題,linux和windows預設的換行符是有區別的,windows的換行符為\r\n,而linux預設的是\n,所以在生成csv時,需要根據不同的系統進行處理。
下面來看下具體怎麼呼叫相關的插入方法,首先看下mysql的,主要程式碼如下所示:
private async Task InsertCsvAsync(string csv, string tableName, List<string> columns)
{
var fileName = Path.GetTempFileName();
await File.WriteAllTextAsync(fileName, csv);
var conn = _context.Database.GetDbConnection() as MySqlConnection;
var loader = new MySqlBulkLoader(conn)
{
FileName = fileName,
Local = true,
LineTerminator = Extension.IsWin() ? "\r\n" : "\n",
FieldTerminator = ",",
TableName = tableName,
FieldQuotationCharacter = '"',
EscapeCharacter = '"',
CharacterSet = "UTF8"
};
loader.Columns.AddRange(columns);
await loader.LoadAsync();
}
在上述的程式碼中,首先建立一個臨時檔案,然後將其他資料來源轉換的csv內容寫入到檔案中,獲取資料庫連線,再然後建立MySqlBulkLoader類的例項,將相關引數進行復制後,還需要配置欄位列表,最後執行LoadAsync命令。
下面是mssql的批量插入的核心程式碼:
public async Task InsertAsync(DataTable table)
{
if (table == null)
{
throw new ArgumentNullException();
}
if (string.IsNullOrEmpty(table.TableName))
{
throw new ArgumentNullException("DataTable的TableName屬性不能為空");
}
var conn = (SqlConnection)_context.Database.GetDbConnection();
await conn.OpenAsync();
using (var bulk = new SqlBulkCopy(conn))
{
bulk.DestinationTableName = table.TableName;
foreach (DataColumn column in table.Columns)
{
bulk.ColumnMappings.Add(column.ColumnName, column.ColumnName);
}
await bulk.WriteToServerAsync(table);
}
}
以上方法相對簡單,在此不做更多解釋。
至此,mysql和mssql批量的匯入的方案已經介紹完畢,但可能就會有人說了,這跟EF好像也沒什麼關係呀。
其實如果你有仔細看的話,或許能發現,我在程式碼中使用了一個名為_context欄位,此欄位其實就是EF的DbContext的例項。但文章內容到此時也沒有完全的和EF結合,下面就來介紹下如何更優雅的將此功能整合到EF中。
在.net core中,接入EF的時候其實已經指定了使用的資料庫型別,例項程式碼如下:
services.AddDbContext<MyDbContext>(opt => opt.UseMySql("server=10.0.0.146;Database=demo;Uid=root;Pwd=123456;Port=3306;AllowLoadLocalInfile=true"))
既然以及指定了資料庫型別,那麼在呼叫批量插入的時候,應該就不需要讓呼叫者判斷是使用mysql的方法,還是mssql的方法。具體怎麼設計呢?且耐心往下看。
首先分別定義介面ISqlBulk,IMysqlBulk,ISqlServerBulk程式碼如下:
namespace FL.DbBulk
{
public interface ISqlBulk
{
/// <summary>
/// 批量匯入資料
/// </summary>
/// <param name="table">資料來源</param>
void Insert(DataTable table);
/// <summary>
/// 批量匯入資料
/// </summary>
/// <param name="table">資料來源</param>
Task InsertAsync(DataTable table);
void Insert<T>(IEnumerable<T> enumerable) where T : class;
Task InsertAsync<T>(IEnumerable<T> enumerable) where T : class;
}
}
IMysqlBulk,ISqlServerBulk介面繼承ISqlBulk,程式碼如下:
namespace FL.DbBulk
{
public interface IMysqlBulk : ISqlBulk
{
Task InsertAsync<T>(string csvPath, string tableName = "") where T : class;
}
}
namespace FL.DbBulk
{
public interface ISqlServerBulk:ISqlBulk
{
}
}
然後建立ISqlBulk實現類:
namespace FL.DbBulk
{
public class SqlBulk : ISqlBulk
{
private ISqlBulk _bulk;
public SqlBulk(DbContext context, IServiceProvider provider)
{
if (context.Database.IsMySql())
{
_bulk = provider.GetService<IMysqlBulk>();
}
else if (context.Database.IsSqlServer())
{
_bulk = provider.GetService<ISqlServerBulk>();
}
}
public void Insert(DataTable table)
{
_bulk.Insert(table);
}
public async Task InsertAsync(DataTable table)
{
await _bulk.InsertAsync(table);
}
public void Insert<T>(IEnumerable<T> enumerable) where T : class
{
_bulk.Insert(enumerable);
}
public async Task InsertAsync<T>(IEnumerable<T> enumerable) where T : class
{
await _bulk.InsertAsync(enumerable);
}
}
}
在SqlBulk的建構函式中,通過context.Database的擴充套件方法判斷資料庫的型別,然後再獲取相應的介面的例項。再然後就是實現IMysqlBulk和ISqlServerBulk的實現類。上文已經把核心程式碼貼出,再此為了篇幅,就不貼完整程式碼了。
再然後,就是提供一個注入services的方法,程式碼如下:
namespace Microsoft.Extensions.DependencyInjection
{
public static class ServiceCollectionExtension
{
public static IServiceCollection AddBatchDB<T>(this IServiceCollection services) where T:DbContext
{
services.TryAddScoped<IMysqlBulk, MysqlBulk>();
services.TryAddScoped<ISqlServerBulk, SqlServerBulk>();
services.TryAddScoped<ISqlBulk, SqlBulk>();
services.AddScoped<DbContext, T>();
return services;
}
}
}
有了以上程式碼,我們就可以通過在Startup中很方便的啟用批量插入的功能了。
最後,貼出兩種插入方式對比的測試資料:
資料量 | EF預設耗時(s) | ISqlBulk耗時(s) |
---|---|---|
10 | 0.028 | 0.030 |
1w | 3.929 | 1.581 |
10w | 31.280 | 15.408 |
以上測試資料均是使用同一個mysql資料庫,不同配置以及網路環境下,測試的資料會有差異,有興趣的可以自己試試。
至此,本人內容已完畢。
最後,貼出git地址,如果思路或程式碼可以幫到你,歡迎點贊,點star
https://github.com/fuluteam/FL.DbBulk.git