❶ C# 處理大數據量讀取問題

1.可以使用存諸過程+臨時表的方式,具體請研究或是Bai.
2.可以使用SqlServer的SqlBulkCopy,NET有相關的支持.比一行行插入速度提高1K倍以上.
SqlBulkCopy bulkCopy = new SqlBulkCopy(conn);
bulkCopy.DestinationTableName = "SpecialList";
bulkCopy.BatchSize = 500;
bulkCopy.BulkCopyTimeout = 300;

if (dt != null && dt.Rows.Count != 0)
{
bulkCopy.WriteToServer(dt);
}

SORRY,我看錯了.OTP.NET也有對OracleBulkCopy的支持,用法大同小異,比循環插入和拼接SQL快了一止一點點...

❷ asp.net查詢資料庫大數據卡的要死有什麼方法決解

根據你是初學者,我給出兩個方案,
1、進行sql 優化, 查詢的時候,Select不要用 * ,用到的專欄位才Select.
2、用存儲過程分頁,只取屬出當前頁的數據 這個給出參考例子: http://www.cnblogs.com/fishtreeyu/archive/2011/01/01/1923808.html

其它加快速度的方法還有: 加索引,數據分區等。

❸ asp.net 查詢大數據量(百萬條以上)如何快

1、索引2、你用存儲過程,存儲過程里還不是要寫語句的?有區別?如果每次查詢條件不一樣,可以用動態sql,用sp_executesql執行,效率還不錯,比exec執行動態sql快

❹ C#中大數據的存儲怎麼處理

大數據都用資料庫作為存儲,一般是 nosql 資料庫,使用對應的 api 獲取數據再分析不就得了?

❺ .net中怎麼處理sql大數據查詢,刪除

--嘗試這種思路
declare@DeleteCntint,@RowCntint
set@DeleteCnt=0
deletefromAwhereIDin(selecttop5000IDfromA)
set@RowCnt=@@rowcount
set@DeleteCnt=@DeleteCnt+@RowCnt
while@RowCnt>0And@DeleteCnt<500000--存在受影響的行數
begin
deletefromAwhereIDin(selecttop5000IDfromA)
set@RowCnt=@@rowcount
set@DeleteCnt=@DeleteCnt+@RowCnt--刪除的行數累加
end

❻ 用c#如何實現當處理大數據量時響應界面信息

Application.DoEvents 方法
處理當前在消息隊列中的所有 Windows 消息。

❼ c# 如何快速處理大數據量得查詢及顯示

分頁查詢
每次只查一頁數量的數據(如20條)
還要查一下總記錄數,這樣可以計算出頁數,然後點擊不同的頁查詢不同的記錄,但每次只查一頁數量的數據(如20條)

例如
select count(*) form tab 記錄數 通過這個進行分頁布局
sekect * from tab where rownum>=根據頁數和每頁記錄數計算 and rownum<根據頁數和每頁記錄數計算

❽ ASP.NET大數據量處理

不要在資料庫裡面進行排序啊什麼的 這樣很影響性能.
都放在程序裡面進行 這樣會好很多
而且你需要做語句的優化 不管是資料庫的還是vs裡面

❾ asp.net程序開發中關於大數據量怎麼優化

可以通過寫存儲過程,或是分批查詢的方法優化。