❶ C# 处理大数据量读取问题

1.可以使用存诸过程+临时表的方式,具体请研究或是Bai.
2.可以使用SqlServer的SqlBulkCopy,NET有相关的支持.比一行行插入速度提高1K倍以上.
SqlBulkCopy bulkCopy = new SqlBulkCopy(conn);
bulkCopy.DestinationTableName = "SpecialList";
bulkCopy.BatchSize = 500;
bulkCopy.BulkCopyTimeout = 300;

if (dt != null && dt.Rows.Count != 0)
{
bulkCopy.WriteToServer(dt);
}

SORRY,我看错了.OTP.NET也有对OracleBulkCopy的支持,用法大同小异,比循环插入和拼接SQL快了一止一点点...

❷ asp.net查询数据库大数据卡的要死有什么方法决解

根据你是初学者,我给出两个方案,
1、进行sql 优化, 查询的时候,Select不要用 * ,用到的专字段才Select.
2、用存储过程分页,只取属出当前页的数据 这个给出参考例子: http://www.cnblogs.com/fishtreeyu/archive/2011/01/01/1923808.html

其它加快速度的方法还有: 加索引,数据分区等。

❸ asp.net 查询大数据量(百万条以上)如何快

1、索引2、你用存储过程,存储过程里还不是要写语句的?有区别?如果每次查询条件不一样,可以用动态sql,用sp_executesql执行,效率还不错,比exec执行动态sql快

❹ C#中大数据的存储怎么处理

大数据都用数据库作为存储,一般是 nosql 数据库,使用对应的 api 获取数据再分析不就得了?

❺ .net中怎么处理sql大数据查询,删除

--尝试这种思路
declare@DeleteCntint,@RowCntint
set@DeleteCnt=0
deletefromAwhereIDin(selecttop5000IDfromA)
set@RowCnt=@@rowcount
set@DeleteCnt=@DeleteCnt+@RowCnt
while@RowCnt>0And@DeleteCnt<500000--存在受影响的行数
begin
deletefromAwhereIDin(selecttop5000IDfromA)
set@RowCnt=@@rowcount
set@DeleteCnt=@DeleteCnt+@RowCnt--删除的行数累加
end

❻ 用c#如何实现当处理大数据量时响应界面信息

Application.DoEvents 方法
处理当前在消息队列中的所有 Windows 消息。

❼ c# 如何快速处理大数据量得查询及显示

分页查询
每次只查一页数量的数据(如20条)
还要查一下总记录数,这样可以计算出页数,然后点击不同的页查询不同的记录,但每次只查一页数量的数据(如20条)

例如
select count(*) form tab 记录数 通过这个进行分页布局
sekect * from tab where rownum>=根据页数和每页记录数计算 and rownum<根据页数和每页记录数计算

❽ ASP.NET大数据量处理

不要在数据库里面进行排序啊什么的 这样很影响性能.
都放在程序里面进行 这样会好很多
而且你需要做语句的优化 不管是数据库的还是vs里面

❾ asp.net程序开发中关于大数据量怎么优化

可以通过写存储过程,或是分批查询的方法优化。