aspnet大数据处理
❶ C# 处理大数据量读取问题
1.可以使用存诸过程+临时表的方式,具体请研究或是Bai.
2.可以使用SqlServer的SqlBulkCopy,NET有相关的支持.比一行行插入速度提高1K倍以上.
SqlBulkCopy bulkCopy = new SqlBulkCopy(conn);
bulkCopy.DestinationTableName = "SpecialList";
bulkCopy.BatchSize = 500;
bulkCopy.BulkCopyTimeout = 300;
if (dt != null && dt.Rows.Count != 0)
{
bulkCopy.WriteToServer(dt);
}
SORRY,我看错了.OTP.NET也有对OracleBulkCopy的支持,用法大同小异,比循环插入和拼接SQL快了一止一点点...
❷ asp.net查询数据库大数据卡的要死有什么方法决解
根据你是初学者,我给出两个方案,
1、进行sql 优化, 查询的时候,Select不要用 * ,用到的专字段才Select.
2、用存储过程分页,只取属出当前页的数据 这个给出参考例子: http://www.cnblogs.com/fishtreeyu/archive/2011/01/01/1923808.html
其它加快速度的方法还有: 加索引,数据分区等。
❸ asp.net 查询大数据量(百万条以上)如何快
1、索引2、你用存储过程,存储过程里还不是要写语句的?有区别?如果每次查询条件不一样,可以用动态sql,用sp_executesql执行,效率还不错,比exec执行动态sql快
❹ C#中大数据的存储怎么处理
大数据都用数据库作为存储,一般是 nosql 数据库,使用对应的 api 获取数据再分析不就得了?
❺ .net中怎么处理sql大数据查询,删除
--尝试这种思路
declare@DeleteCntint,@RowCntint
set@DeleteCnt=0
deletefromAwhereIDin(selecttop5000IDfromA)
set@RowCnt=@@rowcount
set@DeleteCnt=@DeleteCnt+@RowCnt
while@RowCnt>0And@DeleteCnt<500000--存在受影响的行数
begin
deletefromAwhereIDin(selecttop5000IDfromA)
set@RowCnt=@@rowcount
set@DeleteCnt=@DeleteCnt+@RowCnt--删除的行数累加
end
❻ 用c#如何实现当处理大数据量时响应界面信息
Application.DoEvents 方法
处理当前在消息队列中的所有 Windows 消息。
❼ c# 如何快速处理大数据量得查询及显示
分页查询
每次只查一页数量的数据(如20条)
还要查一下总记录数,这样可以计算出页数,然后点击不同的页查询不同的记录,但每次只查一页数量的数据(如20条)
例如
select count(*) form tab 记录数 通过这个进行分页布局
sekect * from tab where rownum>=根据页数和每页记录数计算 and rownum<根据页数和每页记录数计算
❽ ASP.NET大数据量处理
不要在数据库里面进行排序啊什么的 这样很影响性能.
都放在程序里面进行 这样会好很多
而且你需要做语句的优化 不管是数据库的还是vs里面
❾ asp.net程序开发中关于大数据量怎么优化
可以通过写存储过程,或是分批查询的方法优化。