C#使用NPOI在数据库中查询出20万的数据导出到excel。引发类型为“System.OutOfMemoryException”的异常。

坚持的小马 2015-11-18 02:47:37
我的导出代码如下:
public MemoryStream RenderToExcel(DataTable table)
{
MemoryStream ms = new MemoryStream();

using (table)
{
IWorkbook workbook = new XSSFWorkbook();

ISheet sheet = workbook.CreateSheet();

IRow headerRow = sheet.CreateRow(0);

// handling header.
foreach (DataColumn column in table.Columns)
headerRow.CreateCell(column.Ordinal).SetCellValue(column.Caption);//If Caption not set, returns the ColumnName value

// handling value.
int rowIndex = 1;

foreach (DataRow row in table.Rows)
{
IRow dataRow = sheet.CreateRow(rowIndex);

foreach (DataColumn column in table.Columns)
{
dataRow.CreateCell(column.Ordinal).SetCellValue(row[column].ToString());
}

rowIndex++;
}

workbook.Write(ms);
ms.Flush();
ms.Position = 0;
}


return ms;
}
程序报错的位置:workbook.Write(ms);这段代码,请教一下各位,我这个需要进行怎么样的优化才可以导出大数据量的数据到excel呢
...全文
947 5 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
5 条回复
切换为时间正序
请发表友善的回复…
发表回复
BitCoffee 2015-11-18
  • 打赏
  • 举报
回复
foreach外面定义一个int row=0; foreach里面 if(row % 10000 ==0) { ISheet sheet = workbook.CreateSheet(); IRow headerRow = sheet.CreateRow(0); } 每次sheet.CreateRow(0)时row++; 其它细节自己去组织。
海棠是否依旧 2015-11-18
  • 打赏
  • 举报
回复
創建多個Sheet導入
坚持的小马 2015-11-18
  • 打赏
  • 举报
回复
请教一下,duanzi_peng你有没有分批次的实例代码呢,我拿来参考一下。
BitCoffee 2015-11-18
  • 打赏
  • 举报
回复
分批次倒入的时候注意下这个 : Excel 07-2003一个工作表最多可有65536行;最多可有256列;255个工作表。 Excel 2007及以后版本,一个工作表最多可有1048576行,16384列; 另外Excel 07-2003的单个表的行数过多时,会导致打开文件很慢。
  • 打赏
  • 举报
回复
分批次写入。
具体内容请参考我的BLOG:http://blog.csdn.net/smallwhiteyt/archive/2009/11/08/4784771.aspx 如果你耐心仔细看完本文,相信以后再遇到EXCLE操作的时候你会很顺手觉得SO EASY,主要给新手朋友们看的,老鸟可以直接飘过了,花了一晚上的时间写的很辛苦,如果觉得对你有帮助烦请留言支持一下,我会写更多基础的原创内容来回报大家。 C#数据EXCEL表格是个老生常谈的问题了,写这篇文章主要是给和我一样的新手朋友提供两种EXCEL的方法并探讨一下的效率问题,本文的代码直接就可用,其部分代码参考其他的代码并做了修改,抛砖引玉,希望大家一起探讨,如有不对的地方还请大家多多包涵并指来,我也是个新手,错也是难免的。 首先先总结下自己知道的EXCEL表格的方法,大致有以下几种,有疏漏的请大家补充。 1.数据逐条逐条的写入EXCEL 2.通过OLEDB把EXCEL做为数据源来写 3.通过RANGE范围写入多行多列内存数据EXCEL 4.利用系统剪贴板写入EXCEL 好了,我想这些方法已经足够完成我们要实现的功能了,方法不在多,在精,不是么?以上4方法都可以实现EXCEL,方法1为最基础的方法,意思就是效率可能不是太高,当遇到数据量过大时所要付的时间也是巨大的,后面3种方法都是第一种的衍生,在第一种方法效率低下的基础上改进的,这里主要就是一个效率问题了,当然如果你数据量都很小,我想4种方法就代码量和复杂程度来说第1种基本方法就可以了,或当你的硬件非常牛逼了,那再差的方法也可以高效的完成也没有探讨的实际意义了,呵呵说远了,本文主要是在不考虑硬件或同等硬件条件下单从软件角度发探讨较好的解决方案。

111,097

社区成员

发帖
与我相关
我的任务
社区描述
.NET技术 C#
社区管理员
  • C#
  • AIGC Browser
  • by_封爱
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告

让您成为最强悍的C#开发者

试试用AI创作助手写篇文章吧