大量CSV数据读取,如何保证效率
现在读取CSV,客户说最大会出现100万条数据的情况,大小有500M,,,,
结果读取的时候,还没等到对数据进行望数据库内插入时,有的机器出现了内存溢出。
读取的时候的代码如下:
csvFormatString = FileIO.FileSystem.ReadAllText(fileName, Encoding.GetEncoding("SHIFT-JIS"))
作为对应案,
现在只能考虑是循环读取了,
1万件为单位,循环100次来处理这样100万件数据的CSV。
不知道哪位同学 有什么高招能解决这样的问题。