如何实现txt文件切割

diasuler 2007-02-07 10:45:32
有个600多M的txt文件,如何按行切割
使切割后的每一个文件都能正常使用
...全文
1337 10 打赏 收藏 转发到动态 举报
写回复
用AI写文章
10 条回复
切换为时间正序
请发表友善的回复…
发表回复
NKLoveRene 2007-02-07
  • 打赏
  • 举报
回复
没有做不到
只有想不到啊~~
佩服
jackyped 2007-02-07
  • 打赏
  • 举报
回复
前几天删掉个400M的errorlog,因为错误数据多的很
一打开机器就动不了了

用readline?
不知道有什么好办法
jcyluck 2007-02-07
  • 打赏
  • 举报
回复
如果楼主只想把600M变成小的多个文件
除了一行行的读可能没有其他方法了
jcyluck 2007-02-07
  • 打赏
  • 举报
回复
如楼上说的如果格式一样的话
切割应该很简单的
楼主问的是效率的问题吧
maotin 2007-02-07
  • 打赏
  • 举报
回复
600m的文件处理比较困难。。。。。先找一个小的文件,试验一下,一切二看看是不是都能用
Red_angelX 2007-02-07
  • 打赏
  • 举报
回复
600多M按行切后会生成多少个文件.................
noky 2007-02-07
  • 打赏
  • 举报
回复
600M的Txt文件,疯了,改用数据库吧。
不是没有可能分割,如果你的Txt文件有固定的格式的话,用文件流吧,但是这样也会有些慢
如果没有固定的格式,要想分割后各个文件都能用,那你只有取问盖茨了,
diasuler 2007-02-07
  • 打赏
  • 举报
回复
其实就是一个类似数据表的文件
oracle数据库设了限制,我这里最多只能进去1000万行

diasuler 2007-02-07
  • 打赏
  • 举报
回复
关键就是效率问题

看了一下,大概有1亿行数据,真晕
Nara 2007-02-07
  • 打赏
  • 举报
回复
切割从技术上没有什么困难,如果你的txt是log文件,八成内容是xml吧,只要把每个子文件都补上符合schema的标签就行了,比如<Logs>...</Logs> 我就这么干过
此外,其实600M的txt并不大,用stream直接处理应该也不会很慢,我用streamreader去读一个100M的txt并解析,也就5秒左右

110,534

社区成员

发帖
与我相关
我的任务
社区描述
.NET技术 C#
社区管理员
  • C#
  • Web++
  • by_封爱
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告

让您成为最强悍的C#开发者

试试用AI创作助手写篇文章吧