Linux cp大文件 几十G那种,会导致内存溢出吗?有什么办法能后备份大文件的方法

ElijahYang 2018-11-29 11:11:02
如题,服务器上有大文件需要进行备份,大概每个文件都是2 30G那种,如果直接用cp的话内存撑得住吗?有什么比较好的方法?linux小白,多谢各位大神!
...全文
1465 5 打赏 收藏 转发到动态 举报
写回复
用AI写文章
5 条回复
切换为时间正序
请发表友善的回复…
发表回复
ckc 2018-12-29
  • 打赏
  • 举报
回复
复制文件并不需要把文件全部读到内存中再写到目标位置,完全可以读一点写一点
你不用担心这个问题
幽饮烛 2018-12-29
  • 打赏
  • 举报
回复
复制文件跟内存有什么关系?除非连几M内存都没有。主要还是占硬盘空间。
曾经这样以为 2018-12-19
  • 打赏
  • 举报
回复
压缩在复制呢?考虑下
mouse_zhu 2018-12-17
  • 打赏
  • 举报
回复
可以通过网络
云山大侠 2018-11-30
  • 打赏
  • 举报
回复
应该不会成撑不住的,如果Linux2 30G都撑不住,那还算什么Linux,实在不行就自己写一个C程序。

18,773

社区成员

发帖
与我相关
我的任务
社区描述
Linux/Unix社区 专题技术讨论区
社区管理员
  • 专题技术讨论区社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧