20,808
社区成员
发帖
与我相关
我的任务
分享
本人菜鸟,最近在学习hadoop的知识, 因为公司项目的特殊性,文件存储占用特大的空间,TB级别以上,单个文件小到几kb,大到几个g, 目前采用的FTP方式存储,不管是磁盘空间、还是并发量的问题,迟早有一天会承受不了跨了, 于是突然有个想法,用hadoop的dfs来取代ftp搭建一个分布式的文件服务器,不用它的map/reduce, 从实现上来说没什么问题,不过不知道其他方面有没有什么问题或不适合的,比如hdfs的优势是否在于这层面\并发量等等。 请高手不吝赐教,小弟感激不尽。
[quote=引用 4 楼 tntzbzc 的回复:] 并发问题是否能解决,和hadoop没有直接关系 虽然HADOOP结构解决了部分底层问题,但最终的系统并发能力和码农、运维的能力息息相关 HDFS做网盘的很多,但是!!! HDFS不是对外出口,对外一般都有封装 举个最简单的例子,HDFS就无法直接解决断点下载的问题。 办法有很多 推荐一个HDFS+HBASE的办法,让HBASE最为数据元存大数据(或小数据),HDFS作为文件系统底层 这个办法不管是大文件还是小文件,几百GB或者几KB的文件,都可以通吃。。。 呵呵,一行百万列文件数据就是这么诞生了。。。。