从文件读取数据问题
在预处理时对其一个大数据文件(按照固定数据格式存储的)建一个文件内存映射,
正式处理的时候,从文件中一条一条数据读进来,将其转换成原来的格式(再封装起来,比如说每一条数据是一个结构体,将这个结构体先存入vector中,然后将vector放在一个map中),
这种处理方式效率比较低(我需要在较短的时间处理完),后来我尝试使用文件来存储pod类型数据,但是这样
只是在读取一整条记录上比较快,还是需要将每一条记录一一封装放入map中,当数据量比较大时,效率很低
现在我想问的是有没有什么好的办法来解决这个平衡问题