Berkeley DB 清除共享内存后必须将对应的缓存文件也删掉才能重新启动,这是什么原因?

hezytop 2011-03-16 07:27:15
请问各位达人:

我以共享内存的方式创建了BDB的数据库,在进程退出后,我清除了共享内存(用命令 ipcrm 命令),结果发现进程无法再次启动,除非我把对应目录下的缓存文件也删掉才能再次启动。

我开发环境为Linux+gcc
创建BDB ENV是使用的参数是 DB_CREATE | DB_INIT_MPOOL | DB_INIT_CDB | DB_SYSTEM_MEM

请问各位这是什么原因?

我希望的结果是BDB中的数据可以持久化到文件中并且可以使用共享内存来缓存数据,同时不必每次启动进程是都重持久化的文件。
...全文
223 3 打赏 收藏 转发到动态 举报
写回复
用AI写文章
3 条回复
切换为时间正序
请发表友善的回复…
发表回复
hezytop 2012-12-15
  • 打赏
  • 举报
回复
问题还是没有人能帮忙解决吗?
hezytop 2011-12-02
  • 打赏
  • 举报
回复
还是要顶一下,谁来帮忙解答一下。
hezytop 2011-03-17
  • 打赏
  • 举报
回复
自己顶啊,有没有达人帮助一下啊????
Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。Spark 是一种与 Hadoop 相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些有用的不同之处使 Spark 在某些工作负载方面表现得更加优越,换句话说,Spark 启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。Spark 是在 Scala 语言中实现的,它将 Scala 用作其应用程序框架。与 Hadoop 不同,Spark 和 Scala 能够紧密集成,其中的 Scala 可以像操作本地集合对象一样轻松地操作分布式数据集。尽管创建 Spark 是为了支持分布式数据集上的迭代作业,但是实际上它是对 Hadoop 的补充,可以在 Hadoop 文件系统中并行运行。通过名为 Mesos 的第三方集群框架可以支持此行为。Spark 由加州大学伯克利分校 AMP 实验室 (Algorithms, Machines, and People Lab) 开发,可用来构建大型的、低延迟的数据分析应用程序。本部分内容全面涵盖了Spark生态系统的概述及其编程模型,深入内核的研究,Spark on Yarn,Spark RDD、Spark Streaming流式计算原理与实践,Spark SQL,Spark的多语言编程以及SparkR的原理和运行。本套Spark教程不仅面向项目开发人员,甚至对于研究Spark的在校学员,都是非常值得学习的。

2,209

社区成员

发帖
与我相关
我的任务
社区描述
其他数据库开发 其他数据库
社区管理员
  • 其他数据库社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧