linux中mmap()函数的内存映射问题理解?

oyffffff 2016-07-05 10:01:30
mmap()这个函数到底是把 硬盘里的数据映射到物理内存(还是虚拟内存?)中,还是把物理内存中的数据映射到虚拟内存中? 有点晕,我猜测是前者,但不确定。。。

还有,网上说的映射到多个页上是什么意思?物理内存不是连续的么,直接把硬盘上的数据dump到物理内存不就行了。

mmap()的好处一个是节约IO读写时间?(但是,内存映射了之后,最后我要保存的话还是需要把内存上的数据写到硬盘的吧?),还有一个是可以实现共享内存通信是吧?没别的好处了吧?

初次接触,查了资料还是有点晕,所以问题有点多,望各位大神谅解~
...全文
410 19 打赏 收藏 转发到动态 举报
AI 作业
写回复
用AI写文章
19 条回复
切换为时间正序
请发表友善的回复…
发表回复
xmayyang 2016-07-15
  • 打赏
  • 举报
回复
原理: 这里主要是指硬盘上文件的位置与进程逻辑地址空间中一块大小相同的区域之间的一一对应。在内存映射的过程中,并没有实际的数据拷贝,文件没有被载入内存,只是逻辑上被放入了内存。 函数mmap()会返回一个指针p,这样以后读写文件,就不用调用read和write了,直接操作指针就可以了。但是指针p指向的逻辑地址,物理上不存在的,当进程的逻辑地址通过MMU向物理地址转换的时候,会造成失败(当然会失败了,本来就没有物理地址)。此时,MMU会产生一个缺页中断,中断响应函数会将硬盘上的文件读到内存中来。 好处: mmap的好处是比read、write这样的系统调用或者fread、fwrite这样的c库函数要快3倍以上。原因是,系统调用读写文件要经过内核空间,c库函数还要先过自己的缓存,再过内核空间,然后才能到进程的用户空间,所以会慢很多
mrliu_qy 2016-07-12
  • 打赏
  • 举报
回复
void* mmap(void* start,size_t length,int prot,int flags,int fd,off_t offset); 找个函数原型来解释一下 mmap()这个函数到底是把 硬盘里的数据映射到物理内存(还是虚拟内存?)中,还是把物理内存中的数据映射到虚拟内存中? 有点晕,我猜测是前者,但不确定。。。 首先。如果是硬盘里的数据话的是映射到虚拟内存中的。。。但是,mmap也是可以把物理内存直接映射到虚拟内存中。把fd改为-1 还有,网上说的映射到多个页上是什么意思?物理内存不是连续的么,直接把硬盘上的数据dump到物理内存不就行了。 这句多个页我也没理解清楚是干嘛用的。 mmap()的好处一个是节约IO读写时间?(但是,内存映射了之后,最后我要保存的话还是需要把内存上的数据写到硬盘的吧?),还有一个是可以实现共享内存通信是吧?没别的好处了吧? mmap实际用处是很大的,不单止是用来共享内存通信,你能想象malloc是调用它来实现,malloc能做的事它都能做。mmap很强大的说
ec06cumt 2016-07-12
  • 打赏
  • 举报
回复
引用 16 楼 ddj11223 的回复:
引用 14 楼 ec06cumt 的回复:
共享内存通信,一般可以做两块共享内存,一个读一个写就好了,这样就可以不考虑多个两个进程读写的同步问题。。。
但是这样的话,一个进程往里写的数据,另外一个进程还是读不到啊
你的这两个共享内存都要映射成文件,然后两个进程分别读写,同一个映射共享内存的映射文件。。。一个进程对应写,另一个进程对应读,同一个共享内存。。。这样就OK了。。。
oyffffff 2016-07-10
  • 打赏
  • 举报
回复
引用 14 楼 ec06cumt 的回复:
共享内存通信,一般可以做两块共享内存,一个读一个写就好了,这样就可以不考虑多个两个进程读写的同步问题。。。
但是这样的话,一个进程往里写的数据,另外一个进程还是读不到啊
renwotao2009 2016-07-09
  • 打赏
  • 举报
回复
建议可以看下Unix高级环境编程
oyffffff 2016-07-08
  • 打赏
  • 举报
回复
引用 12 楼 lsshao 的回复:
两个进程各自打开和映射相同的文件,共享文件方式,可以实现两个进程的通信,但是需要注意同步和缓存。
我在想一个问题,你说两个进程各自打开相同的文件,那会不会把这个文件放到物理内存两次啊,它是做到如何识别并只放一次的呢
Kyph 2016-07-08
  • 打赏
  • 举报
回复
两个进程各自打开和映射相同的文件,共享文件方式,可以实现两个进程的通信,但是需要注意同步和缓存。
ec06cumt 2016-07-08
  • 打赏
  • 举报
回复
共享内存通信,一般可以做两块共享内存,一个读一个写就好了,这样就可以不考虑多个两个进程读写的同步问题。。。
oyffffff 2016-07-07
  • 打赏
  • 举报
回复
引用 10 楼 lsshao 的回复:
进程的内存共享,有专门的机制。 不能采用直接传虚地址方式,因为每个进程的页表都是独有的,只有专门的内存共享IPC,才能保证给两个进程映射的物理内存相同。
所以mmap()就可以完成这件事情对吧
Kyph 2016-07-07
  • 打赏
  • 举报
回复
进程的内存共享,有专门的机制。 不能采用直接传虚地址方式,因为每个进程的页表都是独有的,只有专门的内存共享IPC,才能保证给两个进程映射的物理内存相同。
renwotao2009 2016-07-06
  • 打赏
  • 举报
回复
把硬盘文件映射到不同进程虚拟内存空间中,进程间可以直接读写此虚拟空间地址进行通信
oyffffff 2016-07-06
  • 打赏
  • 举报
回复
引用 1 楼 renwotao2009 的回复:
把硬盘文件映射到不同进程虚拟内存空间中,进程间可以直接读写此虚拟空间地址进行通信
也就是说,如果有两个进程,需要用mmap来实现共享内存通信,是不是每个进程都要调用一次mmap,那如果让第一个进程调用一次mmap,得到的虚存addr和length,直接传给第二个进程,实现共享内存通信,这样可以吗?
oyffffff 2016-07-06
  • 打赏
  • 举报
回复
引用 8 楼 renwotao2009 的回复:
[quote=引用 7 楼 ddj11223 的回复:] [quote=引用 3 楼 lsshao 的回复:] 把物理内存中的数据映射到虚拟内存中 直接传是不行的
两个进程公用一个虚拟地址?不同的进程其虚拟地址一样但可能物理地址不一样吧?[/quote]物理地址一样,虚拟地址可能不一样[/quote]嗯,那这样就说得通了
renwotao2009 2016-07-06
  • 打赏
  • 举报
回复
引用 7 楼 ddj11223 的回复:
[quote=引用 3 楼 lsshao 的回复:] 把物理内存中的数据映射到虚拟内存中 直接传是不行的
两个进程公用一个虚拟地址?不同的进程其虚拟地址一样但可能物理地址不一样吧?[/quote]物理地址一样,虚拟地址可能不一样
oyffffff 2016-07-06
  • 打赏
  • 举报
回复
引用 3 楼 lsshao 的回复:
把物理内存中的数据映射到虚拟内存中 直接传是不行的
两个进程公用一个虚拟地址?不同的进程其虚拟地址一样但可能物理地址不一样吧?
oyffffff 2016-07-06
  • 打赏
  • 举报
回复
引用 5 楼 renwotao2009 的回复:
引用 2 楼 ddj11223 的回复:
引用 1 楼 renwotao2009 的回复:
把硬盘文件映射到不同进程虚拟内存空间中,进程间可以直接读写此虚拟空间地址进行通信
也就是说,如果有两个进程,需要用mmap来实现共享内存通信,是不是每个进程都要调用一次mmap,那如果让第一个进程调用一次mmap,得到的虚存addr和length,直接传给第二个进程,实现共享内存通信,这样可以吗?
不是直接传递虚存的地址,而是两个进程一个读一个写这个虚拟地址进行通信
难道两个进程公用一个虚拟地址?不同的进程其虚拟地址一样但可能物理地址不一样吧?
renwotao2009 2016-07-06
  • 打赏
  • 举报
回复
引用 2 楼 ddj11223 的回复:
引用 1 楼 renwotao2009 的回复:
把硬盘文件映射到不同进程虚拟内存空间中,进程间可以直接读写此虚拟空间地址进行通信
也就是说,如果有两个进程,需要用mmap来实现共享内存通信,是不是每个进程都要调用一次mmap,那如果让第一个进程调用一次mmap,得到的虚存addr和length,直接传给第二个进程,实现共享内存通信,这样可以吗?
不是直接传递虚存的地址,而是两个进程一个读一个写这个虚拟地址进行通信
apple_v1 2016-07-06
  • 打赏
  • 举报
回复
mmap将文件映射到当前当前进程的虚拟内存中,如果地址指定为空则由内核分配,文件偏移量大小必须为页大小的整数倍(为了根据偏移量快速计算页)。将文件高速缓存后可以减少不必要的磁盘I/O,减少文件访问时间。
Kyph 2016-07-06
  • 打赏
  • 举报
回复
把物理内存中的数据映射到虚拟内存中 直接传是不行的
本PDF电子书包含上下两册,共1576页,带目录,高清非扫描版本。 作者: 毛德操 胡希明 丛书名: Linux内核源代码情景分析 出版社:浙江大学出版社 目录 第1章 预备知识 1.1 Linux内核简介. 1.2 Intel X86 CPU系列的寻址方式 1.3 i386的页式内存管理机制 1.4 Linux内核源代码的C语言代码 1.5 Linux内核源代码的汇编语言代码 第2章 存储管理 2.1 Linux内存管理的基本框架 2.2 地址映射的全过程 2.3 几个重要的数据结构和函数 2.4 越界访问 2.5 用户堆栈的扩展 2.6 物理页面的使用和周转 2.7 物理页面的分配 2.8 页面的定期换出 2.9 页面的换入 2.10 内核缓冲区的管理 2.11 外部设备存储空间的地址映射 2.12 系统调用brk() 2.13 系统调用mmap() 第3章 断、异常和系统调用 3.1 X86 CPU对断的硬件支持 3.2 断向量表IDT的初始化 3.3 断请求队列的初始化 3.4 断的响应和服务 3.5 软断与Bottom Half 3.6 页面异常的进入和返回 3.7 时钟断 3.8 系统调用 3.9 系统调用号与跳转表 第4章 进程与进程调度 4.1 进程四要素 4.2 进程三部曲:创建、执行与消亡 4.3 系统调用fork()、vfork()与clone() 4.4 系统调用execve() 4.5 系统调用exit()与wait4() 4.6 进程的调度与切换 4.7 强制性调度 4.8 系统调用nanosleep()和pause() 4.9 内核的互斥操作 第5章 文件系统 5.1 概述 5.2 从路径名到目标节点 5.3 访问权限与文件安全性 5.4 文件系统的安装和拆卸 5.5 文件的打开与关闭 5.6 文件的写与读 5.7 其他文件操作 5.8 特殊文件系统/proc 第6章 传统的Unix进程间通信 6.1 概述 6.2 管道和系统调用pipe() 6.3 命名管道 6.4 信号 6.5 系统调用ptrace()和进程跟踪 6.6 报文传递 6.7 共享内存 6.8 信号量 第7章基于socket的进程间通信 7.1系统调用socket() 7.2函数sys—socket()——创建插口 7.3函数sys—bind()——指定插口地址 7.4函数sys—listen()——设定server插口 7.5函数sys—accept()——接受连接请求 7.6函数sys—connect()——请求连接 7.7报文的接收与发送 7.8插口的关闭 7.9其他 第8章设备驱动 8.1概述 8.2系统调用mknod() 8.3可安装模块 8.4PCI总线 8.5块设备的驱动 8.6字符设备驱动概述 8.7终端设备与汉字信息处理 8.8控制台的驱动 8.9通用串行外部总线USB 8.10系统调用select()以及异步输入/输出 8.11设备文件系统devfs 第9章多处理器SMP系统结构 9.1概述 9.2SMP结构的互斥问题 9.3高速缓存与内存的一致性 9.4SMP结构断机制 9.5SMP结构的进程调度 9.6SMP系统的引导 第10章系统引导和初始化 10.1系统引导过程概述 10.2系统初始化(第一阶段) 10.3系统初始化(第二阶段) 10.4系统初始化(第三阶段) 10.5系统的关闭和重引导

23,217

社区成员

发帖
与我相关
我的任务
社区描述
Linux/Unix社区 应用程序开发区
社区管理员
  • 应用程序开发区社区
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧