语义分割与MMSegmentation

超级蛋M 2023-06-12 21:32:49

本节主要介绍语义分割的基本思路和技术演进历程。

  • 最早的最简单的思路是直接按照颜色做聚类:

  •  然后是卷积神经网络,与上一讲目标检测类似,为了解决滑窗预测计算成本过高的问题,引入了密集预测的方法
  • 为突破传统卷积输入尺寸固定的局限性,设计了全卷积网络
  • 上采样方法:插值、转置卷积、空洞卷积
  • 其他方法:CRF后处理、特征金字塔、池化金字塔、ASPP空间金字塔等

 

...全文
69 回复 打赏 收藏 转发到动态 举报
写回复
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
内容概要:本文详细介绍了多机多卡、单机单卡、单机多卡环境下训练 mmsegmentation 的步骤。对于多机多卡情况,首先规定主从节点,确保各节点的模型文件、数据文件一致且环境相同(包括 cuda、torch、python 和 MMCV 版本)。然后设置无密码 SSH访问,开放必要端口以保障节点间的数据传输,配置 NCCL网络通信参数(如指定网卡接口、禁用 InfiniBand等),并通过 NFS创建临时共享文件夹供主节点获取从节点的模型结果。最后对 mmsegmentation代码进行适当修改以适应分布式训练需求,并给出命令提交方式。对于单机情况,提供了简化操作,以附件形式给出基于 segformer模型训练自定义数据集的基本流程,涵盖创建项目文件夹、准备配置文件、调整配置参数(如数据集类型、类别数量、归一化方式)、添加自定义数据集类及提交训练命令等内容。; 适合人群:熟悉 Linux操作系统,具有深度学习框架使用经验,尤其是从事图像分割领域研究或应用开发的技术人员。; 使用场景及目标:①为科研人员或工程师提供多机多卡、单机单卡、单机多卡训练 mmsegmentation模型的具体指导;②帮助用户掌握如何针对特定任务定制 mmsegmentation配置文件,包括但不限于选择合适的预训练模型、调整超参数、集成自定义数据集等。; 阅读建议:本文档内容详尽,涉及较多命令行操作与代码修改,建议读者先通读一遍理解整体流程,再根据自身需求逐步实践各部分操作,注意记录每一步骤的结果以便于排查可能遇到的问题。同时,对于初次接触分布式训练的读者,可以从单机单卡训练开始尝试,逐渐过渡到更复杂的多机多卡环境。

535

社区成员

发帖
与我相关
我的任务
社区描述
构建国际领先的计算机视觉开源算法平台
社区管理员
  • OpenMMLab
  • jason_0615
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧