社区
Winter(带你学AI)
人工智能
帖子详情
机器学习算法(8)——决策树算法-CSDN博客
无水先生
人工智能领域优质创作者
博客专家认证
2023-12-22 11:17:58
机器学习算法(8)——决策树算法-CSDN博客
...全文
138
回复
打赏
收藏
机器学习算法(8)——决策树算法-CSDN博客
机器学习算法(8)——决策树算法-CSDN博客
复制链接
扫一扫
分享
转发到动态
举报
AI
作业
写回复
配置赞助广告
用AI写文章
回复
切换为时间正序
请发表友善的回复…
发表回复
打赏红包
机器学习
算法
2——
决策树
机器学习
算法
——
决策树
算法
ID3
机器学习——
决策树
一、
决策树
定义: 分类
决策树
模型是一种描述对实例进行分类的树形结构。
决策树
由结点(node)和有向边(directed edge)组成。 结点有两种类型:内部结点(internal node)和叶结点(leaf node)。内部结点表示一个特征或属性,叶结点表示一个类。 ⚪:内部结点 正方形:叶结点 二、
决策树
特征选择 2.1 特征选择问题 特征选择在于选取对训练数据具有分类能力的特征。这样可以提高
决策树
学习的效率。如果用一个特征去分类,得到的结果与随机的分类没有很大差别,那么这次分类是无
机器学习
算法
——
决策树
8(后剪枝处理实例)
本节使用的数据为下列链接中的表1、表2(
机器学习
算法
——
决策树
7(预剪枝处理实例)_Vicky_xiduoduo的
博客
-
CSDN
博客
) 1. 理论讲解 后剪枝是从训练集生成一棵完整
决策树
。上节已经分析了,未剪枝之前
决策树
的验证集精度为42.9%。 图1 未剪枝前的
决策树
基于上图,后剪枝首先考虑纹理,若将其领衔的分支剪除,则相当于把纹理替换成叶节点,替换后的叶节点包含编号{7,15},于是,该叶节点的类别标记为“好瓜”,此时
决策树
验证集的精确度提升至57.1%。于是后剪枝策略决定剪枝。 然后考
机器学习
算法
——
决策树
7(预剪枝处理实例)
剪枝理论学习请参考如下网址:
机器学习
算法
——
决策树
4(剪枝处理)_Vicky_xiduoduo的
博客
-
CSDN
博客
_剪枝 机器学习 不管是预剪枝还是后剪枝,都需要对
决策树
进行“泛化能力”的评估。本节的实例讲解采用留出法评估
决策树
的泛化能力。故需要预留一部分数据用作“训练集”,一部分用作“验证集/测试集”。将西瓜2.0数据集随机划分成两部分,如下表所示。 表1 西瓜数据集2.0划分出的训练集 编号 色泽 根蒂 敲声 纹理 脐部 触感 好瓜 1 青绿
机器学习经典
算法
——
决策树
(Decision Tree)
决策树
是⼀种分⽽治之的决策过程。⼀个困难的预测问题,通过树的分⽀节点,被划分成两个或多个较为简单的⼦集,从结构上划分为不同的⼦问题。将依规则分割数据集的过程不断递归下去。随着树的深度不断增加,分⽀节点的⼦集越来越⼩,所需要提的问题数也逐渐简化。当分⽀节点的深度或者问题的简单程度满⾜⼀定的停⽌规则时, 该分⽀节点会停⽌分裂。
决策树
是一种自上而下,对样本数据进行树形分类的过程,由结点和有向边组成。结点分为内部节点和叶结点,其中内部结点表示一个特征或属性,叶结点表示类别。从顶部根节点开始,所有样本聚在一起。
Winter(带你学AI)
144,660
社区成员
1,292
社区内容
发帖
与我相关
我的任务
Winter(带你学AI)
本社区内容以人工智能、数据科学、机器人工程等智能领域知识交流为主,同时也欢迎任何其他技术方向的IT从业者分享心得体会
复制链接
扫一扫
分享
社区描述
本社区内容以人工智能、数据科学、机器人工程等智能领域知识交流为主,同时也欢迎任何其他技术方向的IT从业者分享心得体会
人工智能
计算机视觉
机器学习
个人社区
社区管理员
加入社区
获取链接或二维码
近7日
近30日
至今
加载中
查看更多榜单
社区公告
在这里,我们可以一起学习、共同进步:
智能科学是门槛很高的领域,您可以聊聊学习过程中的困惑或见解;
“万事配环境难”,您可以发布遇到的Bug或解决方案;
谈谈职场面经,与同行信息共享、优势互补;
分享自己或他人的优秀博文,为大家增长见识,不限领域;
当然,有些行为我们是禁止的:
恶意刷屏和广告;
措辞不文明甚至人身攻击;
其他违反国家法律和社会道德的行为
试试用AI创作助手写篇文章吧
+ 用AI写文章