CRT 与 CART 决策树算法区别详解
CRT (Classification and Regression Trees) 和 CART (Classification and Regression Trees) 是两种常见的决策树算法,它们的区别如下:
-
可处理的问题类型不同:CRT 主要用于分类问题,而 CART 可用于分类和回归问题。
-
分裂节点的方式不同:CRT 采用基于信息熵或基尼系数的贪心策略,选择最优的特征进行分裂,而 CART 采用基于均方差的贪心策略,选择最优的特征和最优的分裂点进行分裂。
-
决策树的结构不同:CRT 生成的决策树是二叉树,每个非叶子节点有两个子节点,而 CART 生成的决策树可以是多叉树,每个非叶子节点可以有多个子节点。
-
损失函数不同:CRT 使用的是信息熵或基尼系数,CART 使用的是均方差。
-
叶节点的输出结果不同:CRT 叶节点的输出结果是类别标签,CART 叶节点的输出结果是实数值。
综上所述,CRT 和 CART 在算法原理、可处理问题类型、分裂节点的方式、决策树结构、损失函数和叶节点的输出结果等方面都有所不同。
原文地址: https://www.cveoy.top/t/topic/f1O9 著作权归作者所有。请勿转载和采集!