项目地址传送门,欢迎 star 和 fork !

1. 决策树概述

决策树(Decision Tree)算法是一种基本的分类与回归方法,是最经常使用的数据挖掘算法之一,它的预测结果容易理解,易于向业务部门解释,预测速度快,可以处理离散型数据和连续型数据。

决策树模型呈树形结构,在分类问题中,表示基于特征对实例进行分类的过程。它可以认为是 if-then 规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布。

决策树学习通常包括 3 个步骤: 特征选择、决策树的生成和决策树的修剪。


2. 决策树原理

一个叫做 “二十个问题” 的游戏,游戏的规则很简单: 参与游戏的一方在脑海中想某个事物,其他参与者向他提问,只允许提 20 个问题,问题的答案也只能用对或错回答。问问题的人通过推断分解,逐步缩小待猜测事物的范围,最后得到游戏的答案。

一个邮件分类系统,大致工作流程如下:

决策树-流程图

1
2
3
首先检测发送邮件域名地址。如果地址为 myEmployer.com, 则将其放在分类 "无聊时需要阅读的邮件"中。
如果邮件不是来自这个域名,则检测邮件内容里是否包含单词 "曲棍球" , 如果包含则将邮件归类到 "需要及时处理的朋友邮件",
如果不包含则将邮件归类到 "无需阅读的垃圾邮件" 。

问题来了,在创建决策树的过程中,要先对哪个特征进行分裂?比如上图中的例子,先判断域名地址进行分裂还是先判断包含 “曲棍球” 进行分裂?要回答这个问题,我们需要从信息的量化谈起。

2.1 信息熵 & 信息增益

熵(entropy):
熵指的是体系的混乱的程度,在不同的学科中也有引申出的更为具体的定义,是各领域十分重要的参量。

信息论(information theory)中的熵(香农熵):
是一种信息的度量方式,表示信息的混乱程度,也就是说: 信息越有序,信息熵越低。例如: 火柴有序放在火柴盒里,熵值很低,相反,熵值很高。

信息增益(information gain):
在划分数据集前后信息发生的变化称为信息增益。

2.2 决策树的创建

决策树的构建过程,就是从训练数据集中归纳出一组分类规则,使它与训练数据矛盾较小的同时具有较强的泛化能力。有了信息增益来量化地选择数据集的划分特征,使决策树的创建过程变得容易了。决策树的创建基本上分为以下几个步骤:

(1)计算数据集划分前的信息熵。
(2)遍历所有未作为划分条件的特征,分别计算根据每个特征划分数据集后的信息熵。
(3)选择信息增益最大的特征,并使用这个特征作为数据划分节点来划分数据。
(4)递归地处理被划分后的所有子数据集,从未被选择的特征里继续选择最优数据划分特征来划分子数据集。

问题来了,递归过程什么时候结束呢?一般来讲,有两个终止条件:一是所有的特征都用完了,即没有新的特征可以用来进一步划分数据集。二是划分后的信息增益足够小了,这个时候就可以停止递归划分了。针对这个停止条件,需要事先选择信息增益的阈值来作为结束递归地条件。

使用信息增益作为特征选择指标的决策树构建算法,称为ID3算法。

2.3 剪枝算法

使用决策树模型拟合数据时,容易造成过拟合。解决过拟合的方法是对决策树进行剪枝处理。决策树的剪枝有两种思路:前剪枝(Pre-Pruning)和后剪枝(Post-Pruning)。

前剪枝(Pre-Pruning)

前剪枝是在构造决策树的同时进行剪枝。在决策树的构建过程中,如果无法进一步降低信息熵,就会停止创建分支。为了避免过拟合,可以设定一个阈值,即使可以继续降低信息熵,也停止继续创建分支。这种方法称为前剪枝。还有一些简单的前剪枝方法,如限制叶子节点的样本个数,当样本个数小于一定的阈值时,即不再继续创建分支。

后剪枝(Post-Pruning)

后剪枝是指决策树构建完成之后进行剪枝。剪枝的过程是对拥有同样父节点的一组节点进行检查,判断如果将其合并,信息熵的增加量是否小于某一阈值。如果小于阈值,则这一组节点可以合并成一个节点。后剪枝是目前较普遍的做法。后剪枝的过程是删除一些子树,然后用子树的根节点代替,来作为新的叶子结点。这个新的叶子节点所标识的类别通过大多数原则来确定,即把这个叶子节点里样本最多的类别,作为这个叶子节点的类别。

后剪枝算法有很多种,其中常用的一种称为 降低错误率剪枝法(Reduced-Error Pruning)。其思路是,自底向上,从已经构建好的完全决策树中找出一棵子树,然后用子树的根代替这棵子树,作为新的叶子节点。叶子节点所标识的类别通过大多数原则来确定。这样就构建出了一个新的简化版的决策树。然后使用交叉验证数据集来检测这棵简化版的决策树,看其错误率是否降低了。如果错误率降低了,则可以使用这个简化版的决策树代替完全决策树。否则,还是采用原来的决策树。通过遍历所有的子树,直到针对交叉验证数据集,无法进一步降低错误率为止。


3. 决策树算法参数

scikit-learn使用 sklearn.tree.DecisionTreeClassifier 类来实现决策树分类算法。其中几个典型的参数如下:

  • criterion:特征选择算法。一种是基于信息熵,另外一种是基于基尼不纯度。研究表明,这两种算法的差异性不大,对模型准确性没有太大的影响。相对而言,信息熵运算效率会低一些,因为它有对数运算。
  • splitter:创建决策树分支的选项。一种是选择最优的分支创建原则。另外一种是从排名靠前的特征中,随机选择一个特征来创建分支,这个方法和正则项的效果类似,可以避免过拟合。
  • max_depth:指定决策树的最大深度。通过指定该参数,用来解决模型过拟合问题。
  • min_samples_split:这个参数指定能创建分支的数据集的大小,默认是2。如果一个节点的数据样本个数小于这个数值,则不再创建分支。这就是上面介绍的前剪枝的一种方法。
  • min_samples_leaf:叶子节点的最小样本数量,叶子节点的样本数量必须大于等于这个值。这也是上面介绍的另一种前剪枝的方法。
  • max_leaf_nodes:最大叶子节点个数,即数据集最多能划分成几个类别。
  • min_impurity_split:信息增益必须大于等于这个阈值才可以继续分支,否则不创建分支。
    从这些参数可以看出,scikit-learn有一系列的参数用来控制决策树的生成过程,从而解决过拟合问题。

4. 示例:预测泰坦尼克号幸存者

众所周知,泰坦尼克号是历史上最严重的一起海难事故。我们通过决策树模型,来预测哪些人可能成为幸存者。数据集下载,也可以去仓库地址

数据集中总共有两个文件,都是 csv 格式的数据。其中,train.csv 是训练数据集,包含已标注的训练样本数据。test.csv 是模型进行幸存者预测的测试数据。我们的任务就是根据 train.csv 里的数据训练出决策树模型,然后使用该模型来预测test.csv里的数据,并查看模型的预测效果。

4.1 数据分析

train.csv 是一个892行、12列的数据表格。意味着我们有 891 个训练样本(扣除表头),每个样本有12个特征。我们需要先分析这些特征,以便决定哪些特征可以用来进行模型训练。

  • PassengerId:乘客的ID号,这个是顺序编号,用来唯一地标识一名乘客。这个特征和幸存与否无关,丢弃这个特征。
  • Survived:1表示幸存,0表示遇难。这是标注数据。
  • Pclass:仓位等级。这是个很重要的特征,高仓位的乘客能更快的到达甲板,从而更容易获救。
  • Name:乘客的名字,这个特征和幸存与否无关,丢弃这个特征。
  • Sex:乘客性别。由于救生艇数量不够,船长让妇女和儿童先上救生艇。所以这也是个很重要的特征。
  • Age:乘客的年龄。儿童会优先上救生艇,身强力壮者幸存概率也会高一些。所以这也是个很重要的特征。
  • SibSp:兄弟姐妹同在船上的数量。
  • Parch:同船的父辈人员的数量。
  • Ticket:乘客的票号。这个特征和幸存与否无关,丢弃这个特征。
  • Fare:乘客的体热指标。
  • Cabin:乘客所在的船舱号。实际上这个特征和幸存与否有一定的关系,比如最早被水淹没的船舱位置,其乘客的幸存概率要低一些。但由于这个特征有大量的丢失数据,而且没有更多的数据来对船舱进行归类,因此我们丢弃这个特征的数据。
  • Embarked:乘客登船的港口。我们需要把港口数据转换为数值类型的数据。

我们需要加载csv数据。并做一些预处理,包括:

  • 提取Survived列的数据作为模型的标注数据。
  • 丢弃不需要的特征数据。
  • 对数据进行转换,以便模型处理。比如把性别数据转换为0和1.
  • 处理缺失的数据。比如年龄这个特征,有很多缺失的数据。

Pandas 是完成这些任务的理想软件包,我们先把数据从文件里读取出来:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
import pandas as pd
def read_dataset(fname):
# 指定第一列作为行索引
data = pd.read_csv(fname,index_col=0)
# 丢弃无用的数据
data.drop(['Name','Ticket','Cabin'],axis=1,inplace=True)
# 处理性别数据
data['Sex'] = (data['Sex']=='male').astype('int')
# 处理登船港口数据
labels = data['Embarked'].unique().tolist()
data['Embarked'] = data['Embarked'].apply(lambda n:labels.index(n))
# 处理缺失数据
data = data.fillna(0)
return data

train = read_dataset('./titanic/train.csv')
train.head()

处理完的数据如下:

img

4.2 模型训练

首先需要把 Survived 列提取出来作为标签,并在原数据集中删除这一列。然后把数据集划分成训练数据集和交叉验证数据集。

1
2
3
4
5
from sklearn.model_selection import train_test_split
y = train['Survived'].values
X = train.drop(['Survived'],axis=1).values
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=0.2)
print('train dataset: {0}; test dataset: {1}'.format(X_train.shape,X_test.shape))

输出如下:

1
train dataset: (712, 7); test dataset: (179, 7)

接着,使用 scikit-learn 的决策树模型对数据集进行拟合,并观察模型的性能:

1
2
3
4
5
6
from sklearn.tree import DecisionTreeClassifier
clf = DecisionTreeClassifier()
clf.fit(X_train,y_train)
train_score = clf.score(X_train,y_train)
test_score = clf.score(X_test,y_test)
print('train score: {0}; test score: {1}'.format(train_score,test_score))

输出如下:

1
train score: 0.9859550561797753; test score: 0.7877094972067039

从输出结果可以看出,针对训练样本评分很高,但是针对交叉验证数据集评分较低,两者差距较大。没错,这是过拟合现象。解决决策树过拟合的方法是剪枝,包括前剪枝和后剪枝。不幸的是 scikit-learn 不支持后剪枝,但是提供了一系列模型参数进行前剪枝。例如,可以通过 max_depth 参数限定决策树的深度,当决策树达到限定的深度时,就不再进行分裂了。这样就可以在一定程度上避免过拟合。

4.3 优化模型参数

我们可以选择一系列的参数值,然后分别计算指定参数训练出来的模型的评分。还可以把参数值和模型评分通过图形画出来,以便直观地发现两者之间的关系。

这里以限制决策树深度 max_depth 为了来介绍模型参数的优化过程。我们先创建一个函数,它使用不同的max_depth 来训练模型,并计算模型评分。

1
2
3
4
5
6
7
# 参数选择 max_depth
def cv_score(d):
clf = DecisionTreeClassifier(max_depth=d)
clf.fit(X_train,y_train)
tr_score = clf.score(X_train,y_train)
cv_score = clf.score(X_test,y_test)
return (tr_score,cv_score)

接着构造参数范围,在这个范围内分别计算模型评分,并找出评分最高的模型所对应的参数。

1
2
3
4
5
6
7
8
9
10
import numpy as np
depths = range(2,15)
scores = [cv_score(d) for d in depths]
tr_scores = [s[0] for s in scores]
cv_scores = [s[1] for s in scores]
best_score_index = np.argmax(cv_scores)
best_score = cv_scores[best_score_index]
best_param = depths[best_score_index]
print(scores)
print('best param: {0}; best score: {1}'.format(best_param,best_score))

输出如下:

1
best param: 4; best score: 0.8212290502793296

可以看到,针对模型深度这个参数,最优的值是4,其对应的交叉验证数据集评分为0.82。我们还可以把模型参数和对应的模型评分画出来,更直观地观察其变化规律。

1
2
3
4
5
6
7
8
import matplotlib.pyplot as plt
plt.figure(figsize=(6,4),dpi=144)
plt.grid()
plt.xlabel('max depth of decision tree')
plt.ylabel('score')
plt.plot(depths,cv_scores,'.g-',label='cross-validation score')
plt.plot(depths,tr_scores,'.r--',label='training score')
plt.legend()

输出如下:

image-20200630171531856

使用同样的方式,我们可以考察参数 min_impurity_split 。这个参数用来指定信息熵或基尼不纯度的阈值。当决策树分裂后,其信息增益低于这个阈值,则不再分裂。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
# 训练模型,并计算评分
def cv_score(val):
clf = DecisionTreeClassifier(criterion='gini', min_impurity_decrease=val)
clf.fit(X_train, y_train)
tr_score = clf.score(X_train, y_train)
cv_score = clf.score(X_test, y_test)
return (tr_score, cv_score)

# 指定参数范围,分别训练模型,并计算评分
values = np.linspace(0, 0.005, 50)
scores = [cv_score(v) for v in values]
tr_scores = [s[0] for s in scores]
cv_scores = [s[1] for s in scores]

# 找出评分最高的模型参数
best_score_index = np.argmax(cv_scores)
best_score = cv_scores[best_score_index]
best_param = values[best_score_index]
print('best param: {0}; best score: {1}'.format(best_param, best_score))

# 画出模型参数与模型评分的关系
plt.figure(figsize=(10, 6), dpi=144)
plt.grid()
plt.xlabel('threshold of entropy')
plt.ylabel('score')
plt.plot(values, cv_scores, '.g-', label='cross-validation score')
plt.plot(values, tr_scores, '.r--', label='training score')
plt.legend()
plt.show()

输出如下:

1
best param: 0.0005102040816326531; best score: 0.8100558659217877

image-20200630174835975

这里把[0,0.005]等分50份,以每个等分点作为信息增益阈值来训练一次模型。可以看到,训练数据集的评分急速下降,且训练评分和测试评分都保持较低水平,说明模型欠拟合。我们可以把决策树特征选择的基尼不纯度改为信息熵,即把参数criterion的值改为'entropy'观察图形的变化。

1
2
3
...
clf = DecisionTreeClassifier(criterion='entropy', min_impurity_decrease=val)
...

image-20200630175057127

4.4 模型参数选择工具包

上面的模型参数优化过程存在两个问题。其一,数据不稳定,即数据集每次都是随机划分的,选择出来的最优参数在下一次运行时就不是最优的了。其二,不能一次选择多个参数,例如,想要考察 max_depthmin_samples_leaf两个结合起来的最优参数就无法实现。

问题一的原因是,每次把数据集划分为训练样本和交叉验证样本时,是随机划分的,这样导致每次的训练数据集是有差异的,训练出来的模型也有差异。解决这个问题的方法是多次计算,求平均值。具体来讲,就是针对模型的某个特定的参数,多次划分数据集,多次训练模型,计算出这个参数对应的模型的最低评分、最高评分以及评价评分。问题二的解决办法比较简单,把代码再优化一下,能处理多个参数组合即可。

所幸,我们不需要从头实现这些代码。scikit-learnsklearn.model_selection包里提供了大量模型选择和评估工具供我们使用。针对以上问题,可以使用 GridSearchCV 类来解决。

1
2
3
4
5
6
7
from sklearn.model_selection import GridSearchCV
thresholds = np.linspace(0, 0.5, 50)
param_grid = {'min_impurity_split': thresholds}
clf = GridSearchCV(DecisionTreeClassifier(), param_grid, cv=5,return_train_score=True)
clf.fit(X, y)
print("best param: {0}\nbest score: {1}".format(clf.best_params_, clf.best_score_))
plot_curve(thresholds, clf.cv_results_, xlabel='gini thresholds')

输出如下:

1
2
best param: {'min_impurity_split': 0.19387755102040816}
best score: 0.82045069361622

其中关键的参数是param_grid,它是一个字典,键对应的值是一个列表。GridSearchCV会枚举列表里的所有值来构建模型,最终得出指定参数值的平均评分及标准差。另外一个关键参数是cv,它用来指定交叉验证数据集的生成规则,代码中的 cv=5 ,表示每次计算都把数据集分成 5 份,拿其中一份作为交叉验证数据集,其他的作为训练数据集。最终得出的最优参数及最优评分保存在 clf.best_paramsclf.best_score里。此外,clf.cv_results_保存了计算过程的所有中间结果。我们可以拿这个数据来画出模型参数与模型评分的关系图,如下所示:

image-20200630181702264

接下来看一下如何在多组参数之间选择最优的参数组合:

1
2
3
4
5
6
7
8
9
10
from sklearn.model_selection import GridSearchCV
entropy_thresholds = np.linspace(0,1,50)
gini_thresholds = np.linspace(0,0.5,50)
param_grid = [{'criterion':['entropy'],'min_impurity_split':entropy_thresholds},
{'criterion':['gini'],'min_impurity_split':gini_thresholds},
{'max_depth':range(2,10)},
{'min_samples_split':range(2,30,2)}]
clf=GridSearchCV(DecisionTreeClassifier(),param_grid,cv=5)
clf.fit(X,y)
print('best param: {0}\nbest score: {1}'.format(clf.best_params_,clf.best_score_))

输出如下:

1
2
best param: {'criterion': 'entropy', 'min_impurity_split': 0.5306122448979591}
best score: 0.8305818843763729

代码关键部分还是param_grid参数,它是一个列表,列表中的每个元素都是字典。例如:针对列表中的第一个字典,选择信息熵作为决策树特征选择的判断标准,同时其阈值范围是[0,1]之间分了50等份。GridSearchCV会针对列表中的每个字典进行迭代,最终比较列表中每个字典所对应的参数组合,选择出最优的参数。关于GridSearchCV的更多详情可参考官方文档

最后基于好奇,使用最优参数的决策树到底是什么样呢?我们可以使用 sklearn.tree.export_graphviz() 函数把决策树模型导出到文件中,然后使用graphviz工具包生成决策树示意图。

1
2
3
4
5
6
7
8
9
10
from sklearn.tree import export_graphviz

columns = train.columns[1:]
# 导出 titanic.dot 文件
with open("E:/titanic.dot", 'w') as f:
f = export_graphviz(clf, out_file=f,feature_names=columns)

# 1. conda安装 graphviz :conda install python-graphviz
# 2. 运行 `dot -Tpdf titanic.dot -o titanic.pdf`
# 3. 在当前目录查看生成的决策树 titanic.png

最优参数的决策树就长这个样子

image-20200630185703496


5.集合算法

集合算法(Ensemble)是一种元算法(Meta-algorithm),它利用统计学采样原理,训练出成百上千个不同的算法模型。当需要预测一个新样本时,使用这些模型分别对这个样本进行预测,然后采样少数服从多数的原则,决定新样本的类别。集合算法可以有效地解决过拟合问题。在scikit-learn 里,所有的集合算法都实现在sklearn.ensemble包里。

5.1 自助聚合算法Bagging

自助聚合(Bagging,Bootstrap Aggregating的缩写)的核心思想是,采用有放回的采样规则,从m个样本的原数据集里进行n次采样(n<=m),构成一个包含n个样本的新训练数据集。重复这个过程B次,得到B个模型,当有新样本需要预测时,拿这B个模型分别对这个样本进行预测,然后采用投票方式(回归问题)得到新样本的预测值。

所谓的有放回采样规则是指,在m个数据集里,随机取出一个样本放到新数据集里,然后把这个样本放回到原数据集里,继续随机采样,直到到达采样次数n为止。由此可见,随机采样出的数据集里可能有重复数据,并且原数据集的每一个数据不一定都出现在新数据集里。

单一模型往往容易对数据噪声敏感,从而造成高方差(High Variance)。自助聚合算法可以降低对数据噪声的敏感性,从而提高模型准确性和稳定性。这种方法不需要额外的输入,只是简单地对同一个数据集训练出多个模型即可实现。当然这并不是说没有代价,自助聚合算法一般会增加模型训练的计算量。

scikit-learn里,由BaggingClassifier类和BaggingRegressor类分别实现了分类和回归的Bagging算法。

5.2 正向激励算法Boosting

正向激励算法(Boosting)的基本原理是,初始化时,针对有m个训练样本的数据集,给每个样本都分配一个初始权重,然后使用这个带有权重的数据集来训练模型。训练出模型之后,针对这个模型预测错误的那些样本,增加其权重,然后拿这个更新过权重的数据集来训练出一个新的模型。重复这个过程B次,就可以训练出B个模型。

Boosting算法和Bagging算法的区别如下:

  • 采样规则不同:Bagging算法是采样有放回的随机采样规则。而Boosting算法是使用增加预测错误样本权重的方法,相当于加强了对预测错误的样本的学习力度,从而提高模型的准确性。
  • 训练方式不同:Bagging算法可以并行训练多个模型。而Boosting算法只能串行训练,因为下一个模型依赖上一个模型的预测结果。
  • 模型权重不同:Bagging算法训练出来的B个模型的权重是一样的。而Boosting算法训练出来的B个模型本身带有权重信息,在对新样本进行预测时,每个模型的权重是不一样的。单个模型的权重由模型训练的效果来决定,即准确性高的模型权重更高。

Boosting算法有很多种实现,其中最著名的是 AdaBoosting 算法。在 scikit-learn 里由AdaBoostingClassifier类和 AdaBoostingRegression类分别实现Boosting分类和Boosting回归。

5.3 随机森林

随机森林(RF,Random Forest)在自助聚合算法(Bagging)的基础上更进一步,对特征应用自助聚合算法。即,每次训练时,不拿所有的特征来训练,而是随机选择一个特征的子集来进行训练。随机森林算法有两个关键参数,一是构建的决策树的个数t,二是构建单棵决策树特征的个数f。

假设,针对一个有m个样本、n个特征的数据集,则其算法原理如下:

单棵决策树的构建

  • 采用有放回采样,从原数据集中经过m次采样,获取到一个m个样本的数据集(这个数据集里可能有重复的样本)
  • 从n个特征里,采用无放回采样规则,从中取出f个特征作为输入特征。
  • 重复上述过程t次,构建出t棵决策树。

随机森林的分类结果

生成t棵决策树之后,对于每个新的测试样例,集合多棵决策树的预测结果来作为随机森林的预测结果。具体为,如果是回归问题,取t棵决策树的预测值的平均值作为随机森林的预测结果;如果是分类问题,采取少数服从多数的原则,取单棵决策树预测最多的那个类别作为随机森林的分类结果。

思考:为什么随机森林要选取特征的子集来构建决策树?

假如某个输入特征对预测结果是强关联的,那么如果选择全部的特征来构建决策树,这个特征都会体现在所有的决策树里面。由于这个特征和预测结果强关联,会造成所有的决策树都强烈地反映这个特征的“倾向性”,从而导致无法很好地解决过拟合问题。我们在讨论线性回归算法时,通过增加正则项来解决过拟合,它的原理就是确保每个特征都对预测结果有少量的贡献,从而避免单个特征对预测结果有过大贡献导致的过拟合问题。这里的原理是一样的。

scikit-learn 里由 RandomForestClassifier 类和 RandomForestRegression 类分别实现随机森林的分类算法和随机森林的回归算法。

5.4 ExtraTrees算法

ExtraTrees,叫做极限树或者极端随机树。随机森林在构建决策树的过程中,会使用信息熵或者基尼不纯度,然后选择信息增益最大的特征来进行分裂。而 ExtraTrees 是直接从所有特征里随机选择一个特征来分裂,从而避免了过拟合问题。

scikit-learn里,由ExtraTreesClassifier类和 ExtraTreesRegression 类分别实现 ExtraTrees 的分类算法和 ExtraTrees 的回归算法。


6. 扩展阅读

6.1 熵和条件熵

在决策树创建过程中,我们会计算以某个特征创建分支后的子数据集的信息熵。用数学语言描述实际上是计算条件熵,即满足某个条件的信息熵。

关于信息熵和条件熵的相关概念,可以阅读吴军老师的《数学之美》里”信息的度量和作用”一文。《数学之美》这本书,吴军老师用平实的语言,把复杂的数学概念解释的入木三分,即使你只有高中的数学水平,也可以领略到数学的“优雅”和“威力”。

6.2 决策树的构建算法

本文重点介绍的决策树构建算法是ID3算法,它是1986年由Ross Quinlan提出的。1993年,该算法作者发布了新的决策树构建算法C4.5,作为ID3算法的改进,主要体现在:

  • 增加了对连续值的处理,方法是使用一个阈值作为连续值的划分条件,从而把数据离散化。
  • 自动处理特征值缺失问题,处理方法是直接把这个特征抛弃,不参与计算信息增益比。
  • 使用信息增益比作为特征选择标准。
  • 采用后剪枝算法处理过拟合,即在决策树创建完成之后,再通过合并叶子节点的方式进行剪枝。

此后,该算法作者又发布了改进的商业版本C5.0,它运算效率更高,使用内存更小,创建出来的决策树更小,并且准确性更高,适合大数据集的决策树构建。

除了前面介绍的使用基尼不纯度来构建决策树的CART算法之外,还有其他知名的决策树构建算法,如CHAID算法、MARS算法等。这里不再详述。