随机森林的构建过程:
A. 从原始训练集中使用自助法(Bootstraping)随机有放回采样选出m个样本,共进行n_tree次采样,生成n_tree个训练集
B. 对于n_tree个训练集,我们分别训练n_tree个决策树模型
C. 对于单个决策树模型,假设训练样本特征的个数为n,那么每次分裂时根据信息增益/信息增益比/基尼指数选择最好的特征进行分裂
D. 每棵树都一直这样分裂下去,直到该节点的所有训练样例都属于同一类。在决策树的分裂过程中不需要剪枝\nE.将生成的多棵决策树组成随机森林。对于分类问题,按多棵树分类器投票决定最终分类结果;对于回归问题,由多棵树预测值的均值决定最终预测结果