a) 您如何实现初始树(A部分)以及为什么选择您的方法?为了实现决策树,我们使用了 ID3(迭代二分法3)启发式训练阶段-构建决策树:在ID3算法中,我们以原始属性集作为根节点开始。在算法的每次迭代中,我们遍历剩余集合中每个未使用的属性并计算该属性的(或信息增益)。然后,我们选择具有最小熵(或最大信息增益)值的属性。剩余的属性集被选定的属性分割以生成数据的子集。该算法继续在每个子集上递归,只考虑以前从未选择过的属性。测试阶段:在运行时,我们将使用经过训练的决策树对新的未见过的测试用例进行分类,方法是使用此测试用例的值向下处理决策树,以到达告诉我们此测试用例属于哪个类的终端节点。我选择这种方法是因为以下原因:它通过选择最佳属性来在每次迭代中拆分数据集,从而使用贪婪方法。在离散数据上运行非常快(在3到4分钟内运行)。