机器学习入门报告之 解决问题一般工作流程
对于给定的数据集和问题,用机器学习的方法解决问题的工作一般分为4个步骤:
一. 数据预处理
首先,必须确保数据的格式符合要求。使用标准数据格式可以融合算法和数据源,方便匹配操作。此外还需要为机器学习算法准备特定的数据格式。
然后,直接得到的数据集很少可以直接使用,可能有以下原因:
1. 样本某些属性缺失
2. 某些样本未标记
3. 样本属性过多
4. 没有分出训练集和测试集
5. 不同类别训练样例比例相差太大
对于1,2这样的情况,在该类样本数较少的情况下一般通过删除该类无效样本来清洗数据。
对于3
·过多的特征可能误导学习器
·更多的特征意味着更多的参数需要调整,过拟合的风险加大
·数据的可视化要求维度不高于3
·维度越少训练越快,可尝试的东西越多,能得到更好地效果
·数据的维度可能虚高。
解决方法就是降维,降维分为特征选择法和特征抽取法。
特征选择法:
所谓特征选择,就是选择样本中有用、跟问题相关的特征。事实上并不一定样本的所有属性对具体问题都是有用的,通过一定的方法选择合适的特征可以保证模型更优。常用的方法大致分三类:过滤式、包裹式和嵌入式。
特征抽取法:
特征抽取试图将原始特征空间转换成一个低维特征空间而不丢失主要信息。无法使用选择方法来删除特征,而特征又太多的时候,这种方法很有效。我们可以通过主成分分析PCA和线性判别式分析和多维标度法来验证。
对于4,为了方便训练和验证模型好坏,数据集一般会以9:1或者其他合适比例(比例选择主要基于实际问题)分为测试集和验证集。如果给定的数据集只是已经标记好的样本,那么划分时必须保证数据集和测试集的分布大致均匀。
对于5,即类别不均衡问题,处理的一个基本策略是—再缩放。
二. 选定算法
一种方式是根据有没有标记样本考虑。
如果是有标记样本,可以考虑有监督学习,反之则是无监督学习。
无监督学习方法主要是聚类。随机选定几个样本,通过一定的算法不停迭代直至收敛或者达到停止条件,然后便将所有样本分成了几类。
对有监督学习而言,根据最终所需要的输出结果
如果是分类问题,可以参考的模型有线性回归及其非线性扩展、决策树、神经网络、支持向量机SVM、规则学习等
如果是回归问题,可以认为是分类的连续形式,方法便是以上模型的变种或扩展
如果涉及到概率,可以参考的有神经网络、贝叶斯、最大似然、EM、概率图、隐马尔科夫模型、强化学习等
三. 训练算法
将格式化数据输入到算法,从中抽取知识或信息。这里的得到的知识需要存储为计算机可以处理的格式,方便后续使用。
四. 性能评估和优化
如果要评估训练集和测试集的划分效果,常用的有留出法、交叉验证法、自助法、模型调参等
如果模型计算时间太长,可以考虑剪枝
如果是过拟合,则可通过引入正则化项来抑制(补偿原理)
如果单个模型效果不佳,可以集成多个学习器通过一定策略结合,取长补短(集成学习)