摘要
经典的支持向量机(SVM)训练算法的实质是求解一个凸二次规划问题,当训练样本很多时,算法的速度会比较慢,且如果两类样本过分交叉,又会降低支持向量机的泛化能力。为了加快支持向量机的训练速度和改善其泛化能力,文章提出了一种改进的样本简约方法。该方法首先抽取边界样本,然后对边界样本中可能存在的噪音、孤立点进行修剪,由此得出最终的训练样本。实验结果表明,该简约方法不仅节约了训练时间,而且改善了支持向量机的泛化性能。
出处
《福建电脑》
2008年第3期86-87,共2页
Journal of Fujian Computer