方法 F1RFFKELM 537DT 750SVM 582RF2000 507RF1000 507AdaBoost 758RFFKELMBG10010 816RFFKELMBG20010 792分析上表
根据上表,我们可以看出不同方法在数据集上的F1得分。
DT(决策树)和AdaBoost方法在数据集上表现最好,分别达到了75.0%和75.8%的F1得分。这意味着这两种方法在预测正类和负类时都能取得较好的平衡。
SVM(支持向量机)和RFFKELM(随机傅里叶核极限学习机)方法的表现略逊一筹,分别只有58.2%和53.7%的F1得分。
RF(随机森林)方法的表现相对较差,特别是在使用2000个决策树时,只有50.7%的F1得分。这可能是因为随机森林在这个数据集上过度拟合了。
对于RFFKELMBG(随机傅里叶核极限学习机与贝叶斯规则)方法,可以看到在不同的参数设置下,它的表现都比较好,分别达到了81.6%和79.2%的F1得分。这表明该方法在这个数据集上具有较好的泛化性能。
综上所述,根据F1得分来评估不同方法的表现,我们可以认为RFFKELMBG方法在这个数据集上表现最佳,其次是DT和AdaBoost方法。
原文地址: https://www.cveoy.top/t/topic/iFK1 著作权归作者所有。请勿转载和采集!