对抗样本是指在输入数据中添加了一些人类无法察觉的微小扰动,以使得机器学习模型的输出结果产生误差或者偏差。这些扰动可以通过各种技术手段生成,包括但不限于图像添加噪音、文本替换、声音变形等。对抗样本的出现可以对机器学习模型的鲁棒性和可靠性造成影响,使得模型在实际应用中产生误判或者失效。

什么是对抗样本

原文地址: https://www.cveoy.top/t/topic/qQI 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录