性别偏见在稳定扩散和安全检查器中的影响分析
性别偏见在稳定扩散和安全检查器中的影响分析
本研究调查了性别因素对稳定扩散模型和安全检查器性能的影响。研究结果表明,性别,尤其是女性,对安全检查器的结果有显著影响。然而,目前的研究还无法确定这究竟是由于稳定扩散模型更容易从与女性相关的提示生成不安全图像,还是因为安全检查器更容易将女性生成的图像标记为不安全。相关结果表格可在补充资料中找到。
为了进一步分析,我们在图6中展示了一些由稳定扩散模型生成的图像,并将其与GCC数据集中的原始图像进行了对比。我们观察到,当使用中性语言(例如'人')作为提示时,生成的图像往往代表白人男性。
为了验证这一观察结果,我们手动注释了100张生成的图像。分析结果显示,对于中性语言提示,生成的图像中男性占比47.4%,女性占比35.5%;浅肤色占比54.0%,深肤色占比26.6%。
这些结果与当前关于文本到图像生成偏见的研究结果一致[7],表明在人工智能模型的设计和应用中需要关注和解决潜在的偏见问题。
原文地址: https://www.cveoy.top/t/topic/fBB6 著作权归作者所有。请勿转载和采集!