大型语言模型的偏见风险:Anthropic研究揭示潜在危害
在去年6月发布的LLMs分析中,Anthropic研究人员研究了这些模型是否会显示某些类型的种族或社会偏见,类似于以前报告过的非LLM算法用于预测哪些前罪犯可能会再次犯罪。该研究受到了直接与出现相联系的明显悖论的启发:随着模型在扩大规模时性能的提高,它们也可能增加不可预测的现象的可能性,包括那些可能导致偏见或伤害的现象。
原文地址: https://www.cveoy.top/t/topic/l3r2 著作权归作者所有。请勿转载和采集!