除了这三个领域外,我们还尝试以一种方式建立我们的结构,以使我们的激励与良好结果相一致。我们的章程中有一条关于帮助其他组织推进安全而不是与他们在后期AGI开发中竞争的条款。我们对股东的回报设有上限,以避免我们试图捕捉无限价值并冒着部署可能具有灾难性危险的东西的风险(当然,这也是与社会分享利益的一种方式)。我们有一个非营利组织来管理我们,让我们为人类利益而运营(并可以覆盖任何营利利益),包括让我们做一些事情,比如在需要时取消我们对股东的权益义务以确保安全,并赞助世界上最全面的UBI实验。

我们尝试以一种方式建立我们的结构,以使我们的激励与良好结果相一致。

我们认为像我们这样的努力在发布新系统之前应提交独立审计;我们将在今年晚些时候谈论这个问题。在某个时候,可能需要在开始训练未来系统之前进行独立审查,并为最先进的努力同意限制用于创建新模型的计算增长率。我们认为公共标准关于何时AGI努力应停止训练、决定模型是否安全发布或从生产使用中撤销模型是重要的。最后,我们认为重要的是,主要世界政府了解一定规模以上的训练运行情况。

人工智能安全:对齐激励机制,建立安全结构

原文地址: https://www.cveoy.top/t/topic/lfuY 著作权归作者所有。请勿转载和采集!

免费AI点我,无需注册和登录