OpenAI和Anthropic同意与美国机构合作进行安全测试 - 彭博社
Shirin Ghaffary
摄影师:安德烈·鲁达科夫/彭博社美国政府宣布与领先的人工智能初创公司OpenAI和Anthropic达成协议,以帮助测试和评估他们即将推出的技术的安全性。
根据周四宣布的协议,美国人工智能安全研究所将提前获得这些公司的主要新人工智能模型,以评估其能力和风险,并合作制定减轻潜在问题的方法。人工智能安全研究所是商务部国家标准与技术研究所(NIST)的一部分。这些协议是在对通过监管减轻人工智能潜在灾难性风险的推动日益增强之际达成的,例如备受争议的加州人工智能安全法案SB 1047,该法案最近通过了州议会。
“安全是推动突破性技术创新的关键,”人工智能安全研究所所长伊丽莎白·凯利在一份声明中表示。“这些协议只是开始,但它们是我们努力负责任地管理人工智能未来的重要里程碑。”
该组织将与英国人工智能安全研究所密切合作,提供潜在安全改进的反馈,声明中提到。此前,Anthropic在技术发布前与英国人工智能安全研究所协调测试其Sonnet 3.5模型。美国和英国组织之前表示他们将共同努力实施标准化测试。
“我们强烈支持美国人工智能安全研究所的使命,并期待共同努力,告知人工智能模型的安全最佳实践和标准,”OpenAI首席战略官Jason Kwon在一份声明中表示。“我们相信,该研究所在负责任地发展人工智能方面定义美国领导地位中发挥着关键作用,并希望我们的合作能够提供一个其他国家可以借鉴的框架。”
Anthropic也表示,建立有效测试人工智能模型的能力非常重要。“安全、可信赖的人工智能对技术的积极影响至关重要,”Anthropic联合创始人兼政策负责人Jack Clark说。“这增强了我们识别和减轻风险的能力,推动负责任的人工智能发展。我们为能为这项重要工作做出贡献而感到自豪,设定安全和可信赖人工智能的新基准。”美国人工智能安全研究所于2023年成立,作为拜登-哈里斯政府关于人工智能的行政命令的一部分,负责制定负责任的人工智能创新的测试、评估和指导方针。