微软将负责人工智能团队人数从350人增加到400人 - 彭博社
Jackie Davalos
微软急于增加对其人工智能工具的信任,因为人们越来越担心这些工具会生成奇怪的内容。
摄影师:Dimas Ardian/Bloomberg微软公司扩大了负责确保其人工智能产品安全的团队,去年将人员从350人增加到400人。
该团队中超过一半的人全职致力于这项任务,公司在周三的首份年度人工智能透明度报告中表示,该报告概述了确保其服务负责任推出的措施。团队的新增成员包括新员工和现有员工。
去年,微软解散了其伦理与社会团队,这是科技行业广泛裁员的一部分,导致各公司的信任和安全团队遭到削减,包括Meta Platforms Inc.和Alphabet Inc.的Google。
微软急于增加对其生成式人工智能工具的信任,因为人们越来越担心这些工具会生成奇怪的内容。今年二月,该公司调查了涉及其Copilot聊天机器人的事件,该机器人的回应从奇怪到有害不等。
第二个月,一名微软软件工程师致信董事会、立法者和联邦贸易委员会,警告称这家科技巨头没有做足够的工作来保护其人工智能图像生成工具Copilot Designer,以免生成滥用和暴力内容。
“在微软,我们意识到我们在塑造这项技术中的角色,”总部位于华盛顿雷德蒙德的公司在报告中说道。
微软部署人工智能的安全方法基于国家标准与技术研究所制定的框架。这个机构隶属于商务部,根据乔·拜登总统去年发布的一项行政命令,负责为新兴技术制定标准。
在其首次报告中,微软表示已推出了30个负责任的人工智能工具,包括使人们难以欺骗人工智能聊天机器人表现怪异的工具。该公司的“提示屏蔽”旨在检测和阻止故意尝试 — 也被称为提示注入攻击或越狱 — 使人工智能模型以意外方式行事。
微软公司投入大量资金并与OpenAI 合作的动机源于一种感觉,即在与谷歌的竞争中严重落后,根据一封内部电子邮件发布于周二,作为司法部反垄断案件对这家搜索巨头的一部分。
Windows 软件制造商的首席技术官凯文·斯科特在看到谷歌和微软之间的人工智能模型训练能力差距时“非常,非常担心”,他在2019年写给首席执行官萨提亚·纳德拉和联合创始人比尔·盖茨的一封消息中写道。这次交流显示了公司高管私下承认他们缺乏基础设施和开发速度,无法赶上OpenAI 和谷歌的DeepMind等公司的情况。