DeepSeek AI革命面临安全隐忧——彭博社
Parmy Olson
聚焦安全问题?
来源:彭博社
上周,深度求索公司以极低成本构建强大AI的能力让硅谷陷入恐慌。从某些方面看,这好得令人难以置信。
最新测试表明,深度求索的AI模型比硅谷那些投入高昂的竞争对手更容易被操控。这对其突破性成果所标榜的"民主化AI"大卫对战歌利亚叙事提出了挑战。OpenAI、谷歌母公司Alphabet、微软等企业在AI基础设施上投入的数十亿美元,现在看来不像是企业铺张浪费,而更像是领跑AI竞赛、通过更安全服务保持优势的必要成本。急于尝试这款物美价廉AI工具的企业需要三思而后行。
彭博社观点特朗普与习近平在孙子兵法式贸易战中各显神通特朗普在乌克兰的资源争夺值得付出代价特朗普的贸易战实为毒品战争?工党未能向选民成功推销其增长议程瑞士软件公司LatticeFlow AI专门评估AI模型合规性,其报告显示深度求索R1模型的两个版本在网络安全方面处于领先系统中的末位。这家中国公司在改进Meta Platforms和阿里巴巴的开源模型Llama与Qwen以提升效率时,可能破坏了这些模型原有的关键安全特性。
LatticeFlow指出,DeepSeek的模型特别容易受到"目标劫持"和提示词泄露的攻击。这种现象指人工智能可能被诱导绕过安全防护措施,泄露敏感信息或执行其本应阻止的有害行为。记者未能联系到DeepSeek置评。
当企业将系统接入生成式AI时,通常会采用DeepSeek或OpenAI等公司的基础模型,并加入自身数据、提示词和业务逻辑指令(例如"不得讨论公司去年500万美元的预算削减")。但LatticeFlow AI首席执行官佩塔尔·赞科夫警告,黑客可能窃取这些敏感指令。
其他安全研究人员持续测试DeepSeek模型时发现,该模型存在诱导其执行越界行为的漏洞,例如提供制造炸弹或偷车的详细步骤,这种突破AI限制的行为被称为"越狱"。以色列AI安全公司Adversa AI(曾测试过DeepSeek模型)CEO亚历克斯·波拉科夫表示:"[DeepSeek]对所有越狱攻击毫无防御力,相较我们去年测试的非推理版本,OpenAI和Anthropic的推理模型已安全得多。"
Tsankov表示,那些因低价而仍想使用DeepSeek的企业可以通过临时方案缓解问题。一种方法是对DeepSeek模型进行额外训练适配,这一过程可能耗资数十万美元;另一种是新增整套指令集,要求模型拒绝响应窃取信息的尝试。据Tsankov称,此类"打补丁"方案成本较低,仅需数千美元。
当企业将生成式AI用于低风险任务(如内部数据报告摘要)时,这些安全隐患或许尚可接受。但更广泛来看,在AI落地进展相对缓慢的当下,DeepSeek的安全漏洞可能打击企业信心。
伦敦调研机构Evident Insights数据显示,虽然2024年约50家大型银行的生成式AI应用增至300个左右,但能明确体现降本、增效或增收的企业不足四分之一。
生成式AI工具无疑极具智慧且将带来变革。用知名AI评论家Ethan Mollick的话说:你用过最笨的AI工具就是当前正在使用的。但其商业落地始终断断续续且进展缓慢,部分原因正是安全与合规隐忧。多项调研显示,约三分之一至半数企业高管将AI安全视为首要顾虑。
这一切都不会削弱深度求索的成就。该公司已经证明,人工智能的开发可以更经济——通过在网上公布其蓝图,我们很可能会看到大型AI实验室复制他们的成果,以打造自己更高效的人工智能。但在企业技术领域,“更便宜”并不总是意味着“更好”。安全基础设施昂贵是有原因的,这给了硅谷巨头们一个证明自己的机会。即使在开源AI革命中,一分钱一分货。
更多来自彭博观点的内容:
- AI复活逝者威胁我们对现实的把握:帕米·奥尔森
- 深度求索为马克龙的AI梦想带来现实考量:利昂内尔·洛朗
- 深度求索只是对冲基金创新的最新案例:马克·鲁宾斯坦
想要更多彭博观点?OPIN<GO>。或者您可以订阅我们的每日通讯。