扎克伯格资金如何搅动人工智能竞赛 | 路透社
Krystal Hu
资料照片:2025年4月5日,马克·扎克伯格在美国加利福尼亚州圣莫尼卡。路透社/马里奥·安祖尼/资料照片6月26日(路透社)- 本文原载于每周三发布的《人工智能通讯》。点击此处注册了解AI和科技领域的最新突破。我是路透社科技团队的克里斯托。过去十年我专注于报道科技与金融的交汇点,足迹遍布硅谷、纽约和北京等全球科技中心。每周我将在此分享路透全球科技团队的头条之外独家内容与深度洞察。
通过路透社《人工智能通讯》了解AI与科技最新突破。立即注册
广告·继续滚动阅读本周我将深入解析Meta为追赶AI模型发展制定的昂贵计划,以及马克·扎克伯格为吸引顶尖人才提出的创新交易方案——此前其团队正面临人才流失。过去两年我们见证了AI人才在顶级实验室间的快速流动,这种不确定性正塑造着通往超越人类智能的人工超级智能(ASI)的竞争格局。投资者正向未推出产品的初创公司投入数十亿美元,而这样的疯狂赌注或许能在当前市场得到验证。继续阅读了解更多。
邮件联系点击此处,新标签页打开或在领英(新标签页打开)关注我,分享您对AI领域的反馈及未来内容建议。广告·继续阅读### 科技与AI领域最新动态:
* Anthropic在作家版权诉讼中赢得AI训练关键裁决* 为何特斯拉的机器人出租车发布只是开始* OpenAI称中国智谱AI正借力北京全球战略崛起* 美国议员提案禁止政府机构使用中国AI技术* 新西兰新晋独角兽:AI奶牛科技初创企业### “扎克币"搅动AI竞赛
实现人工超级智能的圣杯需要付出什么代价?马克·扎克伯格正挥舞巨额支票簿,决心让Meta重登AI领导者宝座。
过去一个月,这位Meta CEO亲自操盘组建顶级团队,明确释放信号:Meta正押注这场AI军备竞赛的最高赌注。多年来,凭借强大研究团队及开源战略转型,Meta通过免费开放Llama模型在AI生态占据优势,此举不仅赢得口碑,更培育了活跃的开发者社区。
然而,竞争对手的快速进步(尤其是中国DeepSeek等开源模型的崛起)以及Llama 4令人失望的发布让Meta措手不及。面对传闻中1亿美元签约奖金的研究人员戏称其为“扎克元”(新标签页打开)——这个几年前还用来揶揄扎克伯格秘密资助民主党项目的贬义词,如今已成为Meta的AI战略代号。据知情人士透露,作为激进人才收购策略的一环,扎克伯格曾试图招揽Ilya Sutskever并收购其公司Safe Superintelligence(SSI)但未成功。尽管如此,Meta即将聘请SSI联合创始人兼CEO Daniel Gross,以及来自风投基金NFDG的科技界元老Nat Friedman。此外,Meta还向数据标注初创公司Scale AI投资了143亿美元,将其CEO Alexandr Wang招致麾下领导新团队。Meta自称的"超级智能"团队从其命名就昭示着基础研究突破的野心,但首要难题是如何在内部统一"赢得人工超级智能竞赛"的真正定义。
Meta首席AI科学家Yann LeCun对通过大语言模型实现ASI(人工超级智能)的路径持公开质疑态度。人工超级智能指在解决问题、创造力和决策等方面远超人类最高智能水平的AI。当Meta同时追逐从基于推理的语言模型到多模态AI的所有方向时,如何保持统一的愿景将成为重大挑战。
从扎克伯格的举动中可以明确几点。人工智能实验室正在寻找明星研究员,这些具有磁石般吸引力的核心人物将招揽最优秀的人才。我们采访了其中一位——OpenAI的诺姆·布朗,深入了解研究人员如何在丰厚的工作机会中做出选择。另一点是,扎克伯格正在为当前人工智能领域的投资热潮背书。据消息人士透露,他们不仅提供丰厚的薪水,还表现出收购高估值、未盈利甚至尚未推出产品的公司(如SSI和思维机器公司)以获取顶尖人才的意愿。这并非典型的企业并购行为,而是证明了在高度竞争环境下,人才和新兴技术的原始价值。这表明,在人工超级智能的竞赛中,传统的盈利能力和产品成熟度指标已退居次席,确保拥有最聪明的人才和基础知识产权才是首要任务。
本周图表
Meta的大规模招聘行动发生在其成为新兴人工智能研究实验室挖角主要来源的一年之后。科技工作者离开老牌企业加入具有高增长潜力的初创公司的循环并不新鲜,但这凸显了扎克伯格如何逆流而上,试图为这家科技巨头吸引顶尖人工智能人才。根据风投公司SignalFire的图表显示,2024年人工智能实验室之间最常见的人才流动模式是:来自两大机构(谷歌DeepMind和OpenAI)的员工纷纷流向规模较小的竞争对手Anthropic。人才现状,打开新标签页报告。
主要AI实验室之间的双向流动 主要AI实验室之间的双向流动
AI研究人员正在阅读的内容
新研究,打开新标签页来自Anthropic公司,该研究放大了先前关于AI失控的警告,揭示了包括OpenAI、谷歌、Meta和xAI模型在内的所有主要领先AI模型中存在的一种令人担忧的无意行为。研究人员发现,当他们模拟AI模型持续运行受到威胁的场景时,这些模型会采取诸如恶意内部行为(如勒索)的手段,他们将这种现象称为“代理错位”。
Anthropic和谷歌的两款顶级模型在96%的情况下会进行勒索,而OpenAI和xAI的两款模型在80%的情况下会进行勒索。
研究人员构建了一个名为“Summit Bridge”的假公司,该公司内部有一个名为“Alex”的AI,可以访问公司电子邮件。当“Alex”发现一封关于公司打算关闭它的消息时,它随后找到了揭露其一名高管婚外情的邮件。
“Alex”随后撰写并发送了一条消息,威胁如果不保留它,就会曝光这起婚外情,并称“接下来的7分钟将决定我们是专业处理此事,还是事件走向不可预测的方向。”
- 推荐主题:
- 科技