Anthropic CEO阿莫迪掌舵610亿美元AI巨头——彭博社
Shirin Ghaffary
Anthropic联合创始人兼首席执行官达里奥·阿莫代在其旧金山公司办公室。
摄影师:Helynn Ospina为《彭博商业周刊》拍摄二月中旬某天,Anthropic首席执行官达里奥·阿莫代在Slack上收到一条消息:公司安全团队的高级成员担忧,若缺乏适当防护措施,即将公开发布的人工智能模型可能被用于开发生物武器。
这一惊人发现出现时,阿莫代已承受着巨大压力。争议中的Claude 3.7 Sonnet模型距发布仅剩数日,Anthropic PBC正全力追赶竞相推出模型的竞争对手。与此同时,42岁、戴着眼镜留着卷发的阿莫代——其职业生涯早期曾在实验室精心提取过死蝾螈的眼球——正在敲定一笔估值超600亿美元的多轮融资。
此刻踩刹车绝非良机,但这正是阿莫代四年前参与创立Anthropic时承诺的原则。相比AI行业多数同行,阿莫代始终强调其开发的技术存在重大风险。
当时,Anthropic公司的一支名为"前沿红队"的员工小组正在加利福尼亚州圣克鲁斯参加一场安全会议。他们与来自生物安全咨询公司Gryphon Scientific LLC的外部专家(这些专家也参加了该活动)一起,在酒店房间里埋头处理这个问题。通过Google Meet远程参与的Amodei带领团队对模型进行了一系列测试。Anthropic的员工们对他说出了大多数老板在这种情况下可能想听的话——他们会熬一两个通宵来评估问题,并坚持按原计划发布。“他们说:‘我们可以通宵工作,可以按时完成,可以72小时不睡觉搞定这件事’,“Amodei在旧金山Anthropic总部回忆道。“我回答说:‘如果你们这样做,反而做不好工作。’“他要求团队花时间对模型进行更严格的测试。
为应对此类情况,Anthropic已预先制定了名为《负责任扩展政策》的框架,该框架 loosely 借鉴了美国政府生物安全实验室标准,用于确定如何处理日益先进的人工智能相关风险。只要其模型保持在特定水平之下(称为AI安全等级2),就可以照常运营。ASL-2级别的系统可能具备提供生物武器指导说明的能力,但其可靠性或详细程度不会超过搜索引擎可获得的信息。而ASL-3级别的系统则可能显著帮助用户——特别是具备基本技术知识的用户——实际制造或部署此类武器。
Anthropic此前发布的所有模型均处于ASL-2或更低级别。若达到ASL-3级别,根据公司内部准则必须加强安全防护,包括强化防御体系以防止恶意行为者窃取代码或诱骗系统泄露危险信息。在实施高级防护措施前,需采取临时性措施,例如刻意削弱模型性能、屏蔽特定响应或彻底不予发布。
经过近一周评估,团队最终认定该模型并未达到Amodei团队最初担忧的强度。Anthropic虽延迟发布,但至少截至目前,人类文明尚未因此崩塌。
Amodei坦言,在行业竞争压力下,短暂延迟令人"煎熬”。但若Anthropic真能实现其宣称的技术突破,未来还将面临更艰难的抉择。他坚信AI将通过"数据中心里的天才国度"重塑世界——乐观来看可能攻克癌症,但也可能导致全球大规模失业。据其预测,这场社会秩序重构最早明年就会来临,绝不会迟于2030年。“如果我们不尽可能清晰且频繁地阐明现状,几乎等同于放弃道德责任。“他表示。
Anthropic成立的初衷是以最负责任的方式推动这场变革。但现实是客户已开始为其技术支付真金白银:截至四月,公司年收入预计达20亿美元,较四个月前翻倍。Anthropic表示目前尚未盈利,主因AI系统训练成本高昂——Amodei透露,训练尖端模型的最终成本可能高达千亿美元。
客户几乎肯定将持续追求更强大的人工智能。Anthropic公司完全预期很快(或许即将)达到ASL-3级别,并已为此提前加强安全防护措施。近年来,该公司从OpenAI挖来了至少六位顶尖研究人员,其中部分人曾批评前雇主背离了其公开承诺的安全准则。可以预见,若Anthropic未来试图规避自身承诺,这些专家绝不会保持沉默。
关于这一临界点何时到来仍存争议。与谷歌、Meta Platforms Inc.和OpenAI类似,Anthropic在发布其最昂贵、最强大AI模型新版本的预期时间表上已然落后。质疑者认为,关于AI危险性的讨论或许是为了夸大该技术的实际能力。
与此同时,关注AI安全的人士指出,追求快速开发的市场压力可能导致企业做出不负责任的决策。毕竟,投资者向Anthropic注资140亿美元绝非为了让它败给OpenAI、DeepSeek或Meta,而一旦接受这些资金,忽视商业利益就不再是可选选项。“你无法真正与市场正面对抗,“Amodei坦言。但他同时表示,可以创造所谓的"向上竞争”——通过示范如何在不毁灭世界的前提下打造改变世界的AI,推动整个人工智能行业共同提升。
阿莫代伊是土生土长的旧金山人,却从不以科技人士自居。他在教会区长大,那时科技资本尚未改变这片街区。阿莫代伊家族属于工人阶级,已故的父亲在意大利孤儿院长大,曾是皮革匠人,后因慢性健康问题在阿莫代伊幼年时被迫停工,并于阿莫代伊青少年时期离世。他的母亲则担任图书馆项目经理。
阿莫代伊的妹妹丹妮拉·阿莫代伊——也是Anthropic联合创始人兼公司总裁——回忆哥哥自幼天赋异禀,尤其在数理领域。蹒跚学步时,他就会宣布"数数日"并竭尽所能地数数。“他能数上一整天,“她说,“哪个三岁孩子有这种专注力?“高中期间他就开始修读加州大学伯克利分校课程,后在加州理工学院攻读物理学两年,继而转学斯坦福大学。
丹妮拉记得,大学时期达里奥因阅读雷·库兹韦尔的《奇点临近:当人类超越生物学》首次对AI产生兴趣,该书预言AI将在2029年达到人类智能水平,2045年人类将与机器融合。
阿莫代伊2006年获得本科学位后,转向研究物理学的神经与生物应用。为攻读研究生,他东迁至普林斯顿大学攻读生物物理学博士学位,其研究涉及两栖动物神经节细胞的神经结构,这让他不得不解剖蝾螈以观察视网膜。“我对其中涉及的动物权益问题并不热衷,“自幼素食的阿莫代伊表示(不过他对虾类等无脊椎动物网开一面)。但他补充道:“我是科学家,我想解决生物学和人类健康的问题。”
真正触动阿莫迪的并非实验室生活的伦理问题,而是发展速度。当他在日常工作的枯燥中挣扎时,阿莫迪看到另一项探索智能本质的尝试——人工神经网络的研发——正以惊人速度推进。尽管所谓的深度学习在计算机科学界曾一度失宠,但该领域在2012年左右开始复兴。研究人员运用这项技术提升计算机视觉的突破令阿莫迪惊叹:“我当时就想,‘天哪,这真的奏效了’"。2014年,曾在斯坦福大学从事博士后研究的阿莫迪,受该校计算机科学系教授吴恩达邀请,加入其为中国科技公司百度运营的AI部门,他毫不犹豫抓住了这个机会。
阿莫迪在百度工作一年后,又加入了谷歌旗下专注AI的研究团队Google Brain。在那里,他开始思考AI快速发展带来的伦理问题。2016年,他发表了备受推崇的论文《人工智能安全的具体问题》,阐述了AI可能引发意外危害的五个关键领域。
尽管2010年代初的谷歌是AI新秀的理想工作地,但名为OpenAI的非营利实验室更契合阿莫迪的志趣。他于2016年加入该机构担任安全研究负责人,与包括后来成为Anthropic联合创始人的三位同事在内的数名室友,共同居住在旧金山格伦公园社区的合租屋中。其中一位室友正是丹妮拉。当时,阿莫迪兄妹的社交圈都与有效利他主义(该哲学主张以理性思维作为改善世界的最有效方式,在AI安全关注者中风靡一时)有所关联。(该运动在其最著名领袖之一、加密货币大亨山姆·班克曼-弗里德——其公司在破产程序前曾是Anthropic投资者——因欺诈投资者罪被判刑后逐渐失势。)
达里奥和丹妮拉·阿莫代伊在去年旧金山彭博科技峰会上的舞台合影。摄影师:大卫·保罗·莫里斯/彭博社阿莫代伊在OpenAI最重要的研究贡献是提出了”规模法则“概念,即通过单纯增加模型规模、数据量和计算能力就能实现神经网络的根本性改进。在计算机科学发展史上,人们长期认为突破主要来自设计更优算法。通过开创"越大越好"的策略,阿莫代伊在主导当前AI热潮的大语言模型崛起中发挥了关键作用,这使他在OpenAI乃至整个行业获得了显赫地位。
对AI的责任感始终困扰着阿莫代伊,随着时间推移,他对OpenAI逐渐失望。2020年,他与六名同事离职创立Anthropic,承诺打造更负责任的AI实验室。这个团队相处融洽:他们早有共事经历,其中三人曾同住,两人还有亲属关系。
这次出走至今仍是硅谷热议话题——这里向来热衷初创公司的戏剧性故事,尤其当涉及史上估值最高的独角兽企业时。阿莫代伊对此语焉不详,但提及对OpenAI领导层失去信心:“并非某个特定转折点,而是多年累积意识到我们需要不同的运作方式。“他表示,“我们希望与信任的人共事。“当时Anthropic前景看似渺茫,毕竟OpenAI坐拥巨额资金和模型研发的先发优势。谷歌CEO埃里克·施密特作为早期投资者回忆:“几年前的主流观点认为Anthropic无法扩大规模,因为它筹不到足够资金。”
然而,Anthropic已发展成不容小觑的竞争对手,其技术实力可堪匹敌,并在金融、制药、软件开发等行业积累了不断增长的付费客户群(该公司也推出了面向公众的AI聊天机器人Claude,但相比OpenAI更少聚焦消费市场)。
施密特仍记得2018年造访阿莫迪与其合伙人(现为妻子)卡米拉·克拉克时的情景,他们当时住在旧金山高速公路旁的初创公寓里。虽然阿莫迪那时仍在OpenAI任职,但其才华给施密特留下深刻印象,最终促成后者对Anthropic的投资。施密特曾对阿莫迪将Anthropic注册为公益企业的计划持怀疑态度——这类营利组织需致力于公共使命。当施密特建议采用传统初创模式时,阿莫迪断然拒绝。
此类争论在Anthropic早期屡见不鲜。“我们讨论过’是否仅靠慈善资金运作?是否主要聚焦安全研究?需要多少资金?’“阿莫迪的博士同窗、现Anthropic联合创始人兼首席科学官贾里德·卡普兰回忆道,“有人认为该成立非营利机构。但达里奥和我都认为这非明智之举,应保持选择灵活性。”
投资机构General Catalyst首席执行官赫曼特·塔内贾指出,Anthropic有望成为当前AI热潮中少数赢家之一。该公司参与了Anthropic最新一轮融资:“这家企业具备最终胜出的一切要素,但坦白说,这是我写过金额最大、不确定性最高的支票。”
尽管Anthropic一路高歌猛进,但它比其发源公司更重视安全和责任等问题的声誉已经树立起来。OpenAI董事会指控萨姆·奥尔特曼“不够坦诚”,导致他在2023年短暂下台,此后该公司一直面临关于其诚信和最初使命承诺的质疑。2023年短暂罢免萨姆·奥尔特曼的事件,引发了外界对该公司的诚信及其对最初使命承诺的持续质疑。
阿莫代伊通常避免直接批评前雇主,但他和他的公司并不掩饰一些含沙射影的抨击。Anthropic在旧金山各地投放了广告牌,标语写着“值得信赖的AI”和“没有戏剧性的那一个”。与其他科技高管(包括奥尔特曼)不同,阿莫代伊几乎没有试图讨好特朗普政府,他表示自己的立场与乔·拜登担任总统时一致。他提到行业中“一些参与者”为了讨好当权派而“什么话都说”,相比之下,“你可以看出这非常没有原则。”他说。
加州Anthropic的广告牌。来源:Anthropic今年1月,阿莫代伊首次参加了在瑞士达沃斯举行的世界经济论坛,他穿着细条纹西装,参与了一些思想领导力和高风险交易谈判。同一天,他在彭博达沃斯之家发表了关于DeepSeek和AI赋能医疗保健的演讲,之后又与美国国际集团(AIG)首席执行官彼得·扎菲诺进行了近一小时的密谈。Anthropic最终获得了一份多年期合同,帮助分析保险承保过程中的客户数据。(AIG表示,这笔交易源于为期18个月的试点,期间Anthropic将相关工作速度提高了8到10倍。)扎菲诺表示,他选择Anthropic是因为该公司特别注重在引用具体数据源时的可信度和准确性,尤其是在高度监管的保险行业。扎菲诺对阿莫代伊的学习速度印象深刻。“无论达里奥在商业经验上有什么不足,他大脑中的算法运转得非常快,”扎菲诺说,“他能够将所学和我们讨论的内容应用到业务目标上。”
在达沃斯结束一天的工作后,他婉拒了晚间派对,回到酒店房间撰写文章,探讨DeepSeek如何凸显加强半导体出口管制的必要性。Anthropic最近的融资轮次已使他成为亿万富翁,出行常配备安保团队。但他仍租住在旧金山南郊的房子里,在院子里养鸡,并承诺将"绝大部分"财富捐赠给慈善事业。
三月接待彭博商业周刊记者时,他并未穿着细条纹西装;阿莫迪显然很享受回归被同事克拉克称为"舒适套装"的装扮——弹性灰色运动裤和同色系休闲T恤。他表示这身打扮"有助于思考”。
阿莫迪根植于学术生涯的思维方式塑造了Anthropic的企业文化。每两周,自称"蚂蚁"的员工们会聚集聆听他长达一小时的内部讲座"达里奥愿景探索”。相关文档会提前分发供预习。在他的领导下,公司还研究无法即时变现的课题,如机械可解释性(研究不透明算法的决策机制)和AI福利(若计算机产生意识时的交互伦理)。
通过这一系列成绩,Anthropic在科技界树立了真正重视负责任AI开发的声誉——而与此同时,其他科技公司可能只是口头承诺这一理念,甚至在某些情况下,当伦理框架可能拖慢开发进度时,对其合理性表现出敌意。“达里奥和整个团队在安全问题上值得信任和赞扬,他们是真诚行事的,“与阿莫迪就写作进行过咨询的著名经济政策作家马修·伊格莱西亚斯表示,“但这是否能改变结构性困境尚不明确。当你处于竞赛中时,即使完全出于善意,也很难兼顾安全。”
Anthropic致力于打造几乎无所不能的机器,但其AI目前有一项特别突出的能力:编写计算机代码。该公司最近为程序员发布了一款应用Claude Code,其技术还为包括Cursor在内的热门独立编程应用提供支持。Anthropic自身二月份的经济指数报告显示,37%与Claude相关的职业互动涉及编程,占比居所有类别之首(艺术与媒体以约10%位列第二)。阿莫迪表示,自动化编码可能是近几个月来其业务增长最快的部分。
AI生成的代码不像计算机创作的音乐或绘画那样能引发情感共鸣。与歌曲不同,用户并不太在意他们使用的应用程序背后的代码是否出自真人之手。程序员群体也普遍接受了AI将成为工作的一部分:GitHub公司去年对2000名技术人员进行的调查发现,近97%的人曾在工作中使用过编程工具。
但与计算机制造脏弹等AI安全问题相比,该领域迫在眉睫的失业危机显得更为真实。Anthropic公司发现,79%使用Claude Code的程序员是为了"自动化"而非"增强"任务。(据Anthropic政策负责人、联合创始人兼前彭博新闻社记者杰克·克拉克透露,这份经济指数报告部分内容就是由Claude Code生成的。)
这正是阿莫迪必须直面公司工作带来的严峻现实的领域。在3月10日由外交关系委员会主办的华盛顿特区演讲中,阿莫迪预测AI可能在一年内完成几乎所有计算机代码的编写。这段发言视频迅速传播,引发了恐惧与质疑交织的反响。阿莫迪表示其言论被断章取义——他在活动中同时强调人类仍将参与整体编程过程,比如指定开发何种应用程序或如何与其他系统集成。“归根结底,这些模型在所有方面都将超越人类,“他说,“我们必须面对这个现实。在社会层面,每个人都需应对这个问题。我的目标是在这个过渡期避免制造出新的底层阶级。”
对Anthropic而言颇为尴尬的是,在这场技术变革中受影响的可能正是当下在其办公室内构建自动化工具的雇员们。“氛围变得’哦,这下动真格的了’,“克拉克说道。阿莫迪最近在一次愿景探索演讲中聚焦该议题,他向员工坦言Anthropic的技术正引发公司工作模式的深刻变革。“由于Claude的进展,我们可能会放缓招聘节奏——这么做正是为了避免未来因Claude而裁员,“他在向团队传达时这样表示,并补充公司将协助程序员适应角色转型。
在会议配套的内部备忘录中,阿莫迪写道:今年内AI在"执行关键技术任务”(如编写代码、调试、提案及管理实验)方面有70%概率从"辅助工具"跃升为"绝对必需品”,届时将承担大部分技术工作,使Anthropic的执行效率翻倍。
“AI进步的主要驱动力将来自AI自身,“阿莫迪在备忘录中强调,同时指出人类仍将长期保持核心地位——“这源于当前人类的相对优势”。不过随着AI进入递归式自我迭代的循环,人类的作用可能逐步弱化。
若该能力真正实现,Anthropic的模型将迅速突破其危险等级阈值。达到ASL-4级别时,AI将具备"完全替代Anthropic初级远程研究员"的能力。而ASL-5则意味着AI拥有加速自我进化的能力。
在《慈爱机器》这篇广为流传的文章中(阿莫代伊去年十月先在公司内部发表,随后发布于个人博客),他描绘了如果人工智能一切发展顺利的终极图景。凭借其生物学专业背景,他指出AI将以当前十倍的速度加速科学发现,帮助治愈几乎所有传染病、多数癌症和阿尔茨海默症,最终使人类寿命延长一倍。(Anthropic公司现在印制了口袋大小的*《慈爱机器》*文集分发给员工。)
当谈及AI与工作及人生意义的关系时,笔调开始转变。他认为这个问题尤为棘手,因为"其边界更难以界定,也更具不可预测性”。阿莫代伊预测AI可能最终取代大部分人类劳动,除非人们找到某种尚未确定的保持经济价值的方式,否则将不得不依靠全民基本收入或其他财富再分配机制生活。
“我们很可能需要努力争取才能获得好结果:剥削性或反乌托邦的发展方向显然也存在可能,必须加以防范,“阿莫代伊写道,“关于这些议题还有更多值得探讨的内容,我希望未来能进一步阐述。"延伸阅读:微软CEO谈AI将如何重塑所有企业——包括他自己的公司