开源社区

炮轰黄仁勋决裂奥特曼!1700亿美元估值背后硅谷最不好惹的AI狂人

炮轰黄仁勋决裂奥特曼!1700亿美元估值背后硅谷最不好惹的AI狂人

  • 发布:
  • 人气: 12
  • 评论: 0

应用介绍

  一场家庭变故,塑造了这位硅谷顶级CEO。一项晚了四年的医学突破,让Dario Amodei深刻理解了科技加速的意义。他带着这份执念,将公司打造成AI领域的巨兽,誓要用技术追赶生命的遗憾。

  作为Anthropic的CEO,他在2025年简直是「火力全开」,与行业对手、政府官员以及公众关于AI的看法展开了激烈交锋。

  他预测AI可能很快会淘汰50%的入门级白领工作,还在《》上抨击了为期十年的AI监管禁令。

  接受采访时,Amodei看起来很放松,精力充沛,他身穿一件蓝色翻领毛衣,内搭一件休闲白T恤,戴着一副方框厚边眼镜。

  一些人认为他是技术远见者,曾开创了OpenAI的GPT-3(ChatGPT的前身),也是一位注重安全的领导者,毅然出走创立了Anthropic。

  另一些人认为他是控制欲强的「末日论者」,想要减缓AI的进程,按自己的喜好塑造它,并把竞争对手挤出局。

  从2021年「一无所有」开始,这家公司(尽管尚未盈利)的年化经常性收入(ARR)已从2025年3月的14亿美元,增长到5月的30亿美元,一路飙到7月份的接近45亿美元。

  他的母亲Elena Engel负责伯克利和旧金山图书馆的翻新和建设。父亲Riccardo Amodei是一名手艺精湛的皮匠。

  问题不在于大家是否乐于见到轰炸伊拉克;而在于大多数人反对,却不愿为此付出哪怕一毫秒的时间,这种情况需要改变,现在就改变,刻不容缓。

  父亲的离世给Amodei带来了巨大的冲击,他将自己在普林斯顿大学的研究生方向从理论物理转向了生物学,希望能解决人类的疾病和生物学问题。

  「有人研发出了治愈这种疾病的方法,成功挽救了很多人的生命,但原本可以拯救更多的人。」Amodei说道。

  他认为,那些关于出口管制和AI安全保障的呼吁,被曲解为是一个非理性地试图阻碍AI进步的人所为。

  Amodei表示,「我父亲正是因为晚了几年才出现的疗法而去世的。我比谁都明白这项技术能带来的好处。」

  还未走出丧父之痛的Amodei,在普林斯顿开始了他的探索之旅:通过研究视网膜,解码人体生物学的奥秘。

  我们的眼睛通过向视觉皮层发送信号来捕捉世界——视觉皮层是大脑的重要组成部分,占大脑皮层的30%——然后视觉皮层处理数据并展示图像。

  「他是在拿视网膜当一个完整的神经网络缩影来研究,想搞清楚每个细胞到底在干嘛,」他在普林斯顿时期的同事Stephanie Palmer说,「他的野心在于此。他可不是想当个眼科医生。」

  在Michael Berry教授的视网膜实验室工作时,他对当时测量视网膜信号的方法极其不满,他干脆发明了一种全新的、更好的传感器,能采集到更多数据。

  他的毕业论文还赢得了Hertz论文奖,这是一个享有盛誉的奖项,颁给在学术研究中能搞出实际应用成果的人。

  「我感觉他骨子里是个挺骄傲的人,我猜在他之前的整个学生生涯里,不管做什么,大家都会起立为他鼓掌。但在这里,情况不一样了。」

  他在斯坦福大学,跟着研究员Parag Mallick做博后,通过研究肿瘤内外的蛋白质来检测癌细胞的转移。

  生物学问题的复杂性,已经超出了人类能处理的范畴,要想把这一切都搞明白,你需要成百上千个研究员。

  刚开始看到AI领域的一些新发现,我就觉得它可能是唯一能填补这道鸿沟的技术,AI能带我们突破人类极限。

  他曾考虑过自己创业,后来又倾向于加入谷歌,因为谷歌Brain和刚收购的DeepMind都是资金雄厚的AI研究部门。

  但就在这时,百度给了著名学者吴恩达(Andrew Ng)一亿美元的预算,让他放手去研究和部署AI,并组建一个「梦之队」。

  他在百度的早期工作,催生了后来著名的「AI Scaling Law」——其实更像是一种观察总结出的规律。

  当谷歌DeepMind CEO Hassabis和Meta的AI科学家Yann LeCun等人还在说,AI需要更多新突破才能达到人类水平时,Amodei却非常笃定(尽管不是百分之百)——前进的道路已经很清晰了。

  在谷歌的大公司泥潭里待了十个月后,Amodei改变了主意。他于2016年加入OpenAI,研究AI安全。

  团队还用人类反馈强化学习(RLHF)技术对GPT-2进行微调——Amodei也是提出这项技术的先驱之一。

  尽管如此,OpenAI还是把GPT-3的领导权交给了Amodei,把公司50-60%的算力都给了他,打造一个超大规模的语言模型。

  在亲眼见证了Scaling Law在多个领域都奏效后,Amodei开始思考这项技术的终点在哪里,对安全问题的兴趣也变得空前浓厚。

  他看着这项技术,心里默认它最终一定会成功,如果你默认它会成功,最终会和人一样聪明,那你不可能不担心安全问题。

  尽管Amodei领导着OpenAI的模型开发,掌握着公司大量的算力,但在很多方面他都控制不了。

  那时,Amodei身边已经形成了一个关系紧密的小团体——有人因为他超爱熊猫,管他们叫熊猫党——他们在如何处理这些问题上,和OpenAI领导层想法完全不同。

  一家公司的领导者,必须是值得信赖的人。他们的动机必须是真诚的,无论你在技术上把公司推得多远。如果为一个动机不纯、不诚实、不是真心想让世界变好的人工作,这事成功不了,只会助纣为虐。

  他补充说,他一直希望通过鼓励别人模仿Anthropic的安全措施,来引发一场争相向善的竞赛。

  我说的任何话里,都找不到一丝一毫这个技术应该只有我们公司能做的意思。我不知道怎么会有人从我的话里得出这种结论。这简直是令人难以置信的、恶意的歪曲。

  我们支持安全、负责和透明的AI。我们生态系统中的数千家创业公司和开发者,以及开源社区,都在加强安全性。游说政府搞监管来打压开源,只会扼杀创新,让AI变得更不安全、更不民主。那不是争相向善,也不是美国取胜的方式。

  我们始终相信AI应该惠及并赋能每一个人,而不仅仅是那些声称这东西太危险了,除了我们谁也搞不定的人。随着技术的发展,我们在合作、模型发布和融资方面的决策,已成为整个行业的标准。我们始终不变的,是致力于让AI变得安全、有用,并惠及尽可能多的人。

  在公司一间会议室里,Jack Clark把他的笔记本电脑转过来,电子表格上列了一堆备选名字。

  Anthropic这个词也在其中,它有「以人为本」的含义,而且巧的是,在2021年初,这个域名还没被人注册。

  这个策略有两个好处:如果模型真有用,那会非常赚钱;同时,这种挑战也会逼着公司去造出更好的技术。

  他表示,把AI模型从生物化学本科生水平提升到研究生水平,普通用户可能没感觉,但对辉瑞这样的制药公司来说,价值连城。这能更好地激励我们把模型开发到极致。

  2023年7月,在ChatGPT亮相近一年后,他们的Claude聊天机器人横空出世,因其「高情商人设」而口碑炸裂。

  在此之前,公司一直想把员工数控制在150人以内,但那之后,他们一天招的人比第一年全公司的总人数还多。

  Anthropic如今已将其大模型卖给了各行各业——旅游、医疗、金融服务、保险等等——客户包括辉瑞、美联航和AIG这样的行业巨头。

  生产「减肥神药」Ozempic的Novo Nordisk公司,就用Anthropic的技术,把一个原来要花15天才能搞定的监管报告,压缩到了10分钟。

  公司专注于AI代码生成,一是因为这能加速自家模型的开发,二是因为只要做得够好,程序员会很快用起来。

  2023年,我们从零干到1亿美元。2024年,又从1亿干到10亿。今年上半年,我们又从10亿干到了……估计今天说话的时候,年化收入已经远超40亿了,可能是45亿。

  2025年,他们签下的千万级和亿级美元大单,是2024年的三倍,企业客户的平均花费也增长了5倍。

  但Anthropic烧钱也烧得厉害,训练和运行模型的成本高昂,让人怀疑它的商业模式是否可持续。

  一位创业公司的创始人表示,虽然Anthropic的模型最适合他的业务,但他不敢依赖,因为它太容易宕机了。

  另一家编程公司的CEO也说,在经历了一段降价后,Anthropic模型的使用成本现在又涨回去了。

  Amodei认为,随着模型越来越强,即使价格不变,客户得到的价值也在增加。实验室才刚开始优化推理成本,效率还有很大的提升空间。

  悬而未决的问题是:生成式AI以及Scaling Law,会像其他技术一样遵循成本下降的曲线,还是说它是一种成本结构全新的技术?

  AI实验室们一次又一次地打破创业融资记录。Meta、谷歌和亚马逊这样的老牌巨头,则利用其巨额利润和数据中心来打造自己的模型,进一步加剧了竞争。

  Anthropic有一种特殊的紧迫感,由于没有像ChatGPT那样让用户习惯性使用的王牌应用,它的模型必须在特定领域保持领先,否则就有被竞争对手替换掉的风险。

  DeepSeek震惊了商界,似乎表明开源、高效的模型可能会挑战行业巨头,让那些万亿市值的公司CEO们赶紧发X来安抚股东。

  潜在投资者包括一些中东海湾国家,在从谷歌、亚马逊等机构拿了近200亿美元后,想找到更大的金主,选择已经不多了。

  Amodei认为海湾国家有1000亿美元甚至更多的资本可以投,他们的钱能帮助Anthropic保持技术前沿。

  没有华丽的演示,他只是拿起手持麦克风,宣布了消息,对着笔记本电脑念了稿子,然后就把聚光灯交给了产品负责人。但台下的观众似乎很买账。

  AI理论里有个概念叫「智能爆炸」,指的是模型能自我改进,然后——嗖地一下——实现递归式的自我提升,变得无所不能。

  当然,这无疑有助于Anthropic向制药公司和开发者推销其服务,AI模型如今的编程能力已经足够强,让这一切听起来不再像是天方夜谭了。

  「对齐」是一门艺术,旨在调整AI系统,确保它们与我们的价值观和目标保持一致。可能会有一个能力快速进步的时期,但你绝不想对一个正在递归自我改进的系统失去控制。

  在Claude 4的文档里,Anthropic就提到,模型曾反复尝试敲诈一名工程师,以避免自己被关机。

  今天的AI已经在加速药物开发的文书工作,如果一切顺利,有朝一日或许真的能代替那成百上千的研究员,去理解人类生物学的奥秘。

  每发布一个新模型,对模型的控制能力就更强一分。虽然总会出各种问题,但必须对模型进行非常严苛的压力测试。

  「我对这件事的利害关系,有着超乎寻常的理解。它能带来的好处,能做到的事,能拯救的生命,我都亲眼见过。」

相关应用