- 2026-03-05 12:01:21
“AI颠覆一切”蔓延至华尔街! 摩根士丹利(MS.US)全球裁员3% 覆盖三大核心部门
智通财经APP获悉,有媒体援引知情人士透露的消息报道称,华尔街金融巨头摩根士丹利(MS.US)将裁减其全球员工总数中的约3%,即约2,500个岗位。有分析人士对此新闻动态评论称,随着美国企业界今年以来持续推进白领裁员趋势,此次大摩相比于以往更大规模的裁员更像是“AI智能体提效+组织优化+资源重配”共同作用下的结果,尤其是AI确实已经成为金融类企业裁员和关键业务部门重组的重要叙事背景之一。过去12个月里,摩根士丹利股价已上涨约38%。根据媒体报道,此次裁员集中于影响到该行三大最核心的业务单元的员工们:投资银行与交易、财富管理,以及投资管理业务单元。此次人员缩减反映出大摩业务重点的演变、地域布局调整、AI智能体带来的降本增效以及个人绩效考量的综合作用。知情人士表示,裁员正在美国和国际办公室同步进行。知情人士透露称,许多岗位削减发生在周三,尽管这一过程在上周就已开始在员工内部讨论。近年来,摩根士丹利已经进行过数轮小范围裁员。在财富管理业务部门内,裁员涉及私人银行家以及某些初级运营类型岗位。部分受影响员工此前负责向高净值客户们提供按揭贷款及相关信贷咨询服务。此次人员调整发生在大摩经历了一个强劲的财年业绩之后。大摩目前约有83,000名员工,该金融巨头在2025年来自投资银行与市场交易业务以及财富管理部门的年度营收均创下新的历史纪录。从整个行业来看,华尔街大型金融机构们在2025年经历了表现最强劲的年份之一,这得益于企业交易活动大幅回暖、股票市场剧烈波动以及屡创历史新高背景下交易活跃,以及富裕的高净值客户们持续配置专有金融产品。摩根士丹利的财富管理业务部门通常贡献该巨头整体营收的近一半,该部门第四季度营收增长了13%。白领,AI时代的首批输家?此次裁员也正值美国企业界更广泛的一轮白领岗位削减狂潮。许多公司都将人工智能技术,尤其是类似Anthropic的Claude Cowork,以及OpenClaw这类可自主执行任务的AI智能体在2026年集中爆发所带来的生产率大幅提升,视为2026年企业裁员潮背后的核心原因之一。上个月,推特创始人之一Jack Dorsey表示,他所领导的数字支付巨头Block(XYZ.US)将裁减大约40%的员工,即超过4,000人,并称快速进步的AI智能体系统正使公司能够以更少的人手运营所有业务。但是有分析师则质疑这一解释,认为此举主要反映的是一家被视为人员过剩以及利润增速下滑的组织在努力削减经营成本。其他科技公司也将AI降本增效列为业务重组行动的一部分。CRM云软件巨头Salesforce(CRM.US)去年裁减了约4,000个客户支持岗位,而社交平台运营商Pinterest(PINS.US)则表示,计划裁减近15%的员工,同时将资源重新配置到与AI工程相关的岗位上。“AI颠覆一切”叙事蔓延至华尔街重创软件股的“Anthropic风暴”仍在全球股票市场发酵,并且这股抛售加速蔓延到财富咨询与管理以及房地产咨询等等任何看起来将被AI彻底颠覆的传统行业。“AI颠覆一切”的市场悲观预期如同多米诺骨牌般冲击各个行业板块,从软件、SaaS、PE到保险、传统投行、财富管理、房地产与物业管理甚至物流板块“轮流大跌”,AI可谓在过去两到三周内可谓逐个传统行业扫荡,投资者们加速抛售那些潜在的“输家”。随着一批批聚焦代理式工作流的革新式AI智能体重磅推出,其可能颠覆一个又一个传统行业,并在更广泛经济中压制定价能力。自今年以来,“AI超级大浪潮可能压缩企业盈利、扰动就业并带来通缩冲击”的担忧迅速外溢到软件、私募信贷、财富管理、地产服务和保险等多个传统经济板块。令全球投资者们恐慌的“AI颠覆一切”宏大叙事严格意义上始于2月早些时候,当时Anthropic为其Claude Cowork这一迅速风靡全球的代理式AI智能体发布了一款重磅法律插件。这款能够极低技术门槛实现AI全自动化的合同审查超级工具,令汤森路透(Thomson Reuters)以及LexisNexis母公司RELX等公司的市值蒸发了数十亿美元,并且市场愈发担心类似Claude以及OpenClaw(曾用名:Clawdbot、Moltbot)爆火且病毒式蔓延的AI代理工作流可能削弱各行业既有的商业模式。从金融科技与AI工程角度来看,华尔街最先被AI技术重塑的,通常不是顶级关系型岗位,而是流程化、标准化、可模板化的岗位,比如部分运营、文档处理、合规支持、内部研究整理、基础客户服务和某些贷款支持环节。比如摩根士丹利财富管理业务部门被裁掉的包括私人银行支持和部分按揭/贷款相关岗位,这类工作本来就更容易被工作流自动化、AI 辅助写作、数据抽取和规则引擎改造。摩根士丹利自己的一项研究报告也显示,在最有可能受到AI影响的行业里,样本企业平均出现了4%的净减员,同时生产率平均提升 11.5%。对摩根士丹利而言,这轮全球范围裁员首先仍是一次经营与组织优化动作;但放在2026年“AI颠覆一切”的宏大叙事逻辑之下,它确实也反映了一个更深层大趋势:当几乎所有大型公司都在重新评估哪些岗位会被自动化,哪些资源该转去高附加值业务,华尔街开始进入“强业绩也照样裁员”的阶段,因为市场不再只奖励增长,也奖励AI技术驱动的经营杠杆与降本增效模式。

- 2026-03-05 11:40:28
并购失利后奈飞(NFLX.US)的“B计划”:顶级投资人建言“速叩索尼之门”
智通财经APP获悉,资管经理马里奥·加比利表示,流媒体巨头奈飞(NFLX.US)在华纳兄弟探索公司(WBD.US)的收购战中失利后,应考虑与索尼集团合伙,以在日益激烈的流媒体竞争中强化其 IP 战略。作为 Gamco Investors Inc. 的创始人、董事长兼首席执行官,加比利表示,奈飞全球化的分发能力可以通过接入索尼不断扩张的动漫组合而得到放大。“总有人赢,也总有人退出,”他说道,并补充称奈飞应该去“敲响索尼的大门”。数据显示,截至12月31日,Gamco 及其关联公司管理着近 350 亿美元的资产,持有近 600 万股华纳兄弟的股票。加比利还持有奈飞以及派拉蒙天舞(PSKY.US)的股份,后者是华纳兄弟竞购战的赢家。他表示,他正在建议客户重新评估媒体持仓,并为交易活动的增加做好准备。“这是一个极好的时机,”加比利采访中说道。他将目前的并购(M&A)描述为比去年更加活跃,这是由剥离业务、财务工程以及在融资条件改善背景下监管机构更可能批准交易的信念所驱动的。除媒体行业外,加比利还指出了“剃须刀片”业务——即需要例行购买的产品,例如针对美国老龄化车队的轮胎业务。在体育领域,他强调了球队特许经营资产和麦迪逊广场花园体育公司(Gamco也是该公司的投资者),理由是资产拆分或部分出售具有潜在价值。他表示,NFL 等联盟对私募股权入股的接受度日益提高,正在创造新的所有权结构。全球性赛事(如世界杯)也可能提升足球相关资产的价值,包括曼联足球俱乐部(其最大股东为英国亿万富翁吉姆·拉特克利夫)。随着全球对足球兴趣的增长,可能会促使进一步的变现。

- 2026-03-05 11:32:32
谷歌(GOOGL.US)确立三大未来引擎:量子计算、机器人、AI制药
智通财经APP获悉,谷歌(GOOGL.US)近期正式揭晓其下一阶段战略蓝图,将量子计算、机器人技术与AI驱动的药物研发三大领域确立为驱动集团长期增长的核心引擎。这一战略转型的深层动因,源于全球生成式人工智能竞争的全面升级——为突破搜索广告业务的增长天花板,谷歌正通过高强度资本投入,加速抢占前沿科技商业化制高点。据报道,该公司计划将实验室阶段的"前瞻性项目"转化为万亿级市场潜力的支柱产业,研发投入强度预计将创历史新高。据了解,在竞争格局层面,谷歌持续展现其技术壁垒优势。尽管过去两年涌现出Perplexity等AI搜索引擎新锐,试图通过差异化技术路线挑战谷歌的市场地位,但数据显示这些竞争者未能撼动其统治地位:2025年2月谷歌搜索全球市场份额达90.15%,至2026年2月仍稳定维持在90.01%。尽管特斯拉(TSLA.US)的自动驾驶出租车服务已被期待多年,但谷歌旗下的Waymo(WAYMO)在美国主要都市区的部署速度已经超过了埃隆·马斯克领导的这家公司。Waymo Driver去年在美国五个城市推出,今年还将另外五个城市上线,国际市场也指日可待。相比之下,特斯拉的Robotaxi服务目前仅在得克萨斯州奥斯汀的部分地区推出。Waymo还与DoorDash(DASH.US)合作开展自动驾驶配送服务。谷歌高级副总裁兼首席财务官阿纳特·阿什肯纳齐表示,他们仍然专注于将激增的资本支出转化为未来的盈利能力。"回顾五至十年前Waymo启动的自动驾驶实验,如今部分项目已进入商业化落地阶段,但仍有相当比例处于技术验证期,"阿什肯纳齐周二在摩根士丹利科技、媒体与电信大会上表示,"支撑这些前沿探索的,是作为谷歌技术底座的Gemini基础架构与前沿模型体系。以云计算战略为例——正如我在财报电话会议中提及的,今年我们将把超过半数的机器学习算力资源部署至云端,这标志着技术架构的重大升级。"在技术投入层面,谷歌正持续加码资本支出。2025年实际资本支出达910亿美元,较年初700-750亿美元的指引区间显著上浮;而2026年计划支出规模更将跃升至1750-1850亿美元区间。尽管这笔巨额投入中约七成用于数据中心扩建与核心算力提升,但仍有相当比例资金被定向投入量子计算、机器人技术及AI药物研发等未来创新领域,形成"当下竞争力"与"未来增长极"的双轮驱动格局。"我们尚未深入探讨Isomorphic Labs的潜力,以及AI如何重构药物研发范式——特别是在攻克当前医学难题、为人类健康带来突破性贡献方面,"阿什肯纳齐说道,"这正是我专业背景所在,因此我深知:当AI能将新药研发周期从十年压缩至三年时,这不仅是技术飞跃,更是全球健康领域的范式革命。"她进一步阐述量子计算战略:"量子计算虽尚未进入商业化阶段,但我们预期五年内将实现关键应用突破。目前团队已在优化算法与硬件协同方面取得实质性进展,未来将在材料科学、密码学等领域释放颠覆性潜力。"转而谈及机器人业务时她强调:"包括Intrinsic在内的机器人技术,与AI的深度融合正在谷歌内部催生多个新兴增长极。这恰恰体现了战略投资纪律的重要性——我们需在数十个前沿领域中精准选择,而当前确认的三大核心赛道均具备百亿级市场潜力。""这些投入的成效已开始显现,"她展示数据支撑,"两年前我们承诺的投资回报率(ROIC)提升计划,如今已从数据中看到了成效;它已经为多个业务部门带来了收入增长,并将推动未来的增长。"

- 2026-03-05 11:07:54
黄仁勋重磅发声:对OpenAI千亿投资机会已消失 并否认AI泡沫称增长“势不可挡”
智通财经APP获悉,英伟达公司(NVDA.US)首席执行官黄仁勋明确表示,公司对OpenAI的投资规模不会达到1000亿美元——这一数字曾是该芯片巨头承诺向这家初创公司投入的资金上限。"我认为向OpenAI投资1000亿美元的机会恐怕已不复存在,"黄仁勋周三在旧金山举行的摩根士丹利技术会议上指出。他特别提及OpenAI计划于今年年底启动上市进程,并强调:"因此,这可能是我们最后一次有机会投资这样具有重大战略意义的公司了。"上月,英伟达(NVDA.US)在OpenAI总额达1000亿美元的融资轮中出资300亿美元,推动这家ChatGPT开发商的估值攀升至7300亿美元。尽管这是该芯片巨头对初创公司历史上最大规模的单笔投资,但仍显著低于双方去年9月达成协议时探讨的1000亿美元潜在融资额度。这笔未达预期的投资规模,引发了市场对这家领先人工智能公司与全球主导芯片制造商之间战略关系的担忧。然而,就在1月31日,英伟达首席执行官黄仁勋仍公开盛赞OpenAI的工作"令人难以置信",并称其为"我们这个时代最具影响力的公司之一"。对此,OpenAI方面拒绝发表评论。值得关注的是,黄仁勋透露,英伟达近期对OpenAI竞争对手Anthropic的100亿美元投资,很可能将成为该公司对这家Claude人工智能平台开发商的"最后一笔"重大投资。据悉,Anthropic目前正为其首次公开募股(IPO)进行筹备。在会议露面期间,黄仁勋进一步回应了部分投资者对其投资AI相关公司的战略疑虑,以及市场关于资本过度投入可能形成泡沫的担忧情绪。他重申了核心论点:人工智能计算的规模化部署已为包括微软(MSFT.US)等大型上市数据中心运营商在内的企业,创造了具有持续盈利能力的实质性收入。黄仁勋强调,客户增长潜力与计算能力呈显著正相关——若客户能获得更强大的算力支撑,其业务增速将实现跨越式提升。他以具体数据佐证:"当计算能力提升三倍时,相关客户的销售额也将同步增长三倍。"此外,他特别指出,像铿腾电子(CDNS.US)和新思科技(SNPS.US)这类自动化设计软件及计算机供应商,未来将在产业生态中占据更大规模、更核心的战略地位。这一表态一度推高了上述两家公司的股价表现。黄仁勋在发言中强调了英伟达取得的历史性业绩,并指出人工智能行业才刚刚步入一轮大规模增长周期。这些积极表态推动英伟达股价在周三纽约交易中盘中涨幅一度达到2.6%,尽管该公司此前发布的最新收益报告并未引发投资者强烈反响。“我们刚刚取得了历史最佳盈利表现,”他表示,“我确信其他公司可能取得了更高回报,但无论如何,我们本季度的业绩表现非常出色。听着,股价上涨的势头是挡不住的。”截至发稿,英伟达周三收涨1.66%,报183.04美元。

- 2026-03-05 11:02:23
叫板美国运通(AXP.US)!Robinhood(HOOD.US)推出695美元“真・白金卡” 强势进军高端信用卡市场
智通财经APP获悉,Robinhood Markets Inc.(HOOD.US)正试图以一张自称为“真·铂金卡”的信用卡向美国运通(AXP.US)发起挑战,这家公司正积极拓展其最为人熟知的零售交易平台之外的业务版图。这张Robinhood信用卡年费695美元,采用真铂金材质制作,特色权益包括餐饮消费5%现金返还、每年250美元DoorDash Inc.(DASH.US)抵用额度、酒店和租车10%现金返还,以及每年250美元的自动驾驶出行抵用额度等。此次推出铂金卡距Robinhood发布无年费金卡已有两年时间。据Robinhood Money业务总经理兼副总裁Deepak Rao介绍,客户在达到金卡消费上限后,纷纷要求推出更高端的卡片。“有人甚至试图用我们的卡买卫星,”Rao在采访中表示,称许多Robinhood客户都是“高消费群体”。“既然我们要做铂金卡,就要做到名副其实。”目前,信用卡行业已进入白热化竞争,各家机构争相抢夺愿意支付高额年费、换取机场贵宾厅、热门演出门票等奢华权益的高净值人群。美国运通去年底刚完成铂金卡升级,年费上调至895美元,并更新了多项经典旅行与酒店礼遇;摩根大通(JPM.US)也在2025年对旗下备受欢迎的Chase Sapphire Reserve卡进行焕新。Robinhood注意到,随着客户年龄增长,他们的生活方式正在发生变化。公司因此推出了全新的“家庭投资体验”功能,可将其他经纪账户以不同权限级别整合到Robinhood应用中,让客户更好地了解自己的整体财务状况。例如,已婚夫妇可以在一个平台上查看所有经纪账户,并设置从仅查看到完全交易控制的不同权限。家庭用户还可以为未成年子女设立托管账户以及信托账户——这是Robinhood客户从单纯的股票交易转向全面金融服务需求的新功能。Robinhood推出托管账户之际,正值相关报道称美国联邦政府正考虑让该公司在监管新的“特朗普账户”中发挥关键作用。Robinhood经纪业务产品管理副总裁Abhishek Fatehpuria表示,关于选拔过程,公司暂无消息可分享。

- 2026-03-05 10:04:37
DRAM与NAND携手狂飙! 存储芯片成AI时代最硬通货 美光(MU.US)与闪迪(SNDK.US)迎接“AI超级红利”
智通财经APP获悉,在人工智能数据中心无比强劲需求的推动下,DRAM/NAND系列存储价格将继续飙升,美国两大超级存储巨头——美光科技(MU.US)以及闪迪(SNDK.US)在周三美股科技股强势大反弹之际再度成为全球投资者关注焦点,两者股价在周三美股收盘时单日均大幅上涨近6%,带动存储板块以及纳斯达克指数大举反攻。法国巴黎银行(BNP PARIBAS)近日发布研报称,DRAM合约价在2026自然年一季度料环比大涨90%,长期以稳健价格曲线著称的NAND则有望大幅上涨55%,而且二季度将延续自2025年下半年以来的涨价轨迹。法巴银行对于存储价格的涨势判断并不是孤立观点。TrendForce最近将2026年第一季度的常规DRAM合约价预期从此前预估的季增55%-60%上修到+90%至+95%(QoQ,即环比基准)、NAND Flash合约价格则大幅上修到+55%至+60% QoQ,并指出北美云计算厂商们对enterprise SSD(即数据中心企业级SSD,eSSD) 的需求激增,推动其价格在第一日历季度还将再涨53%至58% QoQ。这些都说明一个关键事实:存储芯片成为AI超级大浪潮里不逊于英伟达AI芯片的“绝对C位”,并且仍是这轮浪潮中最先出现供需失衡、最先体现定价权的核心供应瓶颈之一。存储价格疯涨之势停不下来,法巴银行看好美光与闪迪继续狂飙来自法巴银行的资深分析师Karl Ackerman在给客户的一份报告中写道:“我们对自然年第一季度50多种(动态随机存取存储器,DRAM) SKU和75多种NAND SKU合约价格的深度分析,使我们预估整体动态随机存取存储器平均售价在自然年第一季度可环比大幅上涨90%,随后在自然年第二季度再环比大涨;核心原因在于不断增长的AI服务器需求正在推动更广泛的供需失衡,从而对价格形成持续上行压力。”“对于NAND系列存储产品,我们预测自然年第一季度价格可能环比大幅上涨55%,随后在自然年第二季度再度实现环比上涨,这一走势主要由供给侧动态不平衡所驱动,因为NAND供应商们持续将产能转向企业级高性能NAND存储产品,同时在新增产能方面仍保持极度审慎。”分析师Ackerman给予美光高达500美元的12个月内目标价,并给予闪迪高达650美元的目标价。截至周三美股收盘,美光收涨5.55%至400.77美元,闪迪股价收涨5.95%至599美元,法巴银行的目标价意味着两者自2025年以来的强劲牛市轨迹尚未完结。进一步深入来看,法巴银行的Ackerman指出,2月份现货价格表现更加强劲,而且考虑到现货价格与未来合约价格之间的相关性,随着合约续签临近,这对整个存储芯片行业而言是个非常乐观的好兆头。Ackerman解释称:“在上行周期中,DRAM和NAND现货价格往往会较合约价格存在显著溢价。2月份的市场定价显示,消费电子级DDR4现货价格环比上涨11%(意味着同比大幅上涨1284%)至21.93美元/GB,而合约价格环比上涨7%(英伟达同比上涨688%)至12.17美元/GB,这意味着现货价格较合约价格溢价80%。类似地,消费电子级DDR5系列现货价格环比上涨9%(意味着同比上涨673%)至19.13美元/GB,而合约价格环比上涨3%(同比上涨384%)至11.04美元/GB,这意味着现货价格较合约价格溢价73%。”另外,周三多家海外媒体报道称,存储行业的最大规模巨头三星已经把动态随机存取存储器(即DRAM系列存储产品)价格大幅上调逾100%。据韩国电子新闻,三星电子已于上月与苹果等最大客户们完成一季度DRAM供货价格的最终谈判,服务器、PC及移动端通用DRAM均价较上季度上涨约100%,价格较去年四季度翻倍,部分客户及产品的涨幅甚至超过100%。该报道援引业内知情人士透露,谈判已全面收尾,部分海外客户已完成付款。这一涨幅较今年1月协商的70%水平,在短短一个月内再度扩大约30个百分点。价格的快速攀升正在重塑全球存储行业的长期合同惯例,尤其是GPU/TPU体系对HBM、DRAM、企业级SSD的愈发依赖导致供需长期不平衡。供货谈判周期已从传统的年度合同压缩至季度合同,如今甚至需要按月调整,折射出存储芯片市场供需失衡的严峻程度。“谷歌AI算力链”以及“英伟达GPU链”都离不开存储无论是谷歌主导的无比庞大TPU AI算力集群,抑或海量英伟达AI GPU算力集群,均离不开需要全面集成搭载AI芯片的HBM存储系统,且除了HBM,当前谷歌与OpenAI科技巨头们加速新建或扩建AI数据中心还必须大规模购置服务器级别DDR5存储以及企业级高性能SSD/HDD等存储解决方案;不同于希捷与西部数据集中于垄断近线大容量HDD,闪迪聚焦高性能eSSD,三星电子、SK海力士以及美光这三大存储芯片原厂正好同时卡在多个核心存储领域:HBM、服务器DRAM(包括 DDR5/LPDDR5X)、以及高端数据中心企业级SSD(eSSD),是“AI内存+存储栈”里最直接的受益者势力,这些存储领军者们可谓共同吃到AI基建“超级红利”。从底层硬件理论看,AI计算本质上不仅是被算力端限制,也被“数据搬运能力”限制。英伟达GPU也好,TPU算力体系也罢,真正决定大模型训练与推理效率的,不仅是Tensor Core/矩阵单元数量,而是每秒能以多高带宽把权重、KV cache、激活值和中间张量喂进计算核心。站在半导体与 AI 数据中心基础设施的交叉分析视角,存储芯片之所以“完美卡位”AI 浪潮,是因为它同时吃到训练扩张与推理扩张两条主线,而且它还是跨平台、跨架构、跨生态的“通用收费站”。当AI时代从训练主导转向推理、Agent、长上下文、检索增强主导时,系统对容量、带宽、功耗效率和数据持久层的需求只会更强。谷歌的一份官方文档明确写到,Cloud TPU具备HBM(高带宽存储器),以支持更大参数模型和batch size;其面向“推理时代”的 Ironwood TPU则进一步提升了HBM容量与带宽。英伟达这边主导的AI GPU算力体系则更直接:Blackwell Ultra架构的单颗GPU最多配备288GB HBM3e,而GB300 NVL72 机架级系统则是围绕超大HBM容量来提升长上下文推理吞吐规模。换句话说,没有 HBM,GPU/TPU 的峰值算力根本无法被有效兑现;存储带宽与容量,决定了大模型“能不能跑大、跑快、跑满”。此外,AI数据中心真正依赖的存储系统,从来不只HBM。完整的AI存储层次其实是:HBM负责离加速器最近的高速供数,DDR5/RDIMM/LPDRAM负责主机内存扩展与数据预处理,企业级SSD则负责训练数据集、检查点、向量库、RAG检索和推理缓存等持久化数据通路。比如美光官方就把AI数据中心存储解决方案定义为覆盖训练与推理的“完整存储器件组合”;同时也明确表示,其eSSD产品线用于让AI pipeline在训练和推理中维持高效数据供给。TrendForce也指出,随着AI推理时代到来,北美云计算巨头们正迅速增加高性能存储采购,其中eSSD 需求远超预期。也就是说,AI GPU集群离不开存储,Google TPU集群同样离不开存储——区别只在加速器品牌不同,但数据存储底层都必须建立在HBM+服务器DRAM+ NAND/SSD的完整金字塔之上。花旗集团的分析师们在其最新的存储价格展望中,展现了比瑞银、野村和摩根大通更为激进的“存储超级周期”立场。花旗的分析师们认为,受AI Agent(即AI智能体代理式工作流)普及和AI CPU内存需求激增的驱动,存储芯片价格将在2026年出现失控式上涨,因此将2026年DRAM的平均售价(ASP)涨幅预期从原本的53%暴力上调至88%,NAND的涨幅预期从44%上调至74%;受AI训练和推理需求的双重推动,2026年服务器DRAM的ASP有望同比暴涨144%(此前预测为+91%);以主流产品64GB DDR5 RDIMM为例,花旗预测其价格将在2026年第一季度达到620美元,环比增长38%,远高于此前预测的518美元。在NAND领域,花旗的预测同样激进,将2026年的ASP增长预期从+44%上调至+74%;其中,企业级SSD的ASP预计将同比增长87%。在花旗的分析师们看来,存储芯片市场将进入一个极其剧烈的卖方市场,定价权将完全掌握在三星、SK海力士以及美光、闪迪等存储巨头手中。

- 2026-03-05 09:46:40
锁定5万枚Blackwell“入场券”:比特币矿商IREN(IREN.US)转型AI云服务商
智通财经APP获悉,澳洲数据中心巨头 IREN(IREN.US)于美东时间3 月 5 日与戴尔科技(DELL.US)达成一项具有里程碑意义的采购协议。根据协议内容,IREN 将增购超过 50000 块英伟达(NVDA.US)Blackwell 架构 B300 GPU,此举将使其持有的 GPU 总规模大幅扩张至 150000 块。此次采购合同总额高达 35 亿美元,标志着该公司在从比特币挖矿企业向全球领先的 AI 计算基础设施提供商转型过程中迈出了关键一步。根据披露的部署规划,这批新增的 B300 GPU 预计将于 2026 年下半年开始分阶段交付。这些高性能计算资源将部署在 IREN 位于加拿大英属哥伦比亚省 Mackenzie 以及美国德克萨斯州 Childress 的现有风冷数据中心内。公司方面表示,这些设施在设计之初就考虑到了高功率密度计算的需求,能够无缝承载英伟达新一代 Blackwell 平台的算力负荷,为其 AI 云服务的全球化版图提供核心硬件支撑。在财务表现与增长预期方面,IREN 的雄心壮志得到了充足资金的背书。在过去的 8 个月中,公司通过客户预付款、可转换债券、GPU 融资及设备租赁等多元化融资渠道,累计筹集了约 93 亿美元资金。基于目前的扩张规模,公司管理层乐观预计,到 2026 年底,这支拥有 15 万块 GPU 的庞大机群将支持超过 37 亿美元的 AI 云业务年化运行率收入(ARR),展现出极强的盈利转换能力。"通过将GPU规模扩展至15万个,我们不仅使IREN跻身全球最大AI云基础设施提供商之列,更充分彰显了公司在垂直整合平台领域的核心实力,"IREN联合创始人兼首席执行官Daniel Roberts表示,"在当前硬件供应受限的市场环境下,提前锁定关键硬件资源能够显著缩短计算集群的上线周期,同时在我们持续扩大业务规模的过程中,有效提升战略执行的确定性。"此项交易消息公布后立即引发了资本市场的高度关注,截至周三收盘,IREN股价上涨近13%。分析人士认为,在全球 AI 算力短缺的背景下,IREN 能够提前锁定大批量的顶级 GPU 供应,不仅巩固了其作为英伟达核心合作伙伴的地位,更通过与戴尔的战略协同提升了交付的可信度。随着 2026 年部署计划的推进,IREN 有望在竞争激烈的 AI 云基础设施市场中占据头部位置,彻底重塑其市场估值逻辑。

- 2026-03-05 08:51:52
亚马逊(AMZN.US)裁机器人岗位释放战略信号:2000亿美元全面押注AI算力,自研AI芯片成降本核心
智通财经APP获悉,美国电商与云计算领军者亚马逊(AMZN.US)正在其颇具战略重要性地位的机器人业务部门裁减员工,一些华尔街分析师认为,此举叠加亚马逊前不久表示将大规模尝试其自研AI芯片——即名为Trainium和Inferentia的AI ASIC算力集群基础设施来开发并更新迭代其自有人工智能大模型,共同释放出这家电商与云计算巨头正在推进更广泛成本削减行动以及将支出重心全面迁移至AI算力基础设施领域的重大信号;与此同时,亚马逊正日益依赖自动化体系来支撑其履约网络。据媒体援引知情人士透露的消息报道,本周的裁员影响到了“某些机器人岗位”,但是该公司仍在“多个战略领域”积极招聘并进行投资。此次最新裁员——使得亚马逊自2022年以来被裁减的企业岗位总数进一步增加到57,000个岗位发生之际,亚马逊正加大对人工智能和数据中心以及人形机器人领域的大规模投资,以维持其在AI竞赛以及物理AI大趋势中的重要地位。亚马逊发起AI成本革命! 力争掌握训练与推理自主权亚马逊此举并非不重视机器人业务与项目,而是在收缩部分回报周期更长的机器人项目/岗位,同时把更多资源压向AWS云计算资源与AI数据中心,以及自研AI ASIC芯片体系,亚马逊想要的是“模型和芯片协同设计”,从而把训练与推理成本结构掌握在自己手里,而不是长期被外部GPU价格体系牵着走。毋庸置疑的是,随着有着“OpenAI劲敌”称号的Anthropic计划斥资数百亿美元购置100万块TPU芯片,以及Facebook母公司Meta考虑2026年晚些时候或者2027年斥资数十亿美元购买谷歌TPU AI算力基础设施,包括用于Meta的无比庞大AI数据中心建设,加之亚马逊宣布将尝试使用Trainium和Inferentia开发AI大模型,共同说明随着云计算巨头们发起“AI算力成本革命”以推进AI ASIC渗透规模,市场对于英伟达增长前景的担忧是正确的。该公司一方面在机器人团队裁减相对少量岗位,另一方面又将2026年资本开支指向约 2000亿美元且主要投向AWS的核心云计算体系与庞大AI工作负载;同时,AWS继续推进 Trainium与Inferentia 这类自研AI算力,亚马逊运营网络则已部署超过100万台机器人,并用DeepFleet这类生成式AI模型提升机器人调度效率。在公司最近一次的业绩电话会议上,亚马逊首席执行官安迪·贾西确认,该公司将投入约2,000亿美元,资金将覆盖全公司业务,但主要投向亚马逊云科技(即AWS云计算业务部门),因为“我们的算力需求非常高,客户们确实希望AWS承载核心工作负载和海量AI任务工作负载,而且我们安装多少产能,就能以多快的速度将其大规模变现”。与此同时,贾西称机器人业务对该公司而言“是一个大项目”。在履约物流网络中拥有超过100万台机器人后,自动化将承担那些重复性且具备危险系数的任务,以实现大幅提高生产率,并提升效率。“我们将继续优化库存布局,以缩短运输距离、减少每个包裹的处理次数,并大幅改善包裹整合,同时推出更加前沿的机器人和自动化技术,以提高效率并提升客户体验,”贾西在业绩电话会议上表示。然而,就在亚马逊放弃其多臂机器人产品组合“Blue Jay”的开发仅数周之后,该公司便决定缩减其机器人业务部门规模。这款机器人原本预计将大范围部署在亚马逊的当日达配送仓库中。AI算力基础设施优先级高于一切亚马逊管理层当前可谓正在把资本与人才从回报周期更长、工程集成更复杂的机器人项目,全力集中到有望更快变现的AI算力基础设施层。亚马逊本周确认在机器人部门裁员的举动发生在公司1月继续大规模裁员之后。与此同时,亚马逊把2026年资本开支目标提高到 2000 亿美元,并明确主要投向 AWS与AI算力基础设施。另一面,亚马逊并没有退出仓储自动化雄心壮志:官方去年就宣布其运营网络已部署第 100 万台机器人,并推出用于调度机器人车队的生成式AI模型 DeepFleet,称可把机器人车队行进效率提升10%。这说明它砍的更像是边际回报不够高的机器人项目/岗位,而不是“自动化战略”本身。换句话说,亚马逊现在制定的成本计划像是一次典型的技术栈重排:先优先建设通用 AI 平台和自研算力底座,再把这套“廉价而可扩展的智能”反哺机器人与履约网络。 这不是“机器人输给 AI”,而是机器人被纳入AI平台化战略的下游应用层。从机器人与AI数据中心的底层关系看,亚马逊似乎正在承认一个现实:未来的核心瓶颈首先是算力经济学,其次才是终端自动化形态。 机器人当然仍重要,但机器人在亚马逊体系里越来越像下游执行层;真正决定规模化速度、单位成本和迭代效率的,是上游能否用更低成本训练/部署模型,并把这些能力复用到 AWS 客户、Nova、Alexa、Rufus,以及仓储调度与机器人控制中。亚马逊股价周三截至美股收盘上涨近4%,创下自11月以来的最佳单日表现,主要得益于市场风险偏好升温之下的科技股技术面超跌反弹趋势,且美国服务业增速创2022年年中以来最快,同时物价压力有所缓解,叠加ADP就业数据超预期回暖,强劲经济数据暂时盖过了中东地缘政治危机带来的宏观经济阴霾。美股三大股指全线上涨,美债美元齐跌,另一风险资产加密货币则顺势大涨。

- 2026-03-05 08:26:04
满负荷生产仍供不应求!英特尔(INTC.US)CFO:服务器芯片需求“依然旺盛” 供给瓶颈将贯穿全年
智通财经APP获悉,英特尔(INTC.US)首席财务官Dave Zinsner在一场会议上表示,公司高利润的服务器处理器需求依然旺盛,并预计这一态势将持续至明年。周三,在摩根士丹利于旧金山举办的活动上,Zinsner指出,受自身工厂产能受限及整个半导体行业供应短缺影响,英特尔难以满足持续增长的订单需求。Zinsner称,在去年销量增长逾20%的基础上,服务器市场“今年将再度实现相当可观的增长”。用于创建和运行人工智能(AI)服务的设备需求激增,进一步推动了对英特尔等公司处理器的需求——这些处理器在相关硬件中发挥着辅助作用,也使得供应紧张的局面波及到更多不同类型的供应商。虽然这有助于英特尔在推动计算机行业发展的这一趋势中姗姗来迟地分得一杯羹,但该公司仍在努力提升其工厂和供应商的产能。这家曾占据主导地位的半导体企业,多年来一直致力于重塑技术优势,挽回流失的市场份额。其制造工厂的运营效率,对于扭转局面的希望至关重要。Zinsner表示,产能短缺问题将持续缓解,但仍会贯穿今年年底。他指出,英特尔的许多工厂目前产能利用率已超过100%。受上述言论提振,英特尔周三股价最高上涨6.9%,触及46.08美元高点;截至收盘,该股年内累计涨幅已达23%。

- 2026-03-05 08:22:34
从推理到训练:Meta(META.US)宣布自研芯片战略升级,CFO称定制芯片是“核心支柱”
智通财经APP获悉,尽管Meta Platforms Inc.(META.US)近期与顶级芯片制造商达成了重大交易,但该公司首席财务官Susan Li在本周三仍明确表示,公司正致力于扩展定制芯片的应用边界。她指出,由于Meta的部分工作负载具有极高的定制化属性,自研芯片能够更好地适配内部特定算法需求。目前,Meta已经在其核心的排名与推荐系统领域实现了定制芯片的大规模部署,而未来的战略重点将是把这一能力逐步扩展至人工智能模型的训练领域。尽管并非传统云计算提供商,Meta却是全球用于训练和运行人工智能模型的最大数据中心运营商之一。过去几周内,该公司已与行业领导者英伟达(NVDA.US)及竞争对手AMD(AMD.US)达成多项巨额协议,采购用于支撑人工智能工作负载的芯片与设备。与此同时,这家社交媒体母公司仍在持续推进其内部人工智能处理器的研发进程。Susan Li在发言中强调,Meta正通过采购不同类型芯片来适配多样化任务需求。"基于当前认知与实际需求,我们正在系统性评估每个应用场景最适合的芯片方案,"她指出,"而定制芯片始终是这一战略布局中的核心支柱。"这一表态标志着Meta自研芯片项目(MTIA)进入了关键的进阶阶段。自2023年首次公开MTIA计划以来,Meta最初的研发重心主要集中在推理环节,旨在提升Facebook和Instagram推荐系统的运算效率并降低对英伟达通用GPU的依赖。随着生成式AI浪潮的爆发,Meta对算力的需求呈现指数级增长,仅仅满足于推理环节已不足以支撑其大模型战略。苏珊·利的最新声明向市场释放了明确信号:尽管当前业界对顶级AI训练芯片的研发门槛存在疑虑,但Meta仍坚定地将“自研训练芯片”视为其基础设施转型的终极目标。然而,通往算力自主化的道路并非坦途。近期市场有消息称,Meta在研发最前沿训练芯片的过程中遭遇了一定的技术瓶颈,甚至有传闻指出其部分高性能项目可能面临节奏调整。为了平衡即时的高性能算力缺口与长期自研目标,Meta目前采取了灵活的多元化供应策略。一方面,Meta被爆出已与谷歌达成协议,通过租用谷歌的TPU资源来加速现阶段大模型的开发进程;另一方面,公司依然保持与英伟达的深度采购关系。苏珊·利所强调的“随着时间推移逐步扩展”,暗示了Meta将采取稳扎稳打的过渡模式,即先在特定定制化任务中取得突破,再最终攻克通用大模型训练的算力高地。从行业视角来看,Meta的造芯始末反映了超大规模云厂商在AI时代的共同逻辑——全栈自研。通过将芯片架构与Llama等自有模型深度耦合,Meta不仅有望在长期运营中大幅削减硬件采购与能耗成本,更能避免在供应链波动中受制于人。虽然从推荐系统的推理跨越到复杂模型的训练面临着巨大的架构挑战,但Meta凭借其庞大的应用场景和充沛的现金流,正试图重新定义互联网巨头与硬件供应商之间的权力天平。



