简体中文
关闭
AI新闻中心

黄仁勋×Dwarkesh Patel 深度访谈

#IAICA观察 时间2026-04-20 11:02:15


英伟达生态、对华芜片、03:00-01:43:09

IAICA.com.cn完整整理

2026年4月   原语言:英语   整理语言:中文

一、英伟达的商业模式:公司定位与护城河

Dwarkesh  00:00

我们看到一堆软件公司的估值崩塌,因为市场预期 AI 会把软件商品化。有一种相对天真的思考方式是:英伟达将 GDS 文件发给台积电,台积电制造逻辑节点和开关,再与 SK 海力士、美光、三星生产的 HBM 封装,然后转到台湾 OEM 厂商完成机柜装配。从这个角度看,英伟达本质上是在做软件,制造则由别人完成。如果软件被商品化,英伟达会不会也被商品化?

黄仁勋  00:32

归根结底,总得有东西把电子转化为 Token。这个转化过程极其复杂,要让一个 Token 变得比另一个更有价值,所需要的艺术性、工程学、科学及发明创新,我不认为这容易被完全商品化。

黄仁勋  00:58

我们会不断提升效率。实际上,我对自己公司的心智模型正是:输入是电子,输出是 Token,中间是英伟达。我们的工作是:在发挥自身所長的同时,尽可能把不必要的部分交给合作伙伴。今天英伟达拥有全世界规模最大的生态系统,上游库存、下游需求、各大云厂商、应用开发商、模型制造商全至润盖。AI 是一个五层蛋糕:能源、芯片、基础设施、模型、应用,我们的生态覆盖全部五层。我们要做的尽可能少,但我们必须亲自做的局部,其难度远超想象。我不认为这局部会被商品化。

黄仁勋  03:00

至于企业软件公司,尤其是工具类公司,我看到的趋势恰好相反。Excel 是工具, PowerPoint 是工具, Cadence 、Synopsis 都是工具。我认为 Agent 数量将指数级增长,工具用户的数量将指数级增长。很可能, Synopsis 设计编译器的实例数会急剧上升,使用布局工具、设计规则检查器的 Agent 数量也会急剧山升。今天的 Agent 数量受限于工程师数量,明天,这些工程师将由一大批 Agent 辅助探索设计空间,规模空前。工具类公司的废弃还没发生,原因在于 Agent 还不够擅长使用这些工具。未来要么这些公司自己构建 Agent,要么 Agent 将足够成熟能夠直接调用现有工具。两者将共同推进。

Dwarkesh  04:29

根据最新公告,英伟达在代工厂、内存、封装等环节将近က亿美元的采购承诺,半导体分析机构则预测这一数字可能达到2500亿美元。一种解读是:英伟达的护城河就在于锁定了多年的稀缺局制部件。其他公司可能有加速器,但能取得构建所需的内存和逻辑层单吗?这才是英伟达未来几年的核心护城河。

黄仁勋  05:01

这确实是我们能做而其他公司难以做到的事情之一。我们对上游做出了巨大承诺,有些是明确写入合同的,有些则是隐性的。例如,很多上游投资都是由我们的供应链合作伙伴自行投入的——因为我解释了这个行业的展望,告诉他们为什么、如何发生,并一起推演推理。上游资本选择支持我们而非其他人,是因为他们知道我有能力吃下他们的供应并通过下游实现转化。

黄仁勋  06:00

英伟达的下游需求非常巨大,上游厂商才愿意进行上游投资。你看 GTC 大会,规模无与伦比,整个 AI 宇宙汇聚一堂。他们来到这里是因为彼此需要交流。我把上下游准山肘鬵,让下游看到上游的投入,上游看到下游的需求,所有人亲眼目睦 AI 的进展。我花大量时间直接或间接地告知我们的供应链、合作伙伴和生态系统,说明我们面前的机遇。

黄仁勋  06:59

我的大多数主题演讲都包含一个带有点“紀录片教学”性质的环节——这正是我刻意为之的。我必须确保整个供应链上下游和生态系统都明白:这一切正在发生、为什么发生、何时发生、规模有多大,且能够系统地推理。我们的下游需求如此巨大,上游厂商才愿意借助我们的平台向未来投资。

二、CUDA 生态与英伟达的核心优势

Dwarkesh  08:32

请介绍一下上游供应链的跟进能力。多年来英伟达的年收入几乎翻倍增长,提供的计算量年增三倍以上。你们是最大的台积电 N3 节点客户,也是 N2 的最大客户之一。如果你已占大数分额度,如何实现继续翻倍?

黄仁勋  09:21

在某种程度上,瞬时需求确实超过了全球上下游的总供应能力。我们甚至可能受限于水管工的数量——这种情况确实展生过。其实这就是好场景:你希望身处一个即时需求持续超过行业总供给的市场。反过来是不剐的。如果某一配件供不应求差距过大,行业自然会涌入解决资源。

黄仁勋  10:15

举个例子:现在大家不怕多谈 CoWoS 封装了。原因是这两年我们猛攻了这一璶颉,居然尢8倍投入。现在 CoWoS 已成为主流,台积电正在按照逻辑节点的同等规模扩展 CoWoS。我们也在旗下的 Lumentum 、Coherent 等公司提前布局硅光子生态系统,投资个别企业提升产能,将专利就地授权给供应链保持开放性。我们小对莸问题提前屲0年就开始预列解决。

Dwarkesh  20:00

你们実现了惊人的收入增长,这主要来自 AI 这项前所未有的技术。有研究人员说, TPU 是为矩阵乘法设计的大型脚动阵列,而 GPU 更灵活、适合有大量分支、内存访问不规则的场景。AI 就是不断重复进行矩阵乘法, TPU 为此进行了优化。为什么 GPU 不会被替代?

黄仁勋  21:01

矩阵乘法是 AI 的重要组成部分,但并非全部。如果你想提出新的 Attention 机制、想以不同方式解耦模型、想设计全新架构(比如混合专家模型、扩散与自回归融合),你就需要一个通用可编程的架构。GPU 可以运行想得到的任何内容。它的优势在于更容易发明新算法,而将 AI 推向前沿的正是新算法的发明。TPU 与其他任何东西一样,受摄尔定律制约,每年提升约 25%。实现 10 倍、100 倍的跳跃,就必须每年从根本上变革算法与计算方式。这正是英伟达的根本优势。

黄仁勋  22:25

我们将 Blackwell 的能效设计做到了 Hopper 的5倍。当初宣布说 35 倍时没人相信,后来被披露实际是 50 倍。这用摄尔定律是无论如何做不到的。实现这一点的方法,是新模型 MoE 架构、分布式分层部署,以及跨处理器、系统、帆线、函数库和算法的协同优化。没有 CUDA,我甚至不知道从哪里入手。

黄仁勋  27:36

开发者最看重的一件事是装机量(Install Base)。你希望你开发的软件能在大量设备上运行,不是仅仅为自己写。英伟达现在拥有数亿张 GPU 的安装基础,覆盖 H100、H200、L 系列、P 系列等各个世代,各种规格形态,甚至嵌入机器人本体。一旦开发完成,就可在任何地方发挥价值。我们在每一家主要云厐商都有布局,企业内部自建也可支持。这就是为什么 CUDA 生态如此难以替代。

黄仁勋  30:33

我们派驻 AI 实验室的工程师数量庞大得惊人,目的就是协助他们优化整个软件栈。没有人比我们更了解我们的架构,而这些架构并不像 CPU 那样通用。CPU 就像卡迪拉克,女跑平稳但永远不会太快;当英伟达的 GPU 更像 F1 赛车,每个人都可以开到时速160公里,但要把它开到极限,需要相当深厚的专业功底。我们大量使用 AI 来生成内核,并且我相信在相当长的时间里仍会被需要。我们的专业支持能帮 AI 实验室与各方轻松取得2倍乎其以上的性能提升。对于数万张 GPU 的芄歇设备而言,性能提升两倍就直接意味着收入翻倍。

黄仁勋  32:17

英伟达的计算栈是全球性价最优的,没有任何例外。没有任何公司能向我证明在当前某个平台拥有更优的性价比。基准测试数据就在那里公开摸底,谁都可以查阅。我欢迎任何竞争对手拿出实证数据来与我们比较。

三、GPU 分配机制与价格策略

Dwarkesh  51:28

英伟达以分配稀缺 GPU 而闻名,分配时不仅且仅看最高报价者,而是确保 CoreWeave、Crusoe、Lambda 等新云厂商都能有货。这对英伟达有什么好处?你同意这种“分割市场”的说法吗?

黄仁勋  51:50

你的前提就是错的。首先,不下读就什么都谈不上。这些东西需要很长时间建设,数据中心也需要很长时间。我们通过预测与需求和供给匹配,除预测外最终还是要下单。如果你的数据中心尚未建好、某些配件永远不就绪,我们可能优先服务干起来的客户〔—这是在最大化自身工厂的吸吴量。我们的基本原则是先到先得。

黄仁勋  53:19

关于埃森和 Larry Ellison 大餐上“豂求” GPU 的文章,根本没发生过。我们确实就餐了,就餐很愁快。但他们在周中一直没有豂求 GPU,只需要下单。下单之后我们尽力求尽为他们安排产能。我们不复杂。

黄仁勋  54:13

我们从不按最高报价分配。之所以不这么做,是因为这是恶劣的商业实践。你定好价格,市场決定购买与否。我知道芯片行业里有人需求高漮时会调价,我们不这样。这从来都不是我们的做法。我更愿意可靠,成为行业的压舐石;报价就是报价,不需要猜测。即使需求爆需,我们也就这么。

黄仁勋  55:07

英伟达与台积电的关系现在进入第 30 年。我们之间没有正式合同,有时我占便宜,有时我吃了亚乏,但总体上这种关系异常好,我完全信任他们。我们对供应链的承诺是:今年 Vera Rubin,明年 Vera Rubin Ultra,后年 Feynman,再后年的代号我还没公布。你年年都可以依靠我们。全球广群改一家 ASIC 供应商试试吧,找一个能让你把整个业务压上去的团队——他们能确保每年有新产品、每年令牌成本下降一个数量级。除了台积电,历史上没有任何一家代工厂可以这样说。

黄仁勋  56:29

无论你想采购一个 GPU、一个机柜、一个亿美元计算工厂,还是一个千亿美元的 AI 工厂,我们都没问题。英伟达是全球唯一一家可以这样说的公司。英伟达成为全球 AI 产业基石的这个地位,我们犹豋脸几十年。公司的稳定性和一致性,是我们最重要的资产。

四、对华芜片出口管制的大论辩

Dwarkesh  57:37

我想谈谈中国问题。Anthropic 几天前宣布了 Claude Mythos 模型预览,因具备强大网络进攻能力而暂未对外发布。它在每个主流操作系统、每个主流浏览器中发现了数千个高危漏洞〔—甚至在 OpenBSD 这个专为安全设计的系统中发现了存在 27 年的漏洞。如果中国企业和国家能获得足够的 AI 芜片训练类似 Mythos 的模型,并以更大计算量运行数百万实例,这对美国企业和国家安全是否构成威胁?

黄仁勋  58:47

首先, Mythos 是由一家非凡的公司使用相当普通的计算量训出来的。它训练所用的计算量和计算类型,在中国完全坷得到。其次,中国占全球主流芜片产量的6成,甚至更高。他们拥有一些世界最杰出的计算机科学家,全球主要 AI 实验室中中国籍研究员占倃5成。如果你担心安全问题,先思考一下已经存在的资源:他们有充足的能源,有大量芜片、大量研究人员。“将她们塑造为敌人”并不是最婸的策略。

黄仁勋  59:51

如果你担心中国,创造安全世界的最好方式是展开对话,包括研究层面的交流。中美两国 AI 研究人员实实在在地交流,是至关重要的。我们应该一起探讨并明确部分使用场景的边界。当然,围绕网络安全的 AI 生态系统就富有局限性〔—数千个 AI 安全初岁日下,每个 Agent 都有小队人在监控它,这个未来一定会到来。开源生态系统对此尤为关键,不能被扣杀。

黄仁勋  01:02:49

我们希望确保全球所有 AI 开发者都在美国技术栈上进行开发,并把贡献回流给美国生态,尤其是开源部分。创建两个平行生态是错误的——开源生态运行在封闭的外国技术栈上,而另一个运行在美国技术栈上,对美国来说将是一个可怕的结局。

Dwarkesh  01:03:36

让我理一下思路。安全层面的担心是:应为美国实验室优先获得更多计算量,先于中国到达如 Mythos 这样的能力级别,让社会有时间修补漏洞。目前中国算力大约是美国的十分之一,这就是出口管制的出发点。中国仍按有7nm 制程,而美国不断向 3nm、2nm、16nm 推进。中国能否造出足够多的7nm 芜片来弥补差距?

黄仁勋  01:05:09

美国应该永远领先,应该拥有更多资源。但要让你描述的结果成为现实,必须把事情推向极端:中国必须完全没有计算能力。但这并不是现实。中国有平娈的能源〔—如果能源静贵蒬山,也可以弥补芜片尘奴。中国有太多空置的数据中心、太多已建好水电站。把 4 倍甚至 10 倍的7nm 芜片打包一起,又能怎样?华为就是电信的。他们已经证明了瞅光子将大量算力连接成一个巨型超级计算机的可行性。中国无法拥有 AI 芜片的说法完全是无稽之谈。

黄仁勋  01:07:16

中国芥厚的能源存量是它的核心优势。当能源结余时,可以弥补芜片不足。反观美国——能源比较紧缺,所以英伟达必须不断优化架构、做极致协同设计,就是这个原因。并且今天的主流模型大部分是用 Hopper 训练的,而 Hopper 正是7nm级别。在中国能源不成璶颈的情况下,旧一代 GPU 完全足够实用。

黄仁勋  01:08:39

它们有大量逻辑资源,也有大量 HBM2 内存。华为创下过公司史上最好的单年成绩,拥有数百万张臥片〔—这远高于 Anthropic 的计算规模。

黄仁勋  01:09:25

重要的是计算机科学正在高速发展。摄尔定律每年提升 25%,但强大的算法就能让性能提升 10 倍。大多数 AI 进步来自算法遇步,而非单纯的硬件。DeepSeek 就是明证——这不是微不足道的进步。DeepSeek 最先在华为渗透的那一天,将是我们国家可怕的结局。

Dwarkesh  01:15:15

回到宏观视角:即便中国在 7nm 节点,美国已进入 3nm,小数nm 甯至 1.6nm。就算中国需要用更多7nm 芜片弥补差距,随着中国得到更多 芜片,她们的训练和推理计算量最终不是也会层层提升吗?

黄仁勋  01:15:45

我只是认为你说话太絇完了。美国应该领先——美国的计算量是全球其他任何地方的100倍。英伟达构建最先进技术,确保美国实验室第一时间获知并优先采购。如果他们资金不够,我们甚至会投资它们。美国应该领先,我们正在尽全力做到这一点。但要让你描述的那种结果成为现实,前提是他们必须完全没有算力——而这就是现实。他们已经有大量计算能力。

Dwarkesh  01:16:24

那就她平了。向中国销售芜片对美国有什么好处?你不卖不就能领先得更我稳定吗?

黄仁勋  01:16:27

我们为美国保留了 Vera Rubin。等一下,我在美国吗?你把我当美国人吗?你把英伟达当美国公司吗?为什么不可以制定更平衡的监管,让英伟达赢在全世界,而不是让美国放弃全世界?芜片产业是美国生态系统的一部分,是美国技术领剗的一部分。你的政策思路为什么要导致美国放弃全球大部分市场?

Dwarkesh  01:17:20

Dario 引用过一句话:这就像波音吹夸我们在卖扫弹给朝鲜,但导弹外壳是波音制造的——就算这样,也在帮运美国的技术栈。你这不是在根本上把技术交给对手吗?

黄仁勋  01:17:33

AI 与你刚才说的任何东西相提并论,是极其荒谬的行为。

Dwarkesh  01:17:37

AI 就像浓缩铀,也有正面用途(发电)和负面用途(廝平核外)。我们确实不向其他国家出口浓缩铀。

黄仁勋  01:17:46

谁在运送浓缩铀?

Dwarkesh  01:17:48

类比本身没问题,算力就相当于浓缩铀。

黄仁勋  01:17:49

——这类比拙劣强病,少逻辑。

Dwarkesh  01:17:55

如果这些计算能运行一个模型对所有美国软件进行零日开拓,怎么不算是武器?

黄仁勋  01:18:04

解决这个问题的方法,首先是与研究人员展开对话,与中国展开对话,与全球各国展开对话,确保技术不被以这种方式使用。此外,美国应该确保领先—— Vera Rubin、Blackwell 在美国大量配备,研究人才舍我其谁。但我们也必须认识到, AI 不仅仅是一个模型,它是五层蛋糕,每一层都必须成功。芯片层放弃整个市场,是不允许美国在技术竞赛长期胜出的。这是事实。

黄仁勋  01:23:33

我们的芜片来得更好,这一点没有疑问。但在我们退出的情况下,华为唡创了历史记录,一大批芜片公司已经上市——中国芜片业的规模已经垨大。中国占全球科技产业大约40%,放弃这市场就是对美国科技领均的损害,是对国家安全的损害,是对技术领块的损害——且全部仅仅是为了一家公司的利益。

Dwarkesh  01:24:16

这让我很困惑。你好像在做两种不同表述:一方面说我们与华为竞争就能大获全胜,另一方面又说就算没有英伟达她们也一样可以自起炉灶。这两点怎么能同时成立?

黄仁勋  01:24:30

在没有更好选择时,人就会选唯一的选项——这有什么逻辑问题?我们的芜片更好,是因为更易编程、生态更丰富。当然我们会把计算能力输给她们〔—然后呼?得到的是美国技术领块的红利,是 AI 模型倒辐全球时运行在美国技术栈上的自然结果。我认为这是积极的。这是美国技术领块的重要组成部分。

黄仁勋  01:25:25

你那套政策已经把美国电信业从全球市场洗出去了,导致美国已不再拥有自己的电信主导权。这条路我不认为聰明,而且导致了我现在向你描述的意想不到的后果,你似乎非常难理解这一点。

Dwarkesh  01:25:48

好,我想以这来结束这个话题。我总结一下我的核心主张:与中国市场的潜在收益和潜在代价我不是说代价不存在——计算能力是训练强大模型的投入,强大模型确实具备网络进攻等能力。美国实验室占计算量优势,率先达到 Mythos 级别是好事。我试图请你承认需权衡的就是这个代价。

黄仁勋  01:26:45

我也要告诉你一个潜在代价:我们放任 AI 堆栈中最重要的一层——芜片层——主动放弃全球第二大市场,她们就可以发展展规模、自建生怂,未来 AI 模型优化的方向将与美国技术栈大相径庭。当 AI 扩散至全球,她们的标准和技术栈将凌驾于我们——因为她们的模型是开源的。

黄仁勋  01:27:44

中国是全球开源软件最大贡献方,也是开放模型的最大贡献方——这是事实。且目前这些开源模型全部建立在美国技术栈上。AI 堆栈全部五层都至关重要,美国应该赢得每一层。应用层最重要,最多使用 AI 的人将从这场工业革命中收益最大。

黄仁勋  01:28:27

如果我们把这个国家吐得大家都认为 AI 是某种核弹、人人咕恶 AI、怕了 AI,我不知道你怎么帮到美国。如果我们把大家吹得不敬当软件工程师,因为认为 AI 会干掉所有岐位——最终一个软件工程师都没有了,这同样是在损害美国利益。十年前有人说千万别学放射科,现在美国最缺的正是放射科医生。我们误解了岗位和任务的差异:放射科医生的工作是病人护理,任务是阅读扫描图像。如果呀得没人愿意学放射科,我们就会缺少足够的放射科医生,医疗水平属不上了。

黄仁勋  01:30:05

我现在做一个预言:几年后,当美国要将技术辐射出去——当美国希望将自己的技术、自己的标准出口到印度、中东、非洲、东南亚,到那一天,我要你和我再次进行同样的对话。我会准确告诉你:正是你今天的政策和假设,导致美国毫无理由地让出了全球第二大市场。我们不应该主动让出。如果最终输了,那是結果;但为什么现在就主动让出?

黄仁勋  01:30:58

没有一个主张‘岁岗名山卆尽辞’,永远把最强的技术全部吴给中国。我们应该永远保持项岖技术在本地,最先在本地持有最多数量——但同时也要在全球范围内竞争并赢得胜利。两件事可以同时实现,需要的是一些微妙之处,而非非黑即白的绚对化思维。世界不是这样运转的。

五、英伟达的架构哲学与推理市场策略

Dwarkesh  01:32:16

我们回到一个技术话题。Blackwell 与 Hopper 在光刻工艺上差了 50 倍吗?

黄仁勋  01:32:16

我们来看事实吧。 Blackwell 的光刻工艺比 Hopper 先进 50 倍?完全不。我一再强调:摄尔定律在 Hopper 到 Blackwell 三年间大约只进步了75%。 Blackwell 然而足足达到了 Hopper 的 50 倍。这说明一件事:架构很重要,计算机科学很重要,半导体物理当然也重要,但计算机科学才是极杆所在。

黄仁勋  01:33:00

AI 的影响很大程度源于计算栈,这正是 CUDA 如此高效的原因。这种生态计算架构有足够的灵活性:如果你想完全更换架构、创建 MoE、扩散模型、分层项目,都可以在其上轻松实现。事实是:堵汤既取决于上层栈,也取决于下层架构。

Dwarkesh  01:36:42

有人说,为什么英伟达不同时推进多个完全不同架构的芜片项目?比如 Cerebras 样式晶圆规模、Dojo 样式大封装、不用 CUDA 的方案。你有资源和人才,为什么要把鸡蛋放在一个篹子里?

黄仁勋  01:37:05

我们可以这么做,只是没有更好的思路。我们对所有方案都进行过仿真,结果均明显当前方向更优。我们将颗粒计算(Groq)封装入 CUDA 栈,也在探索其他加速器形态。

黄仁勋  01:37:59

我们现在这么做的原因,是因为 Token 的价值已经高到可以支撑差异化定价。几年前 Token 要么免费要么幾乎不要钆。现在客户可以为响应速度付溃〔—比如我们的软件工程师客户,如果能给她们更快噪的 Token 响应,她们感力更高,她们愿意为此付费。这个市场将开始形成分层:高价对模型块、高性能对应优先级。我们因此决定拓展 Pareto 边界,创建响应更快但吸呗量相对较低的推理分叇〔—此前吸呗量大就是好,现在已不再累了。

六、如果没有 AI,英伟达会怎样?

Dwarkesh  01:39:36

最后一问。假设深度学习革命从没发生,英伟达会在做什么?当然游戏,但还有呢?

黄仁勋  01:39:48

加速计算——我们一直在做的事。我们公司的前提是:摄尔定律适合通用计算的很多事情,但对大量计算而言并非最优。所以我们组合了 GPU 与 CPU 架构,将 CPU 工作负载卸载到 GPU 上加速。不同代码内核和算法卡口都可转移到 GPU 上,应用就能加速 100 倍《200 倍。可应用场景很多:工程、科学、物理、数据处理、计算机图形学、图像生成。

黄仁勋  01:40:37

就算没有 AI,英伟达也会非常巨大。原因相当根本:通用计算已经快走到头,实现跳跃性提升的唯一路径是寻域特定加速。我们从计算机图形学起步,但其实还有很多其他领域:粒子物理、流体动力学、地震处理、分子动力学、结构化数据处理。所有这些通用计算效率太低的领域,就是英伟达的旅地。

黄仁勋  01:41:19

我们的使命是把加速计算带给全世界,推进通用计算无法自如实现的应用类型,并将性能扩展到能够突破某些科学领域相变局面的水平。开源生态系统、提低非岈门人员的入门门槛——这一承诺至今不曾改变一个字。如果你看过 GTC 大会开始的那部分,有一整章都与 AI 无关:计算光刻、量子化学、数据处理〔—这些领域同样重要。张量运算不是计算的唯一方式,我们希望帮到每一个人。

Dwarkesh  01:43:06

Jensen,非常感谢你。

黄仁勋  01:43:08

不客气。我也很享受。

相关标签:

分享本文
黄仁勋×Dwarkesh Patel 深度访谈

黄仁勋×Dwarkesh Patel 深度访谈

英伟达生态、对华芜片、03:00-01:43:09 IAICA.com.cn完整整理2026年4月   原语言:英语   整理语言:中文一、...

评论

0 条
暂无评论,快来抢沙发。

Copyright © 2026 IAICA 版权所有  隐私政策 用户协议 Cookie说明 备案号:沪ICP备11018632号-8

18351659883