领先的科技公司正在通过建设数十亿美元的“超级集群”来迅速扩展其人工智能能力,这些集群拥有前所未有的Nvidia AI处理器数量。Elon Musk的xAI最近构建了Colossus,这是一台包含100,000个Nvidia Hopper芯片的超级计算机;同时,Meta首席执行官Mark Zuckerberg声称他的公司运行着一个更大的系统,用于训练高级AI模型。 推动大规模芯片集群的努力使Nvidia的季度收入在两年内从70亿美元跃升至350亿美元以上,使其成为全球最有价值的上市公司。Nvidia首席执行官Jensen Huang在周三的财报电话会议上表示,随着公司向下一代AI芯片Blackwell过渡,仍然有大量空间供所谓的AI基础模型通过更大规模的计算设置改进。 他预测,随着行业的发展,投资将持续增加。Huang指出,尽管目前用于训练大型AI模型的最大集群大约包含100,000个Nvidia当前的芯片,但“下一代起步时就有大约100,000个Blackwell。 因此,这让我们看到了行业的发展方向。