本文的 90% 内容由 ChatGPT(GPT 4.0)撰写
(资料图片仅供参考)
黄仁勋,英伟达公司的联合创始人兼 CEO,在台北电脑节上表示,他希望将生成式 AI 带入每一个数据中心。在他近四年来的首次公开演讲中,他宣布了一系列与 AI 相关的重要技术。
一台四头大象重的 GPU
黄仁勋宣布了芯片方面的多项进展,且各个针对最近的 AI 浪潮。
基于 Grace CPU 和 H100 GPU 打造的为加速计算设计的 NVIDIA Grace Hopper 超级芯片的最新进展,以及 DGX GH200 超级计算机。
其中,GH200 将全面投产,配备 GH200 Grace Hopper 超级芯片的系统预计将在今年晚些时候开始供应。这款超级芯片具有 4 PetaFLOPS TE 的性能,72 个 Arm CPU 通过芯片到芯片的链接相连,具有 96GB 的 HBM3 和 576GB 的 GPU 内存。黄仁勋描述这是世界上第一个具有巨大内存的加速计算处理器:" 这是一台计算机,不是一个芯片。" 它被设计用于高弹性的数据中心应用。
而 DGX GH200 是英伟达的新型 AI 超级计算机平台。它实质上是 NVIDIA GH200 Grace Hopper 超级芯片的升级版。首先,将 8 个 Grace Hoppers 通过 3 个 NVLINK Switches 连接在一起,然后将这些 pod 连接在一起,总共达到 900GB,最后再将 32 个 pod 通过另一个层次的交换机连接在一起,Nvidia 创造了一台总共有 256 个 Grace Hopper 芯片的机器。
这些术语太多,如果用通俗易懂的话解释,DGX GH200 是一种由 NVIDIA 开发的高性能计算设备。你可以把它想象成一个超级强大的电脑,它是通过将多个独立的芯片连接在一起来实现这种高性能的。这些芯片首先是以 8 个一组连接在一起,然后这些组再通过特殊的设备(叫做 NVLink 开关)连接在一起形成更大的组,最后,通过更多的开关,将 32 个这样的大组连接在一起,总共连接了 256 个 Grace Hopper 芯片。这样一来,DGX GH200 就形成了一个拥有巨大计算能力和存储容量的设备,这种设备非常适合运行需要大量计算能力的任务,例如训练和运行人工智能模型。
黄仁勋说,这个超级 GPU 重达 4 个大象。
这个超级芯片拥有令人印象深刻的 4 PetaFLOPS 变压器引擎、72 个通过芯片连接的 Arm CPU、96GB HBM3 和 576GB GPU 内存。DGX GH200 的速度足够快,可以进入世界前 500 名的超级计算机列表。值得注意的是,由此产生的 144TB GPU 内存的 ExaFLOPS 变压器引擎可以作为一个巨大的 GPU。我无法找到具体的性能数据,但科技巨头,包括谷歌云、Meta 和微软,已经成为早期采用者,说明行业中存在重大的兴趣。
总之就是,我有最强的 GPU,还有最适合它的自己的 CPU,我还提供把这些 CPU 和 GPU 粘起来的大芯片,以及粘起来以后再叠起来的超级计算机。
为 AI 焦虑的厂商,买吧。
一个自主跟你唠嗑的 NPC
玩家:嘿,Jin,你好吗?
Jin:遗憾的是,我不太好。
玩家:怎么了?
Jin:我担心这里的犯罪情况。最近变得很糟。我的拉面店被卷入了冲突。
玩家:我能帮忙吗?
Jin:如果你想对此做些什么,我听说强大的犯罪大佬 Kumon Aoki 正在城市中引发各种混乱。他可能是这种暴力的根源。
玩家:我会和他谈谈的,我在哪里可以找到他?
Jin:我听说他经常出没在城市东部的地下斗殴俱乐部。你可以去那里试试。
玩家:好的,我会去的。
Jin:小心点,Kai。
这是黄仁勋现场展示的 AI 驱动的角色的对话实录。具体视频可以在我们的视频号查看。
黄仁勋在台北电脑节上展示的 AI 角色 Jin,使我们得以一窥游戏与 AI 结合的未来可能。Jin 是一个赛博朋克风格的拉面店主,玩家可以用自己的声音与其进行对话,而不是通过点击对话选项。这一切都是由 Nvidia 和其合作伙伴 Convai 制作的演示,旨在推广创建此演示所使用的工具——特别是一个名为 Nvidia ACE(Avatar Cloud Engine)的中间件套件。ACE 套件包括 Nvidia 的 NeMo 工具,用于部署大型语言模型(LLMs),以及 Riva 语音转文本和文本转语音等工具。
然而,与其说这个演示是一场对话,不如说它更像是一个视觉盛宴。演示中使用了 Unreal Engine 5 和大量的光线追踪技术,使得聊天机器人部分相比之下显得乏善可陈。尽管如此,这个演示的关键在于,生成性 AI 正在对自然语音作出反应,这是与传统的 NPC 对话树相比的一大进步。
不过,演示中的对话质量仍有待提高。Jin 的对话相比其他聊天机器人的表现,显得不够吸引人。也许下一次,Nvidia 可以尝试使用更先进的语言模型,如 GPT-4 或 Sudowrite,来进一步提高对话的质量。
总的来说,Jin 的展示是一项有趣的尝试,揭示了 AI 和游戏结合的可能性,尽管在对话质量方面还有待提升。它是 Nvidia 未来 AI 发展方向的一个示例,表明 AI 在游戏对话和交互方面的潜力。
如果用 ChatGPT 驱动,Jin 在某些方面可能会有更高的自由度和创造力,可以生成更多样化和复杂的对话。它能够利用其广泛的知识和语言模型来提供更富有情感和个性化的回答。但请注意,它仍然是一个虚拟角色,没有真实的情感和意识。
无论是 ChatGPT 驱动的 Jin 还是现在的模型,它们都是基于预训练的模型,通过大量的数据和算法进行训练得到的。因此,它们的回答可能有限制,不能完全代表真实个体的思维和情感。
请记住,在与虚拟角色的对话中,理解其局限性并保持对现实世界的实际需求和情境的认识非常重要。如有需要,请向专业人士寻求真实世界的帮助和咨询。
AI 现场根据文字制作的口水歌曲及其他
黄仁勋在演讲过程中还展示了语音转歌曲的功能。他直接对 AI 下指令,要求把一段话编成歌曲。
"I am here at Computex, I will make you like me best,yeah Sing sing it with me. I really like NVIDIA"。
随后 AI 立刻将这段话编成一首歌,具体细节可以点击我们的视频号查看。
其他一些重要发布包括:
黄仁勋将 Nvidia 对超级计算机芯片制造商 Mellanox 的 2019 年收购价值 69 亿美元称为 " 最重要的战略决定之一 "。
英伟达和 SoftBank 已经达成合作伙伴关系,将 Grace Hopper 超级芯片引入 SoftBank 在日本的新分布式数据中心。这个合作基于 Nvidia MGX 参考架构展开,它事实上就是为系统制造商提供了一个模块化的参考架构,来最大限度减少英伟达 GPU 的散热问题。
另外,黄仁勋还表示,英伟达的 Cuda 计算模型现在服务于 400 万开发者和超过 3000 个应用程序。Cuda 的下载量达到了 4000 万次,其中仅去年一年就达到了 2500 万次。
关键词: