黄仁勋宣布英伟达AI突破
单价:¥1.00数量:1.00
市场价:¥1.00折扣价:¥1.00
单位:个过期时间:2036-01-14
销售地址:上海浦东 生产地址:上海市浦东工厂
关键词:英伟达公布下一代 GPU 架构 Rubin,老黄说买得越多省得越多,黄仁勋:英伟达AI芯片性能增速远超摩尔定律设定的标准
联系电话:188****9363联系QQ:点击我:
专业小程序设计开发——助力新电商新零售
电话+V:159999-78052,欢迎咨询黄仁勋宣布英伟达AI突破,[小程序设计与开发],[小程序投流与推广],[小程序后台搭建],[小程序整套源码打包],[为个体及小微企业助力],[电商新零售模式],[小程序运营推广及维护]
一、英伟达公布下一代GPU架构Rubin,老黄说买得越多省得越多
NVIDIA宣布其加速平台全面投入生产,通过其RTX系列GPU和全栈计算平台,推动AI和加速计算的边界。
黄仁勋强调计算的未来加速发展,凭借创新,NVIDIA突破界限,推动技术进步。
GPU是加速计算的核心,通过并行处理能力,GPU在大型数据集和复杂计算中表现出色。
NVIDIARTX系列GPU专为高性能计算和深度学习任务设计,加速企业数据处理、AI模型训练与应用。
黄仁勋强调加速计算的可持续性,GPU和CPU结合实现高达100倍的计算加速,仅增加三倍功耗,每瓦性能提高25倍。
Rubin平台接替Blackwell,集成新GPU、CPU和高级网络,提供卓越性能和能效。
Rubin结合最新硬件和软件技术,为高性能计算和AI提供突破性性能。
Blackwell平台被视为高性能计算和AI领域的一大突破,拥有领先功能。
构建AI工厂,推动新工业革命,全球领先制造商采用NVIDIA解决方案。
最新技术集成加速AI应用部署,提高生产效率,降低运营成本。
数字孪生体通过Omniverse和Metropolis平台创建和管理,优化操作和安全管理。
NVIDIAOmniverse实现实时3D设计协作和物理准确仿真,帮助创建与管理复杂数字孪生体。
生成式AI提升生产力,为先进制造业带来2900亿美元价值,全球收益高达4.4万亿美元。
Spectrum-X以太网结构,加速AI工作负载处理,提供高性能连接。
CoreWeave、GMOInternetGroup等AI云服务提供商采用Spectrum-X,实现极致网络性能。
NVIDIANIM提供生成式AI应用开发工具,全球2800万开发人员轻松创建应用程序。
NVIDIANIM与KServe集成,自动化AI模型部署,确保高效性能与安全性。
KServe作为Kubernetes扩展,优化AI推理性能,支持多种AI框架,简化部署管理。
NVIDIA作为全球AI和加速计算领导者,市值超过2.7万亿美元,推动技术革新。
二、英伟达继续放大招,黄教主带你横扫AI世界
北京时间8月8日晚,英伟达NVADIA创始人、CEO黄仁勋在美国洛杉矶的SIGGRAPH(计算机图形大会)2023现场向数千名观众发表了主题演讲,并通过直播分享给全球观众。
“生成式AI时代和AI的iPhone时刻已经到来”,黄仁勋强调。
随着ChatGPT引发AI大模型需求热潮,占全球80%以上的GPU服务器市场份额和全球91.4%的企业GPU市场份额的英伟达NVIDIA,近三个月内股价涨幅就达56%,今年以来股价累计涨幅已超过210%,过去7年股价增长超40倍,目前市值冲破1.1万亿美元。
演讲中,黄仁勋发布了GH200GraceHopper超级芯片和名为NVIDIAAIWorkbench的全新统一工作空间,以简化NVIDIAAI平台上模型的调节和部署。此外,他宣布将对NVIDIAOmniverse进行重大升级,加入对生成式AI和OpenUSD的支持。
黄仁勋表示:“计算机图形学和AI密不可分,图形学需要AI,AI也需要图形学。”他解释说,AI将在虚拟世界中学习技能,于此同时,AI也可以用于创建虚拟世界。
这些发布旨在将过去十年所有的创新结合在一起,其中包括人工智能、虚拟世界、加速、模拟、协作等创新与技术。
演讲过程中,黄仁勋有句口头禅:“Moreyoubuy,moreyousave(你买得越多,越省钱)”。
具体体现在新款超级芯片GH200上,他表示,花1亿美元购买8800片x86CPU实现的AI计算性能,只花800万美元购买210片GH200就能实现,而能耗也将由5MW降至0.26MW。也就是说,实现同样的性能,购买GH200只要花费不到1/12的价格,近1/20的能耗。如此算来,可不真是买得越多,省得越多嘛。
NVIDIA这次推出最硬核的产品是强化版的GH200GraceHopper超级芯片,先前发表的GH200GraceHopper超级芯片,结合了72核GraceCPU和HopperGPU,已经于5月投产。
NVIDIA创始人、CEO黄仁勋在SIGGRAPH2023上展示GH200GraceHopper超级芯片▼
新款GH200GraceHopper超级芯片将Hopper架构GPU和Arm架构GraceCPU结合,拥有72个Armv9架构CPU内核,16896个FP32CUDAGPU内核,搭配141GBHBM3e内存,对比目前版本的GH200,不仅内存速度提升50%,带宽升至每秒5TB,内存容量也暴增近50%。相比最热门的H100芯片,其内存增加1.7倍,带宽增加1.5倍。
配备HBM3e内存的GH200GraceHopper超级芯片正在样品测试中,预计将于2024年第二季度上市。
现场还展示了一具有144个ArmNeoverse核心、8petaflopsAI性能和282GB最新HBM3e内存的单服务器DGXGH200。预计将在2024年第二季度交付。
黄仁勋表示,这是专为处理世界上复杂的生成式工作负载而构建的新计算平台,将提供多种配置,其中涵盖大型语言模型、推荐系统和矢量数据库等。与前一代产品相比,它不但提供更高的带宽与传输速度,容量也有所提升,对于AI运算来说有相当大的帮助。
英伟达负责超大规模和高性能计算的副总裁伊恩·巴克(IanBuck)表示,新版本的GraceHopper超级芯片提高了高带宽内存的容量,这将使该设计能够支持更大的人工智能模型。该配置经过优化,可执行人工智能推理功能,有效地为ChatGPT等生成式人工智能应用程序提供动力。
为了加快全球企业对自定义生成式AI的应用,黄仁勋发布了NVIDIAAIWorkbench。该平台为开发者提供了一个统一、易用的工作空间,使他们能够在个人电脑或工作站上快速创建、测试和微调生成式AI模型,然后将这些模型扩展到几乎所有数据中心、公有云或NVIDIADGXCloud。
AIWorkbench大大降低了企业AI项目的门槛。开发者通过在本地系统上运行的简单界面,就可以使用自定义数据对来自HuggingFace、GitHub和NGC等常见资源库的模型进行微调,然后在多个平台上轻松共享。
NVIDIA创始人兼首席执行官黄仁勋在SIGGRAPH主题演讲的现场,座无虚席▼
借助AIWorkbench,开发者只需点击几下就能自定义和运行生成式AI。开发者可以将所有必要的企业级模型、框架、SDK和库整合到一个统一的开发者工作空间中。
“有了AIWorkbench,任何人都可以做到这些。”黄仁勋说道。
黄仁勋还宣布NVIDIA将与初创企业HuggingFace一起为数百万开发者提供生成式AI超级计算,帮助他们构建大型语言模型等高级AI应用。
开发者将能够使用HuggingFace平台内的NVIDIADGXCloudAI超级计算训练和调整高级AI模型。
黄仁勋表示,“这将是一项全新的服务,将世界上顶尖的AI社区与顶尖的训练和基础设施连接起来。”
最终,通过AIWorkbench,客户可以将新模型部署到企业应用程序中。
Omniverse计算机图形与仿真模拟平台是英伟达OpenUSD原生软件平台,用于跨工具构建、模拟和协作,为开发人员和企业提供新的基础应用程序和服务。Cesium、Convai、MoveAI、SideFXHoudini和WonderDynamics现已通过OpenUSD连接到Omniverse。
黄仁勋在演讲中发布了NVIDIAOmniverse的重要更新,加入对生成式AI和OpenUSD的支持以实现工业数字化。主要亮点包括OmniverseKit(用于开发本地OpenUSD应用程序和扩展的引擎)以及NVIDIAOmniverseAudio2Face基础应用程序和空间计算功能的改进。其他改进包括新的模块化应用程序构建、新的开发者模板和资源,以及提高效率和用户体验。
NVIDIAOmniverse和模拟技术副总裁RevLebaredian表示:“工业企业正在竞相将其工作流程数字化,增加了对支持OpenUSD的连接、可互操作3D软件生态系统的需求。最新的Omniverse更新允许开发者通过OpenUSD利用生成AI来增强他们的工具,允许企业构建更大更复杂的空间规模模拟作为其工业应用的数字测试场。”
包括对话式AI角色创建工具Convai、高保真AI动捕工具MoveAI、AI低成本制作CG工具CGWonderDynamics在内,一系列流行AI工具,现在都已经通过OpenUSD集成到Omniverse中。Adobe也计划将AdobeFirefly作为API,集成在Omniverse中。
黄仁勋在演讲中对未来AI行业的发展做了大胆的展望:“大型语言模型是一个新的计算平台,人类(语言)是新的编程语言。我们已经使计算机科学民主化,每个人都可以成为程序员。”
他还对汽车业进行了预测:“(未来)整个工厂都将是软件定义的机器人,他们制造的汽车本身也将是机器人。这意味着,机器人设计的机器人去制造机器人。”
【本文来自易车号作者汽车商业评论,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关】
黄仁勋:英伟达AI芯片性能增速远超摩尔定律设定的标准
2025-01-08 15:07·IT之家IT之家1月8日消息,在拉斯维加斯举行的国际消费电子展(CES)上,英伟达CEO黄仁勋在一次面向万人的主题演讲后接受TechCrunch采访时表示,其公司AI芯片的性能提升速度已远超数十年来推动计算机技术进步的“摩尔定律”设定的标准。
“我们的系统进步速度远超摩尔定律,”黄仁勋周二表示。
据IT之家了解,“摩尔定律”由英特尔联合创始人戈登?摩尔于1965年提出,预测计算机芯片上的晶体管数量将大约每年翻一番,从而使芯片性能也大致翻一番。这一预测基本实现了,并在几十年里推动了计算机性能的快速提升和成本的急剧下降。
近年来,“摩尔定律”的发展速度有所放缓。然而,黄仁勋声称,英伟达的AI芯片正以自身的加速节奏发展;该公司表示,其最新的数据中心超级芯片在运行AI推理工作负载方面的速度比上一代产品快30多倍。
“我们可以同时构建架构、芯片、系统、库和算法,”黄仁勋说,“如果这样做,我们就能比摩尔定律更快地发展,因为我们可以在整个技术栈中进行创新。”
英伟达CEO发表这一大胆言论之际,正值许多人质疑AI发展是否停滞之时。包括谷歌、OpenAI和Anthropic在内的领先AI实验室都使用英伟达的AI芯片来训练和运行其AI模型,而这些芯片的进步可能会转化为AI模型能力的进一步提升。
这并非黄仁勋首次暗示英伟达正在超越“摩尔定律”。早在去年11月的一次播客节目中,黄仁勋就曾提出AI世界正以“超摩尔定律”的速度发展。
黄仁勋还驳斥了“AI进展放缓”的观点。他认为,当前AI领域存在三大扩展定律:预训练(pre-training)、后训练(post-training)和推理时计算(test-timecompute)。预训练阶段,AI模型从海量数据中学习模式;后训练阶段,通过人类反馈等方法微调模型;推理时计算则让模型在回答每个问题后有更多时间“思考”。黄仁勋强调,随着计算能力的提升,AI推理成本将逐步降低,类似于摩尔定律推动计算成本下降的历史进程。
英伟达的H100芯片曾是科技公司训练AI模型的首选,但现在科技公司更加关注推理,一些人开始质疑英伟达昂贵的芯片是否还能保持领先地位。
目前,使用测试时计算的AI模型运行成本高昂。有人担心OpenAI的o3模型(使用了规模化的测试时计算)对大多数人来说过于昂贵。例如,OpenAI使用o3在一项通用智能测试中达到人类水平的分数,每项任务花费近20美元。而ChatGPTPlus的订阅费用为每月20美元。
在周一的主题演讲中,黄仁勋像举着盾牌一样展示了英伟达最新的数据中心超级芯片GB200NVL72。这款芯片在运行AI推理工作负载方面的速度比英伟达之前最畅销的芯片H100快30到40倍。黄仁勋表示,这种性能的飞跃意味着像OpenAI的o3这样在推理阶段使用大量计算的AI推理模型,其成本将随着时间的推移而降低。
黄仁勋表示,他总体上专注于创造性能更强的芯片,而性能更强的芯片从长远来看会带来更低的价格。“无论是在性能还是成本承受能力方面,测试时计算的直接解决方案是提高我们的计算能力,”黄仁勋表示。他指出,从长远来看,AI推理模型可以用于为AI模型的预训练和后训练创建更好的数据。
在过去一年里,我们确实看到了AI模型的价格大幅下降,部分原因是英伟达等硬件公司的计算技术突破。黄仁勋表示,他预计这种趋势将随着AI推理模型的发展而继续下去。
黄仁勋声称他今天的AI芯片比10年前的产品好1000倍。这是一个比“摩尔定律”设定的标准快得多的速度,黄仁勋表示他认为这种速度没有停止的迹象。
【WINDRISES MINIPROGRAM PROMOTION】尊享直接对接老板
电话+V: 159999-78052
专注于小程序推广配套流程服务方案。为企业及个人客户提供了高性价比的运营方案,解决小微企业和个体拓展客户的问题
