快科技10月25日消息,日前英伟达CEO黄仁勋和丹麦国王共同宣布,该国首个AI超级计算机Gefion正式启用。
黄仁勋同时呼吁欧洲国家加大人工智能投资,以缩小与美国和中国在AI领域的差距,他认为关键工具是AI基础设施,尤其是NVIDIA的GPU。
Gefion超级计算机基于Nvidia DGX SuperPOD平台构建,拥有191个节点和1528个NVIDIA H100 GPU,最高FP64性能达到102 petaFLOPS,位居全球Top500第14位。
黄仁勋表示,Gefion将为丹麦科学家提供本地AI计算基础设施,推动生命科学、气候研究和量子计算的进步。
黄仁勋还提到,每个国家都在意识到数据是国家资源,并觉醒于发展AI的重要性,他认为,欧洲国家需要投资更多的人工智能,关键的工具是AI基础设施,特别是英伟达的GPU。
此外,黄仁勋赞扬了生成式AI在推动新科技发展,特别是在生物学和药物发现方面的潜力。
他指出,这些优势对丹麦制药大厂Novo Nordisk至关重要,这也是为什么Novo Nordisk也在投资Gefion。
NVIDIA A100 GPU采用哪家晶圆代工厂的7nm制程?
英伟达7nm安培显卡生产确认:台积电独家合作5月15日,NVIDIA宣布其基于Ampere架构的首款GPU产品A100已全面投入生产并开始向全球客户交付,打消了市场对采用三星晶圆代工的传言。 NVIDIA CEO黄仁勋亲自确认,Ampere架构GPU将采用台积电的7纳米先进制程,并部分采用CoWoS技术,确保了高端产品的制造。
据供应链透露,英伟达计划在第二季度大幅增加7nm Ampere架构GPU的生产,预计下半年对台积电7纳米产能的需求将进一步提高,使台积电的产能利用率保持满载状态。 后段封装工作主要由日月光投控的硅品负责,而京元电则接手了测试业务。 旺硅获得了晶圆探针卡和测试板订单,ABF基板供应商则包括欣兴和景硕。
A100 GPU的五大技术亮点
作为全球最大的7纳米处理器,A100的核心是NVIDIA Ampere GPU架构,拥有超过540亿个晶体管。 其Tensor Core核心的升级版TF32,不仅在FP32精度下为AI性能提供20倍的提升,而且支持FP64精度,HPC应用的计算力较前代提升2.5倍。
创新的多实例GPU MIG技术,将单个A100 GPU划分为7个独立GPU,以适应不同规模工作负载,最大化资源利用和投资回报。 NVIDIA NVLink 3.0技术使GPU间的速度提升了一倍,显著提升服务器性能。
结构化稀疏技术利用AI数学的稀疏特性,实现了性能提升一倍的效率提升。 A100 GPU的广泛应用前景广阔,包括阿里云、AWS、网络智能云、微软Azure等众多全球云服务供应商和系统构建商计划将其集成到他们的产品中。
总结来说,NVIDIA的A100 GPU凭借台积电的7nm制程、创新的AI技术以及广泛应用的市场前景,正在引领新一代GPU技术的发展。黄仁勋:要让所有人用上生成式AI!
英伟达创始人兼CEO黄仁勋在世界顶级计算机图形学会议SIGGRAPH上发表特别演讲,强调要让所有人用上生成式AI。 黄仁勋在洛杉矶的现场特别演讲中对数千名观众表示:“生成式人工智能时代已经来临,你可以将其视为iPhone时刻。 ”会议亮点包括下一代GH200 Grace Hopper 超级芯片平台、NVIDIA AI Workbench(一种新的统一工具包,可在NVIDIA AI平台上引入简化的模型调整和部署),以及针对NVIDIA Omniverse的重大升级,其中包括生成式人工智能和OpenUSD技术。 这些公告旨在将过去十年的所有创新——人工智能、虚拟世界、加速、模拟、协作等等——结合在一起。 黄仁勋说:“图形和人工智能密不可分,图形需要人工智能,人工智能也需要图形。 ”并解释道,人工智能将在虚拟世界中学习技能,并且人工智能将帮助创造虚拟世界。 AI的基础,实时图形五年前的SIGGRAPH 大会上,英伟达通过将AI和实时光线追踪引入GPU,重新定义了图形。 但是黄仁勋表示:“在我们通过人工智能重新定义计算机图形的同时,我们也在为人工智能重新定义GPU。 ”结果是:越来越强大的系统,如NVIDIA HGX H100,它利用了八个GPU,总共拥有1万亿个晶体管,相对于基于CPU的系统,提供了显著的加速。 黄仁勋告诉观众:“这就是世界上的数据中心迅速转向加速计算的原因。 你购买得越多,节省得就越多。 ”为了延续AI的发展势头,英伟达推出了Grace Hopper Superchip,即NVIDIA GH200,它将72核的Grace CPU与一颗Hopper GPU相结合,并于5月份投入全面生产。 新平台专为处理世界上最复杂的生成工作负载而构建,涵盖大型语言模型、推荐系统和矢量数据库,将提供多种配置。 NVIDIA AI Workbench 加速企业定制生成式AI的采用为了加快全球企业定制化采用生成式 AI,黄仁勋宣布推出NVIDIA AI Workbench。 它为开发人员提供了一个统一、易于使用的工具包,可在PC或工作站上快速创建、测试和微调生成式AI模型,然后将其扩展到几乎任何数据中心、公共云或NVIDIA DGX云。 借助 AI Workbench,开发人员只需点击几下即可自定义和运行生成式 AI。 它使他们能够将所有必要的企业级模型、框架、软件开发套件和库整合到一个统一的开发人员工作区中。 全新NVIDIA Enterprise 4.0软件推动人工智能部署为了进一步加速生成式AI的采用,英伟达发布了最新版本的企业软件套件NVIDIA AI Enterprise 4.0。 NVIDIA AI Enterprise使企业能够访问采用生成式AI所需的工具,同时还提供大规模企业部署所需的安全性和API稳定性。 Omniverse 主要版本融合生成式AI、OpenUSD实现工业数字化黄仁勋宣布发布NVIDIA Omniverse的主要版本,这是一个OpenUSD原生开发平台,用于跨工具构建、模拟和协作,为开发人员和工业企业提供新的基础应用程序和服务,以利用OpenUSD框架和生成式 AI优化和增强他们的3D流程和虚拟世界。 全新桌面系统、服务器为了提供更多的计算能力,英伟达与全球工作站制造商宣布推出强大的新型RTX工作站,用于生成式AI和数字化时代的开发和内容创作。 这些系统基于NVIDIA RTX 6000 Ada Generation GPU,并采用NVIDIA AI Enterprise和NVIDIA Omniverse Enterprise软件。 此外,NVIDIA 还发布了三款全新桌面工作站Ada Generation GPU,旨在为全球专业人士提供最新的AI、图形和实时渲染技术。 NVIDIA Research带来新功能得益于NVIDIA Research工作,更多创新正在到来。 英伟达研究人员展示了生成式AI工作流程,帮助艺术家快速创建和迭代 3D 场景的材质,使用文本或图像提示更快地生成自定义纹理材质,并进行更精细的创意控制。 此外,英伟达研究人员还展示了如何利用人工智能将视频会议推向一个新的水平,引入了新的3D特性。
自定义Llama 3.1模型的利器来了!NVIDIA打造生成式AI代工厂,还有加速部署的微服务
NVIDIA已经发布了全新的NVIDIA AI Foundry服务和NVIDIA NIM推理微服务,与Meta最近开源的Llama 3.1系列模型配套,为全球企业推进生成式AI提供了强大的支持。 这款8B、70B和405B参数规模的大语言模型,经过在个NVIDIA Tensor Core GPU上训练,旨在优化各种加速计算环境,包括数据中心、云和配备NVIDIA GPU的设备。 类似台积电的芯片代工厂角色,NVIDIA打造的AI Foundry成为了企业级AI的代工厂。 NVIDIA创始人黄仁勋强调,Meta的Llama 3.1开源模型标志着企业广泛采用生成式AI的转折点。 通过NVIDIA AI Foundry的端到端服务,企业能够轻松构建和定制高级AI应用,并通过NVIDIA NIM进行快速部署。 该服务提供灵活的计算资源,随着AI需求变化可轻松扩展,帮助企业针对特定领域定制模型。 借助NVIDIA的NIM微服务,企业能够利用Llama 3.1的训练数据和蒸馏技术,创建更小、更适应特定领域的模型,以便在更多设备上运行。 NVIDIA与Meta合作,不仅提供了Llama 3.1的自定义方法,还支持与NVIDIA NeMo Retriever NIM微服务的结合,以提升检索增强生成的准确性和响应速度。 NVIDIA AI Foundry与全球合作伙伴一起,加速了从模型开发到部署的流程,已经吸引了包括埃森哲在内的专业服务公司和多个行业巨头如Aramco、AT&T等的采用。 NVIDIA的这些举措展示了其在生成式AI领域的领先地位,通过提供易用且性价比高的工具和服务,帮助企业无缝接入并利用先进AI模型,以满足日益增长的业务需求。 英伟达的行动力表明,他们正在积极应对AI产业的发展趋势,超越了单纯的芯片研发层面。