产品

AMD目前正在举办大会AI 2025。

6月13日,AMD举行了年度现场人工智能传输活动,今天00:30北京时间前进。 AMD的总裁兼首席执行官,他的Zifleng以及其他高管,AI生态系统的合作伙伴,客户和开发人员讨论了AMD产品和软件如何重建AI Panorama和高性能计算(HPC)。在本次会议上,AMD展示了其对综合端到端平台的不可或缺的愿景,并根据行业标准推出了开放,可扩展和机架水平的新产品基础设施产品。首先,AMD推出了本能MI350系列的新一代GPU,该GPU综合地提高了生成人工智能和高性能计算的性能,效率和可扩展性。本能MI350系列包括MI350X的GPU和平台和MI350X和MI3555X的MI355X,是LA计算机改进的四倍,是GE推理性能的35倍Neration。新的GPU基于ADNA 4 AMD体系结构和3NM工艺技术。集成了1850亿晶体管,并接受下一代数据AI FP4 FP6的类型。它提供了288 GB的HBM3E视频内存,接纳了在单个GPU中执行高达520B的AI模型,该模型允许UBB8行业的标准GPU节点,并提供直接的液化版本和空气回火。 AMD Instinct MI355X GPU在AI和HPC字段中具有出色的性能。根据AMD,与NVIDIA B200和GB200相比,MI355X的竞争对手大约是其竞争对手的1.6倍,并且基本上具有相同的内存带宽。对于FP64和FP32操作,MI355X的竞争对手的表现几乎是两倍。对于FP16和FP8的操作,其最高性能比RendOFP6的模拟率相当或略高于竞争对手。在FP4计算中,MI355X具有与竞争对手相似的最大性能。另外,与B200相比,MI3 Instinct可以使用55倍来获得40%令牌/$的盈利提高。与上一代MI300X相比,MI355X执行了型号调用3.1 405B。这是AI代理的性能的4.2倍,其内容生成功能的2.9倍是上一代MI300X的2.8倍,是交互式人工智能性能的2.6倍。根据AMD的说法,本能MI350系列超过AMD配置,五年目标是在30次中提高AI训练和高性能计算机节点的能源效率,并最终增加38倍。 AMD Instinct MI350系列提供了基于开放标准和网络解决方案的机架基础架构。这套产品允许UEC和OCP设计,并配备了ATO Intinctive GPU和第五代EPYC X86 CPU。不同的配置分别包括128 GPU,96 GPU和64 GPU,分别为36TB,27TB和18 TB HBM3E内存。表演指示器涵盖了FP8,FP6和FP4的准确性,这使其适用于大型机架扩展解决方案。从第三季度开始,预计将通过AMD解决方案合作伙伴提供相关产品。他从AMD获得了下一代AI机架的建筑“ Helios”的事件中学到。它基于AMD Instinct MI400系列,CPU“威尼斯” AMD EPYC和基于“ Zen 6”架构的“ Vulcano” AMD网络思维。同时,AMD还预见了本能的MI400系列GPU,该系列计划于2026年推出。该系列的带宽为19.6tb/s,每GPU的带宽为300GB/s。提供40pf FP4和20pf FP8的AI计算性能,继续持续的好处是MI300X和MI325X。 AMD还宣布了一个新的2030年目标,以提高自2024年基地以来的20次架子上的能源效率。目前,AI的典型特征目前需要超过275个机架在2030年进行训练让我们使用的架子将能源消耗降低95%。此外,ROCM 7的最新版本AI AI开源软件引起了许多互联网用户的关注,旨在满足对生成人工智能和高性能计算机工作负载的不断增长的需求。 ROCM 7改善了行业的标准框架支持,改善了硬件兼容性,新开发工具,启动子,API和库,以加速AI的开发和实施。最后,值得一提的是,AMD为全球开发人员IS和开源社区提供了广泛的使用AMD开发人员云的权利。该平台是为了快速且高性能高的AI开发而创建的,它允许用户访问AMD开发人员云中完全管理的云中的环境,包括启动AI项目的必要工具和灵活性,以及​​无限制的攀登能力。 [来源:这是一所房子]