NVIDIA 非常生态系统调解伙伴正在为 AI 推理时期构建大范围 AI 工场,而每家企业齐将需要一个这么的工场。
AI 正在鼓舞新一轮工业转变——这是一场由 AI 工场驱动的转变。
与传统数据中心不同,AI 工场不单是存储和处理数据,它们还大范围地分娩智能,将原始数据滚动为及时主见。关于群众各地的企业和列国而言,这意味着价值杀青的速率大幅进步,行将 AI 从长期投资调遣为杀青竞争上风的顺利驱能源。现在投资于成心建筑 AI 工场的企业将在创新、后果和商场各异化方面占据开首地位。
传统数据中心面向通用假想,常常处理多样各样的职责负载,而 AI 工场则经过优化,以便欺骗 AI 来创造价值。它们涵盖 AI 的扫数人命周期,从数据网络到检修、微调,以及最为要害的大范围推理。
对 AI 工场来说,智能并非副居品,而是主要居品。这种智能通过 AI token 糊涂量来琢磨,也即是那些驱动决策、自动化和全新做事的及时展望。
传统数据中心短期内不会消散,但其将来是将演变成 AI 工场如故连结到 AI 工场,将取决于企业的生意模式。
不管企业如何遴荐,NVIDIA 驱动的 AI 工场还是在大范围地分娩智能,正在改变 AI 的构建、优化和部署表情。
点击视频,走进 AI 工场如何创造智能
驱动假想需求的扩张定律
在昔日几年里,AI 范围的热门是检修大模子。但跟着近期 AI 推理模子大批泄漏,推理还是成为 AI 经济的主要驱能源。三条要害的扩张定律(scaling law)揭示了其中的原因:
预检修扩张:更大的数据集和更多的模子参数大略带来可意象的智能水平进步,但这需要在专科时期大众、数据整理和假想资源方面进行大批进入。在昔日五年中,预检修扩张使假想需求增长了 5000 万倍。不外,一朝模子检修完成,就会大幅裁减其他东谈主在此基础上进行设备的门槛。
后检修扩张:针对特定真正应用对 AI 模子进行微调时,在 AI 推理过程中所需的算力是预检修的 30 倍。跟着各机构阐发自己独到需求而诊治现存模子,对 AI 基础要道的蕴蓄需求也会急剧飙升。
测试时扩张(又称长念念考):像代理式 AI 或物理 AI 这类先进的 AI 应用需要进行迭代推理,即模子在作念出最好反映之前会探索多种可能的谜底。这个过程所需的算力比传统推理多出 100 倍。
传统数据中心并非为 AI 新时期而假想。AI 工场则成心进行了优化以合手续温顺这种巨大的算力需求,为 AI 推理和部署提供了一层次想的发展旅途。
用 Token 重塑产业与经济
群众范围内,列国政府与企业齐在竞相建筑 AI 工场,以刺激经济增长、促进创新并进步后果。
欧洲高性能假想结伴体(EuroHPC JU)近期晓示,计算与 17 个欧盟成员国联袂打造 7 座 AI 工场。
在此之前,群众已掀翻 AI 工场投资上升,各个企业和国度齐在加速欺骗 AI 驱动各行业、各地区的经济增长:
印度:Yotta Data Services 与 NVIDIA 调解推出了 Shakti 云平台,艰巨于于让更多东谈主大略获得先进的 GPU 资源。通过集成 NVIDIA AI Enterprise 软件与开源用具,Yotta 为 AI 设备与部署打造了一个无缝的环境。
日本:包括 GMO Internet、Highreso、KDDI、Rutilea 和 SAKURA internet 在内的多家日智商先的云做事提供商,正在构建 NVIDIA 驱动的 AI 基础要道,以鼓舞机器东谈主、汽车、医疗和电信等行业的变革。
挪威:Telenor 集团推出了一座基于 NVIDIA 打造的 AI 工场,想法是在北欧地区加速 AI 应用,要点热心劳能源妙技进步与可合手续发展。
这些当作充分标明,AI 工场正在群众范围内马上成为与电信、能源一样弥留的国度基础要道。
走进 AI 工场:分娩智能的地点
基础模子、安全的客户数据以及 AI 用具即是 AI 工场的原材料。在 AI 工场中,推理做事、原型假想和微调塑造出苍劲的定制化模子,不错随时进入实质应用。
当这些模子被部署到真正的应用场景中时,它们会不绝地从新数据中学习。这些新数据通过数据飞轮进行存储、优化,然后再反馈到系统中。这种优化轮回确保了 AI 大略合手续地适合变化、保合手高效并不绝纠正,以前所未有的范围鼓舞企业智能化发展。
NVIDIA 驱动的 AI 工场正在大范围地分娩企业智能
欺骗全栈 NVIDIA AI 打造 AI 工场的上风
NVIDIA 提供完竣、集成的 AI 工场堆栈,从芯片到软件的每一层齐针对大范围检修、微调及推理进行了优化。这种全栈式措施确保企业大略部署经济高效、高性能且面向将来的 AI 工场,以应付 AI 的指数级增长。
通过生态系统调解伙伴,NVIDIA 打造了全栈 AI 工场的构建模块,这一全栈决议包括以下模块:
苍劲的假想性能
先进的汇集
基础要道不竭和职责负载编排
最弘大的 AI 推理生态系统
存储和数据平台
假想与优化的多样蓝图
参考架构
适用于各种企业的活泼部署决议
苍劲的假想性能
任何 AI 工场的中枢齐在于其算力。从 NVIDIA Hopper 到 NVIDIA Blackwell,NVIDIA 为这场新的工业转变提供群众最苍劲的加速假想。借助基于 NVIDIA Blackwell Ultra 的 NVIDIA Grace Blackwell 机架式处置决议,AI 工场的 AI 推理输出最高可进步 50 倍,诞生了后果和范围的新标杆。
NVIDIA DGX SuperPOD 是交钥匙式企业 AI 工场的典范,团聚了 NVIDIA 加速假想的上风。NVIDIA DGX Cloud 提供的 AI 工场能在云霄提供高性能的 NVIDIA 加速假想。
群众各地的系统调解伙伴正欺骗 NVIDIA 加速假想时期,为其客户打造全栈 AI 工场。现在的加速假想平台包括了基于 Blackwell 和 Blackwell Ultra 的 NVIDIA Grace Blackwell 机架式处置决议。
先进的汇集
大范围地传输智能需要在扫数 AI 工场堆栈中杀青高性能的无缝连结。NVIDIA NVLink 和 NVLink Switch 撑合手高速的多 GPU 通讯,加速节点里面和节点之间的数据传输。
AI 工场还需要苍劲的汇集主干。NVIDIA Quantum InfiniBand、NVIDIA Spectrum-X 以太网汇集平台和 NVIDIA BlueField 汇集平台可减少瓶颈,确保在大范围 GPU 集群上杀青高效、高糊涂量的数据交换。这种端到端的集成关于将 AI 职责负载扩张到百万 GPU 级别至关弥留,杀青了摧毁性的检修和推感性能。
基础要道不竭和职责负载编排
企业需要既能欺骗超大范围云做事提供商那样敏捷、高效且大范围的 AI 基础要道,又无需承担昂贵本钱、复杂性且具备 IT 专科常识等的包袱。
借助 NVIDIA Run:ai,企业大略无缝杀青 AI 职责负载编排和 GPU 不竭,在加速 AI 履行程度和扩张职责负载的同期,还不错优化资源欺骗率。NVIDIA Mission Control 软件集成了 NVIDIA Run:ai 时期,优化了从职责负载到基础要道的 AI 工场运营历程,通过全栈智能杀青业界开首的基础要道韧性。
NVIDIA Mission Control 简化了扫数 AI 工场堆栈的职责流
最弘大的 AI 推理生态系统
AI 工场需要合适的用具才能将数据滚动为智能。NVIDIA AI 推理平台(涵盖了 NVIDIA TensorRT 生态系统)、NVIDIA Dynamo 以及 NVIDIA NIM 微做事——这些均已成为或行将成为 NVIDIA AI Enterprise 软件平台的一部分,可提供行业内最全面的 AI 加速库和经过优化的软件套件,同期提供超过的推感性能、超低蔓延以及高糊涂量。
存储和数据平台
数据是 AI 应用的驱能源,但企业数据马上增长且越来越复杂,经常使得灵验欺骗这些数据的本钱过高且耗时过长。为了在 AI 时期茁壮发展,企业必须充分开释其数据的全部后劲。
NVIDIA AI 数据平台是一个可定制的参考假想,用于为条目苛刻的 AI 推理职责负载构建新式 AI 基础要道。NVIDIA 认证存储调解伙伴正与 NVIDIA 调解,设备定制化的 AI 数据平台,这些平台大略充分欺骗企业数据,针对复杂的查询进行推理并提供谜底。
假想与优化蓝图
为了假想和优化 AI 工场,团队不错使用用于 AI 工场假想和运营的 NVIDIA Omniverse Blueprint。它让工程师大略在部署前欺骗数字孪生时期对 AI 工场基础要道进行假想、测试和优化。通过裁减风险和不笃定性,它有助于幸免代价昂贵的停机,这关于 AI 工场的运营者来说是一个要害要素。
关于范围达到 1 吉瓦的 AI 工场而言,停机一天形成的亏空可能朝上 1 亿好意思元。通过提前舍弃复杂性并让 IT、机械、电气、电力和汇集工程等团队大略并行职责,用于 AI 工场假想和运营的 NVIDIA Omniverse Blueprint 加速了部署速率,并确保了运营的韧性。
参考架构
NVIDIA 企业参考架构和 NVIDIA 云调解伙伴参考架构为假想和部署 AI 工场的调解伙伴提供了道路图。借助包含 NVIDIA AI 软件堆栈的 NVIDIA 认证系统以及调解伙伴生态系统,企业和云做事提供商将大略构建可扩张、高性能且安全的 AI 基础要道。
基于 NVIDIA 参考架构打造的 NVIDIA 全栈 AI 工场
(*NVIS = NVIDIA 基础要道大众)
AI 工场堆栈的每一层齐依赖高效的假想来温顺不绝增长的 AI 需求。NVIDIA 加速假想是扫数堆栈的基础,它提供最高的每瓦性能,确保 AI 工场保合手最高的能效。借助节能的架构和液冷时期,企业在扩张 AI 范围的同期,还能戒指能源本钱。
适用于各种企业的活泼部署决议
借助 NVIDIA 的全栈时期,企业大略松驰地构建和部署 AI 工场,使之契合客户偏好的 IT 使用模式和运营需求。
一些机构遴荐搭建土产货 AI 工场,以便所有这个词掌控数据和性能,而另一些机构则选择云霄处置决议,以杀青可扩张性和活泼性。好多企业还会从其信托的群众系统调解伙伴那处购买预集成处置决议,以加速部署程度。
选择 NVIDIA Grace Blackwell Ultra 超等芯片的 NVIDIA DGX 系统是性能最高、范围最大的 AI 工场基础要道,它适用于企业,专为 AI 推理时期而打造
土产货部署
NVIDIA DGX SuperPOD 是交钥匙式 AI 工场基础要道处置决议,为条目最严苛的 AI 检修和推理职责负载提供具有可扩张性能的加速基础要道。它的秉性是将 AI 假想、汇集架构、存储和 NVIDIA Mission Control 软件进行了优化假想组合,使企业大略在几周内(而非数月)让 AI 工场进入使用,何况具备一流的泛荡漾手期间、韧性和欺骗率。
通过 NVIDIA 的群众企业时期调解伙伴生态系统,AI 工场处置决议也以 NVIDIA 认证系统的形式提供。这些调解伙伴提供开首的硬件和软件时期,相连数据中心系统专科常识和液冷创新时期,匡助企业裁减 AI 项想法风险,并更快地从 AI 工场投资中获取得报。
这些群众系统调解伙伴正在基于 NVIDIA 参考架构提供全栈处置决议,将 NVIDIA 加速假想、高性能汇集和 AI 软件集成在一齐,匡助其客户顺利地部署 AI 工场并大范围地分娩智能。
云霄部署
关于但愿选择云霄 AI 工场处置决议的企业,NVIDIA DGX Cloud 在开首的云上提供了一个结伴的平台,用于构建、定制和部署 AI 应用。DGX Cloud 的每一层齐进行了优化并由 NVIDIA 全面不竭,它具备 NVIDIA AI 在云霄的上风,并依托开首的云做事提供商构提供企业级软件和构建大范围的一语气集群,尤其合适为条目最严苛的 AI 检修职责负载提供可扩张的假想资源。
DGX Cloud 还包括一个动态、可扩张的无做事器推理平台,该平台在羼杂云和多云环境中提供极高的 AI token 糊涂量,显赫裁减了基础要道的复杂性和运营支出。
通过提供一个集成了硬件、软件、生态系统调解伙伴和参考架构的全栈平台云开体育全站app,NVIDIA 正在匡助企业构建经济高效、可扩张、高性能的 AI 工场,使其有才气理睬下一次工业转变。