北京时间3月20日消息,Oracle 和 NVIDIA 宣布扩大合作,为全球客户提供主权 AI 解决方案。Oracle 的分布式云技术、AI 基础设施和生成式AI 服务,再加上 NVIDIA 加速计算和生成式 AI 软件,共同协助机构组织部署 AI 工厂(AI Factories)。这些 AI 工厂可以在本地使用云端服务,并在国家/地区或组织的安全场所内使用一系列操作控制功能,以促进多元化和经济成长,达成目标。
甲骨文公司首席执行官Safra Catz 表示:“随着 AI 重新塑造全球商业、行业及政策,各国及组织必须强化数字主权,才能保护宝贵的数据。我们与 NVIDIA 持续合作,同时凭借我们在本地快速部署云区域的优势,将确保在安全的情况下推动社会利用 AI。”
英伟达公司创始人兼首席执行官黄仁勋表示:“在生成式 AI 驱动创新的时代,数据主权关系到文化和经济发展。Oracle 的整合云技术应用和基础设施,与NVIDIA加速计算和生成式 AI 服务相结合,赋予各个国家和地区所需的弹性和安全性来掌控数据主权。”
统包式解决方案可协助客户应对数据主权要求
NVIDIA 全栈 AI 平台与 Oracle 的企业级AI (可在 OCI Dedicated Region、OracleAlloy、Oracle EU Sovereign Cloud 和 Oracle Government Cloud 上部署) 相结合,为客户提供先进的 AI 解决方案,以更好地管理运营、位置和安全性,有助于掌控数字主权。
全球各国/地区都在加大对 AI 基础设施的投资,以推动文化和经济发展。在 26 个国家/地区的 66 个云区域中,客户可以访问涵盖基础设施和应用的超过 100 个云端和 AI 服务,以支持IT 迁移、现代化和创新。
客户可以透过公有云或特定位置的客户数据中心部署这两家企业的组合产品,并享有灵活的操作控制。Oracle是能够在本地提供 AI 和完整云端服务的超大规模供应商。OCI 服务和定价在不同部署类型之间保持一致,以简化规划、可移动性和管理。
Oracle云技术运用一系列 NVIDIA 堆栈,例如 NVIDIA 加速计算基础设施和 NVIDIA AI Enterprise 软件平台,其中包括新推出的 NVIDIANIM™ 推理微服务。这些微服务建立在 NVIDIA TensorRT™、NVIDIA TensorRT-LLM 和 NVIDIA TritonInference Server™ 等 NVIDIA 推理软件的基础上。
采用主权 AI 解决方案的先驱
瑞士银行业软件提供商 Avaloq 借助 OCI Dedicated Region,将完整的 OCI 公有云区域导入自己的数据中心。
Avaloq 首席技术官Martin Büchi表示:“OCI Dedicated Region符合我们的承诺,尽可能地控制数据驻留,同时提供对云基础设施的访问,这为我们持续推动银行和财富管理机构的数字化转型提供了支持。”
新西兰信息管理服务提供商 TEAM IM 选择 Oracle Alloy 来打造新西兰第一个本地拥有及营运的超大规模云端TEAMCloud。
TEAM IM 首席执行官Ian Rogers 表示:“新西兰的企业越来越希望利用云技术的强大功能,同时借助独特的超大规模云技术解决方案保护境内的数据完整性。通过使用 Oracle Alloy以及将 NVIDIA AI 平台整合到我们的云端服务中的可能性,我们能够成为一家云服务供货商,协助公共部门、商业机构和当地组织应对复杂的数字环境,更好地推进数字化转型。”
阿联酋电信运营商e& UAE与 Oracle 合作加强其 AI 功能,并计划在 OCI Dedicated Region中部署 NVIDIA H100 TensorCore GPU 集群。
e& UAE 首席技术与信息官Khalid Murshed 表示:“OCI能够让我们在自己的 OCI Dedicated Region中部署 NVIDIA H100 GPU集群,并托管在 e& UAE的数据中心。这样本地化的解决方案将让我们加速AI 创新,帮助我们大规模开发新的生成式 AI应用和用例。这与 e& UAE 致力于引领创新和重塑未来技术的转型努力相一致,我们专注于推动AI发展,提供优质的客户体验。”
借助 NVIDIA Grace Blackwell ,强化 OCI Supercluster 和 OCI Compute
为了协助客户应对 AI 模型不断增长的需求,Oracle计划在 OCI Supercluster 和 OCICompute 中利用在 GTC 大会上新发布的 NVIDIA Grace Blackwell 计算平台。凭借新的 OCI Compute 裸机实例、超低延迟 RDMA 网络和高效能储存,OCI Supercluster 的速度将显著加快。OCI Compute 将同时采用 NVIDIA GB200 Grace Blackwell Superchip 与NVIDIA Blackwell B200 Tensor Core GPU。
NVIDIA GB200 Grace™ Blackwell Superchip 将赋能新的计算时代。与上一代GPU 相比,GB200 的实时大型语言模型 (LLM) 推理速度提高了30 倍,TCO降低了25倍,所需能耗减少了25倍,从而增强了AI 训练、数据处理以及工程设计和仿真的能力。NVIDIA Blackwell B200Tensor Core GPU 专为关键的 AI、数据分析以及高效能计算 (HPC) 工作负载而设计。
NVIDIA NIM 和 CUDA-X™ 微服务 ,包括用于检索增强生成 (RAG) 推理部署的NVIDIA NeMo Retriever,也将协助 OCI 客户使用自己的数据为其生成式 AI copilots和其他生产力工具带来更多洞察,并提高准确性。
NVIDIAGrace Blackwell 现已在 OCI 上的 DGX Cloud 提供
为了应对客户对日益复杂的 AI 模型不断增长的需求,这两家企业将在 OCI 上的 NVIDIA DGX™ Cloud 提供 NVIDIA Grace Blackwell。通过这项联合设计的超级计算服务,客户将能够访问新的 GB200 NVL72 型实例,该服务专为在万亿参数 LLM 时代进行节能训练和推理而设计。
完整的 DGXCloud集群建置将包含超过 20,000 个 GB200 加速器和 NVIDIA CX8 InfiniBand 网络,提供可高度扩展且高效能的云基础设施。该集群将由 72 个 Blackwell GPU NVL 72 和 36 个配备第五代 NVLink™ 的 Grace CPU 组成。
(8615923)