NetApp發布全新高效能EF系列產品
加州聖荷西--( BUSINESS WIRE)--(美國商業資訊)-- 智慧資料基礎設施公司NetApp® (NASDAQ: NTAP) 今日宣布推出新一代NetApp EF系列儲存系統,旨在為大規模高效能工作負載提供強大支援。EF50和EF80的發布將協助企業和新型雲(neoclouds)滿足人工智慧(AI)、高效能運算(HPC)和交易式資料庫與日俱增的需求,包括主權AI雲端和AI驅動型製造等新興應用場景。
「資料是企業創造業務價值的關鍵要素,也是AI或資料庫等高效能工作負載的基石。」NetApp企業儲存資深副總裁暨總經理Sandeep Singh表示,「企業面對的是與日俱增的資料量和對效能要求極高的應用,例如AI模型訓練、AI推理和HPC等,他們需要能夠提供速度、可擴展性和效率,同時又不增加複雜性的基礎設施。NetApp提供全面的產品組合,涵蓋從資料收集和準備,到將其輸入到產生業務洞察的生成式AI模型的AI資料管道各階段。全新EF系列系統專為極致效能而打造,能夠幫助客戶快速且有效率地部署和擴展高吞吐量、低延遲的工作負載,同時減少資料中心佔用空間和營運成本。」
全新EF50和EF80系統與Lustre或BeeGFS等高效能平行檔案系統結合,可加速HPC模擬,並透過高效能塗銷空間充分利用GPU,幫助企業以合理的價格釋放新的價值並獲得競爭優勢。從推動AI創新的新型雲服務商到管理海量媒體庫的電影製片廠,各類客戶不僅能受益於卓越的效能和可擴展性,還將獲享強大的安全措施,從而保護敏感資訊並防止資料遺失。
全新EF系列儲存系統讀取吞吐量超過110GB/s,寫入吞吐量超過55GB/s,較上一代產品提升250%。該系統能源效率高達63.7GB/s/kW,2U機櫃即可提供1.5PB的儲存容量,在確保可靠性和高效能的同時,實現高效率的機櫃密度和經濟實惠的價格。透過EF系列,企業可以:
「隨著我們邁入AI時代,許多企業發現他們需要最大限度地提高原始效能,才能從資料中挖掘最大價值。」CDW資深解決方案架構師Clayton Vipond表示,「全新升級的NetApp EF系列能夠提供企業所需的吞吐量和容量,從而擴展高效能工作負載,將資料轉化為洞察和成果。」
「NetApp的EF系列系統為Teradata提供了所需的儲存效能,足以支援我們最高要求的工作負載。」Teradata產品長Sumeet Arora表示,「我們非常感謝NetApp持續投資於這項技術,並隨著新型號效能的提升,我們期待探索各種機會,以簡化基礎設施的複雜性,並支援客戶所重視的AI與資料現代化計畫。」
「NetApp提供支援Lustre和BeeGFS等平行檔案系統的高效能儲存解決方案,因而在新型雲等新興產業崛起以推動AI時代的進程中嶄露頭角。」Omdia首席分析師Simon Robinson表示,「我們的研究證實,AI工作負載所需的原始效能水準是迄今為止任何主流商業工作負載都無法比擬的。NetApp透過全新的EF系列系統提供了一套解決方案,能滿足大型AI專案的效能需求,無論是模型訓練還是推理。」
更新後的EF系列系統建立在NetApp數十年來累積的耐用性和可靠性之上。該產品已安裝超過100萬次,擁有值得客戶信賴的良好口碑。
更多資源
關於 NetApp
三十多年來,從企業級儲存的興起到資料和AI定義的智慧時代,NetApp一直協助全球一流組織因應各種變革。如今,NetApp已成為智慧資料基礎架構公司,協助客戶將資料變為創新、韌性和成長的觸媒。
這一基礎架構的核心是NetApp資料平台——一個統一的企業級智慧基礎,用於連接、保護和活用各種雲端、負載和環境中的資料。該平台憑藉我們首屈一指的資料管理軟體和作業系統NetApp ONTAP的成熟能力建構,並藉助AI資料引擎和AFX的自動化功能加持,實現大規模的可觀測性、韌性和智慧。
NetApp資料平台採用分解式設計,將儲存、服務和控制相互隔離,確保企業可以更快實現現代化,高效地進行擴充,並在創新時避免廠商鎖定。身為唯一可原生內建到全球大型雲端的企業級儲存平台,它讓各類組織都可靈活地在任何地方運行任何工作負載,並保持統一的效能、治理和保護。
使用NetApp時,資料始終保持就緒,可隨時抵禦各種威脅、支援AI的需要以及實現下一次的顛覆創新。這正是全球最有遠見的企業都信任NetApp,透過它將情報變為優勢的原因所在。
了解更多 www.netapp.com 或关注我们在 X, LinkedIn, Facebook, 和 Instagram.
NETAPP、NETAPP標誌和 www.netapp.com/TM 上列出的標記是NetApp, Inc.的商標。其他公司和產品名稱可能是其各自所有者的商標。
免責聲明:本公告之原文版本乃官方授權版本。譯文僅供方便瞭解之用,煩請參照原文,原文版本乃唯一具法律效力之版本。