随需应变、弹性高效的按需服务实现企业快速导入NVDIA GPUs极速算力
深耕于台湾的GMI Cloud,利用其供应链优势,为企业提供即时且价格合理的NVIDIA GPU算力,协助企业用户在人工智慧竞争中保持领先地位。
加州圣塔克拉拉--(美国商业资讯)--专为⼈⼯智慧和机器学习⼯作负载设计的新兴GPU云端平台GMI Cloud,正在加快NVDIA GPU的应用步伐。今日正式推出全新的即时云端运算服务,专为致力于应用人工智慧的企业量身打造,协助其实现从原型设计到产品化的全新可能性。用户可透过弹性高效的按需服务实现企业快速导入NVDIA GPUs极速算力。
AI运算需求急速激增
目前,随着市场对人工智慧运算能力的需求急速激增,迫使企业须采取更具策略性的应对措施。在快速变化的环境中,企业通常需支付25-50% 的预付款,并签订为期三年的合约,以获得6-12 个月后部署GPU 运算基础架构的承诺。然而,人工智慧的迅速变革要求企业具备更灵活的运算能力,以适应不断变化的需求。
即时GPU,无限AI
凭借与瑞昱半导体(Realtek Semiconductors, TPE: 2379)和弘忆国际(GMI Technologies, TPE: 3312)的合作关系,以及台湾强⼤的供应链⽣态系统, GMI Cloud能够确保更快速的部署和更⾼的营运效率。相较于其他地区的GPU供应商, GMI Cloud在台湾的实体运营将GPU交付时间从数⽉缩短⾄数天,大幅提升市场竞争力。 GMI Cloud正迅速成为市场最具竞争⼒的新成员。
GMI Cloud创办⼈兼执⾏⻑ Alex Yeh表示:“我们的使命是透过即时、⾼效的GPU云服务,为⼈类的⼈⼯智慧雄⼼壮志赋能。我们不仅仅是在建构云,我们更是在打造⼈⼯智慧时代的根基。GMI Cloud致⼒于改变开发⼈员和资料科学家利⽤ NVIDIA GPU的⽅式,以及全⼈类从⼈⼯智慧中获益的途径。”
为何重要
技术领导者们正积极抓住人工智慧浪潮带来的商机,而各种规模的企业在获取运算能力方面却面临重重障碍。
例如,中小型企业往往没有足够的预算或长期规划来支付安装大型GPU 的前期费用。他们需要根据自身发展情况灵活地扩大或缩小规模,这意味着将GPU 的费用作为运营支出而非固定资本支出,从而将资金投入于招聘有竞争力的人工智慧人才。按需存取GPU 运算为这些团队提供一个即时、具成本效益且可扩展的选择,无需具备特殊技能即可建立基础架构。
⼤型企业也同样⾯临挑战。例如,企业技术团队需灵活地对⼈⼯智慧应⽤进⾏实验、原型设计和评估,以便在⼈⼯智慧浪潮席卷⽽来之前领先于竞争对⼿。然⽽,并非所有企业都愿意签署长期合约,也不一定愿意投入大量资本到未经证实的运算储备中。透过即时存取GPU的灵活性,这些技术研发团队,可轻松运⾏多组⼤型资料集的处理或微调模型的原型专案,⽽无需承担重⼤投资风险。
即刻开始
GMI Cloud是⼀个由NVIDIA提供⽀援的GPU云端平台,拥有丰富的Kubernetes管理预载软体堆叠,专为⼈⼯智慧和机器学习⼯作负载设计,该平台包括使⽤ NVIDIA TensorRT的预建构影像,并即将⽀援NVIDIA Triton等推理伺服器在内的所有NVIDIA预建构容器。相比于业界大型企业为了将使用者锁定在更大储备包中而收取高达四倍的按需存取费用, NVIDIA H100 Tensor Core GPU的价格极具竞争⼒ ,仅有4.39美元/ ⼩时,这使得GMI Cloud 能够提供经济实惠的按需存取服务。 GMI Cloud 的执⾏个体类型和⼤⼩的设计⽬的是为了有效地部署、微调和推理各种模型,这些模型的⼤⼩涵盖Llama3 8b、 70b、Mixtral 8x7b、Google Gemma、以及Stable Diffusion等。
关于GMI Cloud
GMI Cloud是一家由创投支持的AI云端基础建设公司,结合即时GPU可用性和无限的人工智慧潜力。该公司也是Realtek Semiconductor和GMI Technology共同策略支持的新创公司。作为领先的人工智慧原生GPU云平台,我们提供对最新GPU的快速存取,并专注于针对人工智慧和机器学习工作负载进行优化。我们的平台确保顺畅的可扩充性和顶尖的效能,以满足初创企业、研究人员和企业的多变需求。透过GMI Cloud体验按需GPU的强⼤功能,释放无限的⼈⼯智慧潜能,让您能够更快、更智慧、更具成本效益地进⾏创新。
责任编辑:interfax
图片版权归原作者所有,如有侵权请联系我们,我们立刻删除。
随机文章