首页 / 数码 / 英伟达推出算力租赁服务,AI不再是“富人游戏”

英伟达推出算力租赁服务,AI不再是“富人游戏”

要说在如今ChatGPT掀起的人工智能浪潮中受益最多的厂商,除始作俑者OpenAI外,吃到了最大一块蛋糕的可能就是英伟达(NVIDIA)这个在许多玩家眼中卖显卡的半导体巨头。

无论是ChatGPT/GPT-4、还是百度的文心一言,它们表现出的智能化背后不仅仅有来自肯尼亚的数据标签工,更需要用庞大的算力来作为支撑。然而,并不是每一家AI初创企业都有能力建设属于自己的算力矩阵。为此,日前英伟达方面提出了一个新的模式——租算力。

近日英伟达CEO黄仁勋宣布了DGX Cloud计划,将面向商业客户开放用于开发ChatGPT等人工智能技术的超级计算机,几乎任何企业都可以用云租赁的方式,使用这些强大、但成本昂贵的设备。对此他在英伟达年度GTC(GPU Technology Conoference)开发者大会上更是表示,“人工智能的iPhone时刻已经开启”。

如果说AIGC的破坏性创新已经到来,诸多创业公司正在竞相建立颠覆式的商业模型,那么业界巨头同样也在寻求应对之道。

据悉,英伟达的DGX Cloud是其与甲骨文等合作伙伴打造的云服务,任何人只要有网络,就可以登录集成了多达3.2万个英伟达芯片的超级计算机。具体来说,这个包含8个Ampere A100或Hopper H100旗舰HPC加速器,每个节点共有640GB显存的套餐价格是每月3.7万美元。虽然咋一看这个价格并不便宜,然而Ampere A100和Hopper H100本身就很贵,如果是购买所需的花费更是远不止这个数。

其中,Ampere A100是英伟达在2020年推出的产品,这款专为人工智能、数据分析、科学计算打造的GPU芯片,与常规意义上的RTX显卡有着巨大的差异。它的GPU芯片“占地面积”高达826平方毫米,容纳了540亿个晶体管,有6912个CUDA核心排列在108个SM单元中,还具备432个张量核心,HBM2显存容量为40GB,带宽达1.55TB/s,售价更是高达15000美元。

Hopper H100则拥有800亿个晶体管,相比上一代的Ampere A100有着六倍的性能提升,以及两倍的MMA改进。尽管英伟达方面一直没有公开其官方建议零售价,但显然其要比Ampere A100贵得多。

那么搭建一个类似ChatGPT的大语言模型需要多高的算力呢?据市场调查机构TrendForce发布的报告显示,如果以Ampere A100的算力来计算,运行算力消耗高达3640PF-days(即假如每秒计算一千万亿次,需要计算3640天)的ChatGPT需要至少3万块Ampere A100。

这是一笔多么大的数字呢?如果全部按零售价计算,OpenAI则需要支付4.5亿美元。实际上,OpenAI背后的微软确实花了数亿美元来为ChatGPT搭建了超级计算机,并且用的还不是Ampere A100、而是最新的Hopper H100 Tensor Core。

但事实上,除了建立超极计算机所需的硬件是一笔天文数字外,让大语言模型能够跑起来需要的能源、也就是电力成本,也同样惊人。

一块Ampere A100的功耗是400W,那么3万块Ampere A100的功耗就是12MW,再算上硬件方面的投入,最终的结果就造成了这无疑是个不折不扣的“富人游戏”,以至于“用ChatGPT编程比招一个程序员更贵”这样的段子,其实并非开玩笑。对于微软、谷歌、百度这样的巨头而言,这样的成本显然并不会成为障碍,但对于中小团队来说,如此巨大的成本几乎就是一座不可逾越的大山。

而英伟达推出租赁算力服务,为的就是让更多创业者参与进来,特别是参与到大语言模型的市场竞争中。英伟达的商业模型就是向B端用户销售以Ampere A100和Hopper H100为代表的先进算力,毕竟在他辛辛苦苦建立了CUDA生态后,自然是希望有更多的参与者加入进来,所以租赁算力也成为了英伟达为培育市场所作出努力的缩影。

如果说建立大语言模型只有堆砌算力这一条路,那么英伟达方面显然大可高枕无忧。毕竟在面向深度学习的计算芯片业务中,唯有英伟达既拥有优秀的硬件架构、又具备完善的软件生态,所以对于想要在AI领域有所作为的参与者来说,购买英伟达的硬件、加入CUDA生态才是最有性价比的选择。

但非常遗憾的是,诸如斯坦福大学推出的大语言模型Alpaca横空出世,让初创企业参与大语言模型的市场竞争时又多了一个选项。

据悉,Alpaca是基于Meta的LLaMA 7B大语言模型开源的产物,仅使用了52k数据在8个80GB规格的Ampere A100上将70亿参数训练了3个小时,再算上生成数据使用OpenAI的API,总成本还不到600美元,最终却实现了可比肩GPT-3.5的表现。所以Alpaca也证明了不仅仅是参数达到千亿以上规模的大模型能成功,中小尺寸的模型同样可能也具备一定的可用性,并能够用更小的算力成本在特定的场景下,获得大模型80%甚至95%的能力。

如果创业者不再去“卷”大语言模型,而是学习Alpaca做垂直领域的中小尺寸模型,那么英伟达的加速卡又要卖给谁呢?所以他们也需要降低门槛,来让更多的参与者有机会用上更便宜的算力才行。

本文来自网络,不代表今日新闻立场,转载请注明出处:https://www.newstoday.cc/v2jGr3e.html
上一篇
下一篇

为您推荐

返回顶部