炒股就看,权威,专业,及时,全面,助您挖掘潜力主题机会!
(来源:雷递)
雷递网 乐天 1月28日
范式智能CEO戴文渊日前表示,当下几千个不同的应用的落地都是在帮助英伟达的生态,99%以上的AI的工作都是做在英伟达的体系下。
“中美之间的AI竞争是99%都是在中国的中国人和在美国的中国人(华人)之间的竞争。但非常遗憾的一点,我们现在99%的,哪怕是在中国的中国人做的AI应用,也是英伟达体系下的,不是在国产的信创体系下。”
戴文渊指出,当前,大厂都说要搭万卡集群,搭10万卡集群。实际上,AI的两极分化是非常严重,可能头部的几家大厂,他们觉得万卡集群都小了。但对于绝大多数的商业开发者来说,他们需要的不是万卡,不是用1万张卡去跑一个模型。他们需要的是能用一张卡去跑1万个模型,否则,它的利用率就会非常低。
“当下,很多应用开发者用不掉一张卡,只能可能用1‱张卡。这不是万卡,是1‱张卡。”戴文渊说,范式智能希望能够和曦望携手一起去打造百万token一分钱的算力云。
以下是范式智能CEO戴文渊演讲实录:
雷递网创始人雷建平与范式智能CEO戴文渊合影
戴文渊:从去年开始,我看到国产算力的崛起。我从2009年开始在产业界做AI,一直以来做了很多的应用。我们范式到上市的那一天,我们统计了一下,我们大概做了22个不同的行业,做了几千个不同的应用的落地。自豪之余,又有一些遗憾,这所有的应用都是在帮助英伟达的生态。
所以去年我和徐冰在聊到这件事情的时候,我说我们作为一个中国的企业,我们应该要帮助信创产业能够把生态做好。我们确实也有这方面的能力。所以我们应该干这件事情。当然,在干这件事情之前,我们也要看到这方面的差距,因为没有差距就没有我们的价值,也不需要我们做什么。
很多人可能都是GPU公司的股东,买过的股票,买过天数的股票,买过沐曦的股票。但是我不知道在座有多少人,除了曦望的同学,就是有多少人用过国产的GPU?
我们做个类比,想象一下,就假设你打开苹果手机,你的app store里面有200万个APP,你打开了另外一个华为的手机里面大概有50个APP, 那你是觉得这个手机是性能慢呢,还是觉得这个手机完全都没法用,可能你都不会考虑这个手机的性能,也不会考虑这个手机的价格,你就直接就不用了。这是我们现在面临的一个很大挑战。
第二个就是90%,我觉得都是保守了。可能过去的大概有99%以上的AI的工作都是做在英伟达的体系下,我们现在说这个中国人挺自豪的,就是在中美之间的AI竞争是99%,都是在中国的中国人和在美国的中国人之间的竞争。甚至我们认为在中国,我们的AI人才多,我们做了很多AI的应用。未来我们在AI应用领域,我们应该跟美国比是有优势的。
但是非常遗憾的一点,我们现在99%的,哪怕是在中国的中国人做的AI应用,也是英伟达体系下的,不是在国产的信创体系下。
第三个,我分享一个数字,大概20倍。英伟达的CUDA体系下的这个核心数是什么核心数呢?什么叫核心数?大家就可以认为算子的数量大概在18000个,国产的平均在几百个。大概来说大概差20倍。
徐立总也讲到GPU的利用率问题。我们现在很多的GPU集群的利用率都是很低的。我前一段时间我和一个我们顶尖的央企在交流,他们搭了一个万卡集群,完了以后他们问我一个问题,他们说这个卡的性能都太强了。我们的应用开发者用不掉一张卡,甚至就用不掉一张卡,我们只能可能用1‱张卡。这不是万卡,是1‱张卡。
这个可能有点反常识,因为我们看到大厂都说我们要搭万卡集群,我们搭10万卡集群。实际上,AI的两极分化是非常严重,可能头部的几家大厂,他们觉得万卡集群都小了。但是对于绝大多数的商业开发者来说,他们需要的不是万卡,不是用1万张卡去跑一个模型。他们需要的是能用一张卡去跑1万个模型,否则,它的利用率就会非常低。
最后,就是国产的性价比,这是我们绕不开的一个话题。我们虽然说去年国产的卡的销量在迅速地提升,但是我们也必须承认,在去年销量提升的原因不是因为国产卡的性价比高,而是因为国产的卡能够解决安全性的问题。
很多企业买国产卡,是因为怕将来买不到英伟达的卡,所以我需要买一些国产卡作为plan b。实际上,绝大多数的国产卡现在宣称的是英伟达的H100的百分之多少的性能,或者A100的百分之多少的性能。而不是说我们的性价比比英伟达的B300要高多少。所有的问题加起来是我们现在要做国产的算力所必须面对的问题。
当然,我们看到这些数字差距是比较大的,但是我们一定要相信中国人是能解决问题的。因为美国的这些很多工作也都是中国人做的,没有道理在中国的中国人就做不了。
范式在过去几年,我们在这些领域,我们一直致力于去帮助国产卡解决一些问题。为此我们也做了一些工作。比方说,我们在去年我们发布了一个叫信创魔盒model hub XC,model hub信创。
我们致力于要打造的是叫作业界最大的信创的大模型社区,可以认为就叫作信创板的hugging face. 这个定义和中国的hugging face是有区别的。我们知道我们有很多社区,中国的社区定位叫中国的hugging face,在我看来中国的hugging face的价值不大。
因为中国的hugging face还是给英伟达用的,能做模型的人都知道hugging face在哪儿,不需要在中国再做一个镜像了。中国真正需要的hugging face是信创的hugging face,这些模型是能跑在国产的GPU上面。
在去年9月份,我们发布model hub x1的时候,我们的社区模型数量是0,到上周我们的模型数量大概是1万多,现在我们比英伟达差两个数量级。
但是我们为什么对此非常有信心?因为我们的速度爬坡非常快。我们截至上周一共是一万多个,但是上周我们适配了2500个,也就是说,我们上周适配了我们从九月份到现在的四分之一,我们能看到爬坡的速度,根据这个速度我们非常有信心能够在今年能做到10万以上的量级,做到比英伟达差一个数量级,到差一个数量级的时候。实际上我们可以认为国产的卡可能比英伟达卡稍微不好用一点。就好像苹果手机假设有200万个应用,如果华为手机有20万个应用,你会觉得华为手机还是能用的,稍微有一点不好用。
我们今年的目标达到这个,到明年,我们希望我们用中国的开发者的力量,把我们的生态应用的丰富度能够追上英伟达的社区。同时我们连续七年在打造市场份额第一的AI开发平台。这是我们一直以来给到我们的市场,我们的客户的核心价值。
在过去的十几年,我们也帮助了二十多个行业,去打造了近万个垂直的模型。实际上垂直的模型也是非常重要的。我们知道去年十月份,OpenAI关闭了财务、法务、医疗的纯专业问题的回答,这是为什么呢?这是因为通用模型它在专业领域可能答得不够好。对于这些垂直的问题,我们需要垂直的模型来进行更专业地回答。
最后,我们一直以来在打造一个叫什么呢?叫honey社区VGPU社区。这个社区是全球最大的异构VGPU的社区。什么叫异构?就是我们能支持我们的VGPU, 下面部署不同种类的卡,包括像英伟达,包括各种各样的信创的卡,因为在GPU领域,大家是一个非常大的两极分化,头部的厂商需要搭建万卡集群,除了头部的厂商,大家需要的是1‱张卡。这个时候GPU的虚拟机就是非常重要的技术。如果做不到GPU的虚拟机的技术,你是不可能去帮助广大的客户去把GPU的利用率做上。
近期,我们也推出范式版的云服务,叫作fancy cloud. 在这个fancy cloud我们提供的是基于国产的GPU上面打造一个国产的云服务算力的云服务,上面集成了我们的VGPU的技术,以及我们的开发平台,我们的信创魔盒,在信创魔盒上面,此时此刻已经能够给我们的云服务的客户提供超过上万个各种各样的模型。
在今年我们力争把这个数量提升到10万量级以上,到明年我们要追上Huggingface,我们也提供了一个叫作fancy one one神殿模型。在这个fancy里面,我们要提供我们在各个领域积累的是垂直模型的能力。使用范式的fancy cloud. 实际上我们就能够享用到源源不断的国产算力的供给。我们能够享用到范式过去积累的VGPU的能力,能够帮助客户能更好地去提升GPU的利用率。同时我们也能够基于fancy cloud能够提供开发的能力,能够提供市面上所有能够去获取到的大模型的能力,在国产的信创的算力上的调用。
最后也能够享用到范式。在过去十几年在二十多个行业的垂直模型的积累。这是我们希望我们能够给市场提供核心能力。但是刚才也看到,我们有一项我们没有提到就是性价比。性价比不是一家软件公司独自能够提供的。我们也非常高兴能够看到曦望的出现,曦望的出现,让我们看到了国产算力和英伟达相比的性价比的机会。我们也非常高兴今天能够看到启望S3的发布,能够看到百万token一分钱的这样的一个计划。
我们也非常高兴能够参与到这个计划,能够和曦望携手一起去打造百万token一分钱的算力云。我们曦望在中国,我们推出国产的算力,我们不仅仅是给我们各个市场的客户去解决他们的安全性问题。当然,安全性问题也很重要。除此之外,我们也希望中国的算力是全世界最便宜的。
今天我们希望和曦望一起借着启望S3的发布,也希望未来S4S5的发布,曦望一起去打造fancy cloud. 基于希望的fancy cloud, 一起为全世界提供最便宜的算力。
雷递由媒体人雷建平创办,若转载请写明来源。