文|《中国企业家》记者 孔月昕
|马吉英
头图摄影|邓攀
从2024年下半年以来,零一万物改变了商业化落地策略,在国内优先发展to B领域。李开复也开始在接触传统行业的过程中,深入学习他们的to B业务。 他认为这个“很有意思”。
作为大模型to B商业化的开拓者之一,零一万物正为公司业务拓展疯狂运转,并尝试了新的商业模式:并非传统to B公司的招标竞标,而是走“高层路线”,依靠高管团队积累多年的工作经验和人脉资源,采取“Boss直销”,对方公司高层看好就可以拍板执行。
不只是李开复,零一万物的联合创始人祁瑞峰也是“Boss直销”的一员。10月底,在《中国企业家》采访他的几分钟前,他还在跟B端客户沟通业务。
零一万物联合创始人祁瑞峰 来源:受访者
在祁瑞峰看来,“有毛利的增长才是王道。”零一万物希望能够用大模型重构或者差异化赋能客户,给客户带来价值。即帮助用户实现GMV、毛利、收入、用户等方面的增长;帮助客户降本增效。比如在智能客服领域,大模型的自动回复可以半替代人工,优化此前过于冗长的回复流程。
尽管零一万物的大模型预训练成本仅有OpenAI的3%,但李开复表示,他们不会走OpenAI的路线,“烧不出个伟大的公司会把自己烧死”。
目前,零一万物在零售、游戏、能源等四个行业进行了to B商业化落地尝试,并与百胜中国、孩子王、图灵新智算、乐淘互娱、直客通等公司进行了签约合作。乐淘互娱创始人陈建武表示,今年国庆假期期间,他们用零一万物的数字人在商超测试直播时,通过一个数字人12小时的连续直播,GMV达到了300万元,核销占70%。李开复预计, 今年下半年开始启动的to B业务,有望在今年给零一万物带来可观的营收。
近期,李开复接受《中国企业家》专访,分享了他对商业化、融资等话题的思考。
精彩观点如下:
1.to B方面,我们坚决的方向是深度了解客户的需求,只做那些对客户有巨大帮助、帮助大到客户愿意给我们付费的业务。
2.坚持做跟客户双赢(的生意)。如果整个行业都是需要做一单赔一单的to B氛围,它本身就很难扶持起来。
3.过去说百模大战,现在肯定没有百模在做预训练了。这是一个健康的事情,因为有了开源的存在,就可以间接地帮助那些自己的水平不高于开源的模型,不要浪费资源。
4.每个公司都有好的工程团队,但目标对,工程团队才能做出正确的产品。
5.无论是多伟大的科技,最终的灵魂拷问都是从商业模式和商业判断来说,公司值不值它的估值。
6.要做一个很漂亮的PNL(Profit and Loss),每花掉一块钱,就能看到财务状况在进步,进步到钱还没有花完的时候,就会有财务投资人、后期投资人,甚至二级市场追着上来。
以下为李开复对话整理,有删节。
to B商业化要做到不踩坑
《中国企业家》: 现在我们行业有被媒体称为AI六小虎的说法,您是怎么看待AI六虎的说法?对于头部玩家而言,现在各家商业化路径不太一样,有的to B,有的to C,有的可能走一些垂直的路线。
李开复: 零一万物主要看自己走什么路,不太关注大家要算有多少只“老虎”,你们怎么算都行。 我们认为最重要的是模型技术要挤进世界第一梯队,同时要把推理成本降低,这样才能有很多应用会产出,这时候我们就会做to C的应用。
摄影:邓攀
我们to C的应用先做国外,之后再做国内,理由是国外的付费意愿比较高,先探索商业化最快的路径,国内以后也会有机会。to B方面,我们坚决的方向是深度了解客户的需求,只做那些对客户有巨大帮助、帮助大到客户愿意给我们付费的业务,觉得真的帮助到他们赚到钱。
《中国企业家》: 在国内,to B的生意不是特别好做,零一万物怎么找到跟行业结合的切入点?
李开复: 我们刚开始做to B必须要聚焦,我们内部分析了哪些领域可能是最有商机的领域,因为我们确定了不做这种“不赚钱的项目制”。我们觉得要赚钱,就一定先要帮助客户赚更多的钱,他才会分一些给我们。
我可以描述几个不同的探索。一是找到了一家国外的世界100强的公司,它希望打造属于自己的模型,需要买一个全栈的AI技术,但OpenAI这种公司认为有些东西是机密,不可以卖。我们就跟这家公司说,我们全部可以卖给你,因为我们知道他买了一套以后,再过半年我们可能有新的升级机会,我们又不担心这家传统企业来跟我们竞争。所以我们在做一个方案,把全部技术打包卖给他,不是把IP给他,而是做成APP让他去用,等于让他也有一个制造模型的流程。
其次,我们看到一个特别巨大的机会——国内很多城市都有很大的数据中心,想转型升级成为计算中心。在整个数智化过程中,AI的基础架构特别重要。然而通常数据中心一般不具有AI基础架构的能力,我们就把自己的一整套能力,打包起来卖给数据中心,让它再转卖给其他使用者,这也是一个可行的商业模式。
第三是有关大模型数字人解决方案。我们正好有一些相关技术,对接了多家国内头部的线下零售、餐饮连锁品牌,了解了它们真实业务的需求。这些客户的本地生活的业务需求不是随便买个数字人,它的痛点其实是在某个小区开店,店长要出来做直播,但问题是店长还忙着开店,哪有时间做直播?能不能给他做个直播分身,同时也要做语言生成?
只有数字人,没有大模型是无法进行以最低的成本真正有效拉动GMV的直播的。此外还有很多技术,比如语音生成怎么去做一个直播语境,以及跟它的数据库对接?我们卖的是一套完整的解决方案,这样开连锁店的店主,他只要做几个选项,按一个钮,他的形象就开始做多个直播了。我们把本来可能需要好几个人、背后做好几天的工作,简化成导入数据按一个钮的工作。这样就可以不只是请KOL来做直播,而是店店可直播,甚至有一天人人可直播。
要做刚才我说的软件,就不是一个标准大模型公司可能会选择做的事情,因为里面有很多跟大模型无关的内容。但是我们不是从卖模型的角度去做这样一个生意,而是从我要来帮助它做直播,打造增加GMV需要的解决方案的角度。量身定做的方案卖给它之后,再去卖给其他分店,进而卖给别的公司。
我们除了数字人解决方案,也提供AI Infra解决方案等to B产品矩阵,也在跟金融、能源、政务等领域头部客户合作。在这样的几个领域里面,我们首单就能拿到相当大的收入,靠这个收入再继续投入工程师,帮助客户把方案做得更完整,再迭代成为产品。
最后这几个领域是不是都会成为我们很重要的方向?也不一定。 我们要看我们多大程度能够解决客户的问题,解决方案多大程度能够被抽象提炼出来。大模型时代把传统to B“非标化、定制重、交付重”等模式颠覆了,想象空间很大。
《中国企业家》: 之前AI数字人公司做不起来,可能就是因为没有足够多的行业数据,对于你们来说有这种困惑吗?
李开复: 我觉得不要说数字人做起来做不起来,大模型时代的来临,把一切都改变了。
以前AI 1.0时代做客服也做不起来,现在大模型来了,客服就做起来了。以前AI 1.0时代的聊天机器人,也没怎么做起来。现在这些聊天机器人,比如ChatGPT,因为有大模型就做起来了。 大模型本身就是让人能够更泛化地用语言去沟通。 过去我们很多APP是用图形、用户界面、手势来管理,现在我们能够升级到生成式AI语言来沟通聊天,所以它可以激活很多应用和机会。
我们现在就是坚持做跟客户双赢(的生意)。如果整个行业都是需要做一单赔一单的to B氛围,它本身就很难扶持起来。我相信大模型的价值是巨大的,它把切入的成本大大降低,把对话交流的能力大大提升,应该可以找到很多给客户创造巨大价值的场景,我们也会有机会做一些收费。零一万物将采取“一横一纵”的打法,充分发挥Yi系列基座模型的横向泛化能力,在行业纵向做深做透,构建专注于垂直行业场景的企业级应用。目前,仰赖“Infra+模型+应用”三位一体布局,我们构成了一整套“从AI Infra到模型,再到应用”的全行业to B解决方案。
《中国企业家》: 那这些场景是怎么探索的?前期遇到哪些挑战或者困难?尤其是撬动第一家客户的时候。
李开复: 因为我们有两个很牛的人,一个是在to B方面的技术人,一个是在to B方面的销售。
我们的技术产品有口碑,几位高管经验比较多、有很多人脉,加上清晰的价值主张,就说服了客户。
我们已经与中国领先的餐饮公司百胜中国、中国母婴童零售行业头部品牌孩子王、新型智能算力运营服务厂商图灵新智算、知名内容营销一站式服务商乐淘互娱、数字化营销服务商直客通等签约。
《中国企业家》: 一些大厂在电商直播领域也非常有优势,而且大厂也有自己的AI大模型,将来零一万物会不会跟大厂直接竞争?
李开复: 我们做的每一项技术都有可能有大厂在做,但我们做每一项技术都要考虑自己是不是有技术优势或品牌优势。
在考虑完整的前提之下,就往前走,我们不会去过度担心哪个大厂做了什么。
《中国企业家》: 零一万物现在明确要to B转型,现在很多大模型公司都在着急实现商业化落地,接下来会不会出现B端的竞争或者价格战?
李开复: 我觉得本身就不是价格的问题。如果你这单收2000万,客户只愿意付你1500万,这其实就不是一个真正认可你价值的客户。 我们要找的就是有科技洞察和商业远见的客户,他会认为我解决这个问题是值20亿的,我收你1500万、2000万都是OK的。 而且目前这些单子,我们都是单一在做,所以还没有看到竞争。
当客户对我们有信任,我们一对一就能把这个deal谈成,所以没有什么比价的过程。
我希望可能是倒过来的:那些花两三百万做个项目不满意的公司,也许过一阵看到别家花了2000万,得到了两个亿的价值,他是不是也考虑多花点钱,让大模型提供商深度帮助他,从而创造巨大的价值,而不是比谁的价钱最低,这样大模型公司也没有动力做得很好,客户也得不到价值。我们是要良性循环的。
《中国企业家》: 零一万物现在to B领域有几个主要的产品,你们对每个产品的营收预期大概如何?哪个产品占的比例可能会比较大?
李开复: 其实我们都还在初期,很难看得出来。比如说我们帮着电商直播行业做的就是一个完整的数字人加大模型的解决方案,能够一键即直播。我们帮计算中心做的就是AI Infrastructure的一套软件,卖给他以后,他就可以在数据中心的CPU、GPU的基础之上,帮助运营模型的训练和推理。现在都还是比较垂直的,我觉得还要再观察一阵。
不过谈到收入预期,我们今年作为to B的第一年,下半年开始做,短短两个季度就已经有预期很可观的收入,明年会再继续增长。
预训练开始“挤泡沫”
《中国企业家》: 近期国内一些模型公司或者大厂,有的可能已经决定不做预训练了,您之前称零一万物要坚持做预训练,怎么看待这两种抉择?
李开复: 整个模型训练分两个过程,第一部分是预训练,即把全世界的知识丢进去,等于是让一个孩子读到高中毕业;再下面去微调,针对人类的需求或问答的优化,去做一些调整,最后还有推理。预训练既可以自己从零训练起,也拿别人的开源模型,然后做下一个阶段的后训练。
所以要不要做预训练,问题很简单,只有两个部分。第一个部分就是我自己能不能预训练出一个比开源好的模型,如果不能,肯定就要放弃预训练。如果我能训练出来,它好得够不够多,只好一点点可能也不值得。
第二个部分就是我做这个预训练要花多少钱,有没有这样的预算,而且训练出来以后它能用多久?有人说模型是世界上折旧最差的东西,因为往往出来一个模型,4个月以后就有了新版本。一个(模型的)生命周期如果只有4个月,肯定是不行的。
但我们预训练出的模型远远打败了开源模型,所以肯定自己要做。 当然务实地说,如果哪天开源模型打败了我们,我们肯定也要思考是不是就别做了。
李开复 来源:受访者
决定要做预训练后,我们怎么样才能确保它不要带来特别昂贵的成本?一个就是训练之前要思考周密,把训练的成本降到最低,所以我们的300万美元已经是远远低于绝大多数公司的了。据我们所知,可能只有一家公司跟我们成本差不多。
模型既然做了这么周密的计划,训练出来了,让它的生命周期拉久一点,300万美元如果分摊在10个月,就不那么贵,如果4个月就换掉,那太贵了。我们要考虑这几件事情,才能确保我们要做预训练。
为什么一家公司可能不做预训练呢?一是做得不比开源好,或者好不了多少。二是能比开源做得好,但是公司钱不够,或者是花钱太多、周期太短。 过去说百模大战,现在肯定没有百模在做预训练了,这个数字是5家,还是10家,我们也不知道。但这是一个健康的事情,因为有了开源的存在,就可以间接地帮助那些自己的水平不高于开源的模型,不要浪费资源。如果没有开源,“100家”可能都要做下去,最后把钱烧完才放弃,太浪费整个社会的经济资源。
《中国企业家》: 所以您觉得这是一个挤泡沫的阶段吗?目前已经这么快进入到这个环节了?
李开复: 我觉得成本较高,加上有开源做选项,就会让那些理智的大模型创业者,在钱烧完之前,发现自己钱或者水平不够了,就放弃,这是一个非常好的现象。
《中国企业家》: 零一万物用2000张卡去追赶OpenAI10万张卡的效果,你们内部有哪些降本增效的方法论?
李开复: 他们的10万张卡跟我们的2000张不能直接可比,总有几十倍的差距。而且他们是第一个做的,往往会花更多的探索成本,在希望快速跑出来的时候可能会犯一些错误。 基于晚五六个月的前提之下,我们可以做到训练成本是OpenAI的3%左右。 怎么做到的呢?我觉得要同时拥有对硬件深度的理解,还要有一个很强的基础架构团队和模型团队。
很多模型团队,尤其像OpenAI、谷歌这种公司,他们不喜欢别人给他们做一些框框架架,他们觉得可以去随心所欲地探索,用大量的机器资源做出超棒的结果,再看怎么进入产品。
我们的思维不同,最终做模型的目的是要能够打造应用。 今天推理成本太高,无论是用户付费,还是广告商付费等商业模式,都承受不起。怎么把推理成本下降?推理成本最贵的是GPU。如何少用GPU,能不能用内存来代替GPU计算,能不能找有非常大的HBM的GPU,还有能不能用CPU上面的内存和SSD去做一些缓冲?怎样设计一个超大缓存模型,让推理时做最小的计算,最多地从内存里面调用,这是我们大致思路。
然后你要做一个推理引擎,别的API调过来,你的引擎怎么去回它的API,这个引擎就应该去适配我刚才说的多层内存的架构,用内存降低计算,我们的推理引擎也是量身定做的。
最终要把产品都部署在这台机器上,有多少个GPU,用什么样的CPU等,在这个基础上我们再去决定我们能做什么样的研究。这个研究不是说拍脑袋想做什么做什么,一定要能够正好把PC塞满,但是不能塞得太满,才能有空间去做很好的推理。
我们今天模型的尺寸、规模等,都是在之前先推算出来,并要求算法团队要朝这个方向去做。我觉得每个公司都有好的工程团队,但目标对,工程团队才能做出正确的产品。
我们称为模基共建。这个过程中我们做模型、科研、工程、底层架构的人,以及去了解GPU、去用各种GPU框架的人,都是坐在一起,一起朝一个完整的目标做共创优化。这需要团队目标定对、目标管理、同心协力,和美国AGI有差异化的打法,才做出这样的结果。
创业公司要有计划地融资和花钱
《中国企业家》: 前段时间OpenAI进行了一笔巨额融资,同时签了一份对赌协议。近期您去融资的时候,有没有遇到过类似的灵魂拷问?
李开复: OpenAI现在已经到这个规模了,所以投资人就会对收入有期望,甚至再下一轮,可能对盈利有期望。我们还远远没有到那个阶段,还差好几个数量级。
现在投资人可能看得更多的是我们收入的质量,成长的速度要做到多少。 现在这个市场未来两年应该还是有爆发成长的空间,但这也是很难去对赌的事情。 现在我也很难说,我们两年后的收入会是今年的2倍或者20倍,这个范围都有可能。但是你要我一定要达到10倍,我也不敢赌,说不定达到20倍也是有可能的。这种对赌适合于比较后期、相对发展稳定的公司。
《中国企业家》: 有数据统计,国内投资机构偏向于投早投小,或者投非常后期,但现在头部大模型公司估值都到了200亿元上下,其实都到了一个中期阶段,目前怎么去找到“耐心资本”?
李开复: 我觉得确实是有这样尴尬的挑战和问题,需要提早预测去避免。
我觉得如果一家公司有这样的认知,要提早做好多轮融资计划,也就是每一次融钱,要知道再下一次是什么时候融,什么时候能看到收入的规模化。我们内部有一个比较清晰的蓝图,即两到三年的计划,按部就班地去推进自己的收入,增加投资人对我们的信心,他看到我们达到了上次的承诺,再去完成下一个成长周期。
另外,这不只是一个能融多少钱的问题。怎么样去负责地花融到的钱,让它能够对未来的业务发展产生非常乐观的指标?比如把融来的钱60%~80%花在GPU上,这是一个必然的公式吗?还是应该把GPU当作一个普通的商业开销?或者,当我在做一个业务的时候,怎么去考量它的可成长性、利润率? 就是要做一个很漂亮的PNL(Profit and Loss),每花掉一块钱,就能看到财务状况在进步,进步到钱还没有花完的时候,就会有财务投资人、后期投资人,甚至二级市场追着上来。
《中国企业家》: 目前投资人是怎么看待零一万物商业化的速度和策略的?
李开复: 整个零一万物还是有to B和to C两方面的收入,加起来我觉得应该是在国内排前两三名。
《中国企业家》: 你是说营收规模吗?
李开复: 是。现在这个阶段只能看营收规模,我其实更早也说过,这个行业跟AI 1.0不一样,刚开始大家看谁有最牛的人,谁出最多的paper,谁打比赛得最高的分数;后面看谁能最快产品落地,谁能最快有收入,谁的收入可以规模化,成长率更高,看谁能有盈利。这是个绕不过的必修课。
AI 1.0的最后两项,很多公司都没有及格。创造收入是可以的,再往后规模化就比较难,盈利就更难了。
零一万物的管理团队商业经验比较丰富,也陪伴了AI 1.0的10多家独角兽公司艰难地走过来,所以我们肯定会未雨绸缪,先准备好要做的业务规模化、盈利的可能。我们非常早就认知到, 无论是多伟大的科技,最终的灵魂拷问都是从商业模式和商业判断来说,公司值不值它的估值。 我们不可能永远陶醉在比赛结果、用户下载量,一定是要非常早就去思考商业的需求。
哪怕你就是想要融资,你不走这条路,最后融资也是走不通的。走不通,你还是不能上市,或者是上市之后会破发。这些问题已经出现一遍了,这一次应该看得很清晰,需要避过这些陷阱。
《中国企业家》: 在企业盈利方面,零一万物有大概的预期吗?
李开复: 这个还不能回答,现在还太早。我们先要把收入做到规模化,再去考虑盈利。
但是现在每一个单子,我们会有盈利的要求。如果要做项目,每一个单子都是要盈利的。
李开复ai公司首发大模型yi,中文大模型榜单排名第1位,
零一万物发布首款预训练大模型 Yi-34B,开源并支持200K上下文,多指标击败全球玩家,数据采集、算法研究、团队配置均为世界第一梯队,对标OpenAI、谷歌等一线大厂。 团队成员拥有国内外顶级企业背景,持续延揽全球最优秀华人AI精英。 李开复提出AI native应用特征,并透露后续计划包括更大尺寸、对话模型、加强的数派枯租学和代码模型败迅、多模态模型以及Super APP雏形。 Yi-34B拥有全球最长200K上下文窗口,登顶Hugging Face,成为目前唯一成功登顶Hugging Face全球开源模型排行榜的国产模型。 模型参数规模、数据筛选、Scaling Law研究、规模化训练实验平台和AI基础设施支撑了其高效和低成本的训练过程。 Yi系列大模型提供多元场景支持,对学术研究完全开放、同步开放,商用申请免费,涵盖34B、6B两尺寸,达到性能成本「黄金比例」,具备更多知识容量、尘兆多模态能力、高效率单卡推理和精度要求。 零一万物启动下一个千亿参数模型的训练,快节奏推出Yi系列量化版本、对话模型、数学模型、代码模型、多模态模型等。 AI基础设施定义了大模型训练算法和模型的能力边界,支撑了其超行业水平的训练效果,训练成本实测下降40%。 未来将基于Yi系列大模型打造To C的超级应用,AI 2.0时代下,最大的商机是超级应用,超级应用很可能在消费者级别,面向海内外的ToC超级应用。 超级应用是新时代下最大的商机,大模型的存在是必须的,内容应该主要由AI创造,人来辅助,实现AI First。 零一万物选择在AI 2.0时代,开发最好的大模型底座和行业模型,寻找最大的商机——一个消费者级别的超级应用。 做超级应用的方法论是精益创业,不断迭代以捕捉用户需求并调整,最终成为超级应用。
本地运行“李开复”的零一万物 34B 大模型
本地运行“李开复”的零一万物 34B 大模型,本文将指导你如何实现这一目标。 首先,要了解零一万物的大模型争议颇多,针对模型、代码、团队乃至李开复本人都有不同的声音。 然而,对于开发者和终端用户来说,最实际的问题是:这个 34B 模型是否可行,特别是能否在本地机器上运行并深入了解其性能。 在众多争议中,关于模型本地运行的问题引起了我的兴趣。 在多数负面反馈中,提及本地运行34B模型有难度。 然而,实际上,通过使用流行的模型量化方案,模型尺寸可以从70GB缩减到24GB,基本能够满足本地运行的需求。 但如果未采取优化斗念方案,模型应用很容易因内存不足而崩溃。 为解决此问题,让我们探讨一种可行的方案:使用 CPU 和 GPU 共同运行模型。 gggerganov/ 是一款开源软件,非常适合此目的。 它几乎伴随着模型的成长、爆火、出圈,且之前主打使用纯 CPU 进行模型推理,对没有 GPU 的电脑特别友好。 然而,对于更大尺寸的模型,仅使用 CPU 推理无疑会挑战用户耐心,且可能浪费电。 幸运的是,gguf 模型格式和 对 offloading 模型层到 GPU 的功能日渐完善,使得 CPU 推理模型的同时,模型的一部分装到高计算性能的 GPU 中,大大提升了用户体验。 以下是实施步骤:1. 安装 Docker,不论设备是否配备显卡,均可根据操作系统喜好完成基础环境配置。 2. 使用 Nvidia 提供的深度学习环境 /nvidia/pytorch:23.10-py3 作为基础镜像,其中的 CUDA 版本通常效率高于开源社区版本。 3. 保存 Dockerfile,构建镜像。 4. 进入容器环境,使用nvidia-smi 查看显卡是否正确使用。 5. 下载零一万物的官方模型文件,选择合适的模型文件,亏销谈如 Q4 或 Q5 的量化模型,这些模型可适应不同大小的显存。 6. 编译使用 GPU 的 ,启动服务进行模型运行。 7. 使用 server 程序运行模型,调用模型并输入处理内容。 使用机器之心发布的关于 OpenAI 的文章作为测试内容,如“OpenAI内斗时,Karpathy在录视频:《大型语言模型入门》上线”。 模型处理速度快,结果令人满意。 8. 通过调整 加载模型层数,以优化性能,如将模型的 55 层放在显卡中,减少程序在大模型程序和数据中查找答案的时间。 9. 选择更小巧的模型,以进一步提升吞吐速度,例如 Q4 版本的量化模型,设置--ctx-size 到 200K,适用于多张卡或大显存资源。 10. 测试模型在不同格式下的输出,如 JSON 格式,以验证模型的灵活性和实用性。 通过以上步骤,你可以在本地机器上运行零一万物的 34B 大模型,并对其性能有深入的了解。 本文详细介绍了实施过程,包括环境配置、模型下载、编译和运行等关键步骤,旨在帮助开发者和终端用户成功实现本地运行目标销碰。
中国AI大比拼:盘点国内顶尖大模型,谁能称霸未来?
人工智能的迅猛发展,尤其是在大型语言模型领域,展现出了颠覆性的创新。 国际巨头如OpenAI、GitHub、Stability AI推出的模型,如ChatGPT、Copilot、Gemini和Claude,在对话、问答、写作及分析判断方面展现出了卓越的语言理解与生成能力。 然而,由于网络环境的限制,国内用户往往无法直接访碰陆问这些国际平台。
国内的AI企业和科研机构并未因此而落后,而是紧跟前沿,推出了大量参数高达数十亿乃至数百亿的大型语言模型。 这些模型各有特色,有的侧重通用对话能力,有的则专注于特定行业领域,有的追求在开放领域任务的全能型表现,有的则瞄准特定的专业应用场景。
国内大模型的阵营可谓是百花齐放,各具特色。 掌握并善用这些模型的强大能力,无疑能大幅提高个人在工作学习中的效率。 只需提出需求,这些模型便能快速生成高质量的文案创作、智能摘要、程序代码,甚至决策分析报告等,且多数是免费提供使用的。
对于有兴趣的用户,了解和掌握这些模型的能力将使自己在职场或学术领域中与他人拉开差距。缺吵慎伏敬以下是一些国内顶尖大模型的盘点,供参考:
以上模型均是免费使用,为个人用户量身定制,旨在满足实际需求。 用户在选择时应从自己的具体需求出发,挑选最适合自己的一款模型。 每个模型在不同场景下都具备其优势和特点,从开放域对话到特定领域的专业应用,再到生成代码,每款模型都能为用户提供独特的支持。 用户体验是选择模型的关键,因此,不妨亲自尝试不同的国产大模型,找到最适合自己的那一款,让人工智能助力提升个人能力。