为什么大模型时代需要中立的公共算力平台

|小喇叭

|王博

9月12日,2024年中国国际服务贸易交易会(以下简称“服贸会”)在京开幕。

今年服贸会各项展览展示更加凸显新质生产力特征、更加凸显服务贸易特点,卫星互联网、大数据和算力、零碳低碳等专精特新技术和应用获得了更多关注。

“以生产性服务贸易赋能产业融合发展”是服贸会上的热门概念,这是指通过发展生产性服务业,推动先进制造业与现代服务业的深度融合,从而促进产业结构的调整和转型升级。

这个概念在服贸会通用人工智能算力论坛(以下简称“论坛”)上得到了体现。

这场论坛由北京市石景山区人民政府、北京市经济和信息化局、北京市科学技术委员会、中关村科技园区管理委员会主办,北京市石景山区经济和信息化局、中关村科技园区石景山园管委会石景山区科学技术委员会、中国信息通信研究院、企商在线(北京)数据技术股份有限公司(以下简称“企商在线”)承办。

而这场论坛的讨论,离不开一个标志性的项目——石景山智算中心。

石景山智算中心算力项目合作签约

“石景山区智能算力中心”项目由企商在线全资子公司波速科技投资、建设和运营,是北京具有标志性的市场化、商业化建设运营的大型智算中心。项目位于始建于1958年的北京重型电机厂内,占地1.3万平方米,地上建筑规模2万余平方米。

今年4月,企商在线石景山智能算力中心升级备案获批,算力规模由原先的610P跃升至3100P;5月,首批200P算力正式投入使用。

在规划建设的第一天起,石景山智算中心就确立了清晰的差异化定位—— 中立的、市场主导的第三方区域智算枢纽。

「甲子光年」注意到,这也是相当一部分大模型应用企业的在算力服务方面的需求,对于一些中小企业来说,“性价比”和“数据安全”十分重要,而对于“生态绑定”,部分企业会有所顾虑。

既然有需求和顾虑,就有市场机会和服务空间。

1.大模型时代,算力服务应“按需分配”

生产性服务业是现代化产业体系的重要组成部分,其核心功能在于为保持生产过程的连续性,促进技术进步、产业升级和效率提升提供保障服务。

在大模型应用落地的过程中,算力的保障和服务是必不可少的。

随着大模型的应用越来越广泛,行业对高性能算力的需求也在增加。这里的“需求”不单纯体现在企业对卡的需求量增大,更体现在企业如何将手中已有的算力充分利用起来。

对很多企业而言,买到卡不代表能用好卡。今年1月,清华大学全球产业研究院和浪潮信息共同编制并发布了《中国算力发展观察报告》(以下简称《报告》),《报告》数据显示,2023年,有些算力中心整体算力利用率不足30%,资源浪费严重,算力供需矛盾凸显。

而要解决算力供需矛盾,在提高算力供给的同时,还要瞄准真正的算力需求,高效解决问题。

大模型的落地应用不是“铁板一块”,而是“千人千面”。

一方面,不同行业对模型的需求各不相同,很多时候都需要部分定制化的智算服务来满足特定的业务需求。例如,金融、医疗等行业对AI模型的决策过程有更高的透明度和可解释性要求,同时需要符合伦理和法规标准;在自动驾驶、实时监控等场景,则需要智算中心提供低延迟的数据处理和模型推理能力。

另一方面,不同企业数字化程度参差不齐,对于数字化基础较差的企业而言,智算中心的建设方和运营方往往还要考虑如何降低部署门槛,以及后续的有效运维。

因此,行业迫切需要更多能看到实际的用户需求,并能真正解决企业痛点的算力服务平台。

石景山智算中心,则为行业提供了一个样板。

2.中立的、市场主导的第三方区域智算枢纽

在规划建设的第一天起,石景山智算中心就确立了清晰的差异化定位—— 中立的、市场主导的第三方区域智算枢纽。

这个定位是企商在线以客户需求为导向,在一线多次调研所得的结果。

在以大模型为核心的人工智能浪潮中,北京无疑是国内布局最先进的城市之一,涌现了大量大模型初创企业,也随之产生了更多元的算力需求。

对于互联网巨头等技术沉淀相对充足的企业而言,智算中心只需提供更底层的“裸金属能力”,即物理服务器,不包含任何虚拟化层,提供最基础的计算能力。

对于大量新成立的初创企业而言,情况则更复杂。

首先,很多中小企业不具备硬件部署、网络调优以及框架搭建等技术能力;其次,中小企业对算力的性价比、规模等因素往往更敏感;此外,中小企业与大厂合作虽然是一个选择,但与大厂合作往往会带来一系列生态绑定,部分企业或许会有所顾虑。

一位大模型应用初创企业的CEO对「甲子光年」坦言,自己在选择算力服务商时候会特别注意其“中立性”,“ 天天都在做‘产模一体’的,我怎么放心跟你合作呢? 如果是一个安心做基础设施的企业,我可以很放心地把数据和相关模型的优化交给你。”

这些因素都使得中小企业更需要有中立的第三方算力服务商出现,并且真正做到以企业需求为导向,采用更灵活的市场化运营模式。

然而,企商在线董事长王毅兼总经理告诉「甲子光年」, 虽然北京近年来在如火如荼地建设数据中心,但很多都是政府自建,真正实现商业化建设和运营的数据中心大多分布在内蒙、乌兰察布等地区, “我认为北京还是比较缺少中立的、市场主导的第三方公共智算中心。”

石景山智算中心的出现,则填补了北京在第三方公共智算中心上的空白。

王毅在2024通用人工智能算力论坛演讲

据王毅介绍, 石景山智算中心完全开放合作,不涉及任何生态绑定 ,相关服务均根据用户实际需求灵活提供。整体上,石景山智算中心会为客户搭建一个完整的资源池,涵盖算力调度能力以及相关开发工具与开发框架。

“我们希望做得更细、更贴近用户需求、更易用一些。”王毅告诉「甲子光年」。

未来,石景山智算中心也将不断迭代,进而成为北京周边区域智算中心枢纽。而要实现这一目标,便对智算中心的算力规模、算力调度能力以及生态联动能力有更高的要求。

首先,算力规模要足够大,才能承载更多的需求。

目前,石景山智算中心已是按国标最高等级建设运营的新型人工智能算力中心,建成后初期将具备610P的算力,相当于30万台高性能电脑的计算能力,可供一个人工智能大模型在30秒内完成对近1000万张图片的学习和识别。

今年4月,企商在线石景山智能算力中心升级备案获批,算力规模由原先的610P跃升至3100P,成为当前北京市规模最大的公共智算中心之一。

其次,智算中心建立起统一协议,更高效地完成算力的调度与分发。

目前,石景山智算中心已与多个国产芯片企业合作,可根据不同业务场景采用相对应的主流芯片,推进国产化落地。同时智算中心整体架构具备融合算力服务能力,成熟的多元异构平台广泛适配25种AI计算芯片、5种主流操作系统、5种硬件平台以及多种国产服务器。

最后,智算中心要联动算力产业上下游企业,搭建更开放、多元的生态体系,从而为各行各业的客户提供服务。

在具体的交付形式上,王毅告诉「甲子光年」,针对中小企业,石景山智算中心会联合算力产业上游的PaaS层企业及其他供应商,将整套服务打包为标准化产品交付给用户;针对大型企业,则会根据实际需求提供相应的定制化服务。

未来,石景山智能算力中心将面向金融、政府、大模型、元宇宙、数字孪生、虚拟现实、智能制造、智慧城市等应用场景,提供持续性、可靠性的算力支持,助力传统产业数字化转型和产业升级,推动人工智能产业创新发展和广泛应用。

3.企业转型与区域产业转型的碰撞

长远来看,石景山智算中心更深远的意义在于,它是产业周期交替处,微观企业转型与宏观区域产业转型共振所形成的结果。

说起石景山,相信很多人会先想到首钢。

近百年来,以首钢为核心的传统重工业都是石景山的核心支柱产业。2005年,为保障北京奥运会成功举办,党中央、国务院作出了首钢搬迁调整的重大决定,石景山区率先开始疏解非首都功能,走上了由传统重工业区向现代化高端绿色之城的转型之路。

2010年底,石景山首钢工业区全面停产,并开始进行大规模的城市更新和产业转型工作。

近年来,石景山区聚焦新质生产力的发展,致力于北京市全球数字经济标杆城市的建设,通过不断优化营商环境、持续加大政策供给力度,大力发展数字经济。2023年,区内数字经济增加值占GDP的比重已达53.8%。

在AI 2.0时代,为保障产业转型深入、平稳地推进,就需要有足够坚实的数字基础设施,石景山智算中心便应运而生。

与此同时,企商在线也试图在人工智能领域重新找到自己的位置。

说起企商在线,这家成立已有21年的企业并不为大众熟知。但事实上,它已经在人们不易看到的产业深处,一路陪伴了中国信息技术产业的发展。

自2003年成立以来,企商在线经历了从早期的网络基础服务和IDC业务到如今的云计算、AI算力和超算融合服务的全面转型和发展。

可以说,企商在线已经成功穿越互联网与云计算两大产业周期。

企商在线发展历程

谈及两次转型的成功,王毅告诉「甲子光年」:“更多是时代的推动。我们要生存,如果不及时跟上时代变化, 不就被淘汰了吗?现在我们还没被时代淘汰,在每个产业周期更替的节点都做出了比较正确的选择。不光是我们这样,很多优秀的企业都是这样。”

如今,企商在线正加速由IDC向AIDC的战略转型。

事实上,ChatGPT轰动世界前,AIGC的浪潮已经有迹可循——2017年,谷歌推出Transformer架构;2018年,OpenAI发布GPT-1;2019年2月,OpenAI发布GPT-2,参数规模相较GPT-1已有大幅提升,模型已经具备很好的文本生成能力。

当时,企商在线便敏锐察觉到,以Transformer为基础的生成式人工智能技术或将引发下一代产业革命,并由此引发新一轮的数字基础设施升级。“当时已经感觉到行业的变化,但问题在于什么时间点开始转型。 如果转型太早,可能会导致投入产出的不匹配,但转型太晚就会错失很多商业机会。 ”王毅表示。

2019年,企商在线开启转型,刷新自我定位, 瞄准数算融合服务商的行业卡位 ,开始布局智算领域,实现从IDC到AIDC的战略转型,打造中立人工智能公共算力服务领域品牌,并相继建设了“三里屯首都金融算力中心”和“北京·光子1号金融算力中心”。

2021年,石景山区与企商在线一拍即合,共同筹备石景山智算中心的建设。

该项目充分利用了石景山区产业转型遗留的闲置厂房。据企商在线介绍,该项目所在的厂房就位于始建于1958年的北京重型电机厂。该项目由四组建筑结构长132米、宽24米、高16.8米的单层厂房组成,将充分利用其大尺度挑高空间,对北侧三跨厂房及东侧二层办公楼进行改造,总建筑面积达2万余平方米。

智算中心建设前的老旧厂房

在一年多的建设期内,石景山区与企商在线明确分工,石景山区政府负责提供相应的政策扶持、产业载体,对接相关企业,全程不过多干涉智算中心的建设与运营;企商在线则主要负责智算中心整体的规划、建设与后续运作。

正如王毅所说:“让商业的回归商业,政策的回归政策。”

对于今天轰轰烈烈的大模型浪潮来说,这句话同样适用。当人们对新技术的热情褪去,产业最终要回到市场原本的轨道上,产业链各环节都找到自己的卡位,逐渐完善新产业的版图。

剩下的,便是将一切交给时间。


大模型是什么?

大模型与人工智能区别:以前的模型大都是弱人工智能,像阿尔法狗只能下围棋,而各种识别产品也只能完成一个任务。 这些模型之间是隔离的不能互相支撑。 而大模型则通过扩大模型的参数规模,并通过大量数据的训练,来支撑所有人工智能的任务。

大模型就是一种参数规模非常大的人工神经网络。 因为参数足够大之后它能力非常强,所以在很多任务上都表现出非常好的能力。

因为大模型学习了非常多的知识,经过了非常多的数据训练,这样就具有了非常好的通用性。 包括像我们日常生活中经常见到的各种人工智能产品,比如说人脸识别、对话机器人,等等。

因为大模型的容量非常大、能力非常强,所以它把所有的任务都合在一起,用一个模型来提供非常多的任务的支撑,就是我们人工智能这个领域所谓的通用人工智能,所以它展示出来通用人工智能一个非常好的前景。

人工智能大模型的类型

大模型可以分为两类,通用大模型和垂直大模型。 通用大模型,基础大模型,擅长处理多种任务,是行业技术的制高点,推动产业革命。 如GPT系列就是通用模型。 训练通用大模型的参数规模大,需要强大的算力支撑,通常是头部企业的兵家必争之地。

国内科技、互联网巨头纷纷布局,网络的文心一言、阿里的通义千问大模型、腾讯的混元大模型、科大讯飞的星火认知大模型、商汤科技的日日新大模型等都是。

垂直大模型,行业大模型,是大模型应用落地的重要形式。 基于通用大模型进行微调,通过训练专业数据,向各行各业等多个场景提供更加精准、高效的解决方案。 比如华为盘古大模型就是针对行业提供专业大模型,已经初步运用在政务、金融、铁路、气象、煤矿等领域。

国际上,除了ChatGPT外,还有Llama2,是Meta与微软联手推出的开源大模型,包含70亿参数、130亿参数、700亿参数三个规模;其训练数据快速增加,接受了2万亿tokens的训练。

大模型(Large Model)常识综述(一)

大模型,即超大规模神经网络,其核心特征是庞大的参数量、多任务学习能力、对计算资源的渴求以及海量数据的支持。 在自然语言处理(NLP)领域,它们如巨擘般引领,国内与国外的模型各有千秋;而在多模态世界,大语言模型能驾驭文本、图像、视频和音频的交融。 现今,模型规模的标准随时间推移不断攀升,NLP模型一般需超过1亿参数,而在计算机视觉(CV)中,这一范围可能扩大到1亿到10亿之间。 这些模型的训练离不开强大的算力支持,如Google的TPU、华为的升腾910和A100等。 随着AI的迅猛发展,资金投入也随之激增,大约70%的资金倾注于AI基础设施,其中AI数字代理领域尤为抢眼。 生成式AI应用市场被划分为四大类别:工具型,如聊天机器人和办公软件,竞争激烈,依赖底层模型和精准定位;通用软件,如AI助手,竞争格局稳定,焦点在于AI与实际场景的无缝融合;行业软件,如金融和医疗,尽管在企业端的成熟度较低,但智能硬件如智能汽车在感知与决策上面临严峻挑战。 商业模式上,功能订阅、按需付费与产品销售并存,C端应用相对成熟,而B端则更多元,ToB场景的落地难度相对较高,ToG其次,ToC则较为顺畅。 在国内,大模型商业化初期主要聚焦于教育和科研机构,产品与用户付费阶段仍需时间打磨。 各大提供商各有特色,网络和腾讯主要通过提供算力服务盈利,华为和科大讯飞则倾向于通过API销售策略来拓展市场。 百川智能凭借清晰的战略路径和市场布局,稳步前行。 尽管大模型的性能强大,但商业化之路尚不明朗。 例如,360主要侧重于ToB市场。 ToC场景虽然相似,但ToB市场被视为未来的竞争焦点。 网络凭借强大的社区支持和企业化的千帆计划,以及学术交流平台飞浆,展现了其实力;阿里云的ModelScope在连接性和社区活跃度上有待提升,OpenXLab则低调但拥有优质应用,如动画生成器。 Hugging Face以其全面的模型、应用和文档库,成为行业的领头羊。 而对于模型能力的评估,LLM排行榜提供了重要参考,同时,评测榜单如AlpacaEval、CLiB、C-Eval和SuperCLUE等不断更新,为开发者和用户提供了实时的性能评价。

算法不行,算力来凑,而高算力只是蔚小理车型的刚需?

余承东说在今年6月底,国内可能会落地L3级自动驾驶的具体标准,国内蔚小理以及华为它们的辅助驾驶系统,已经到了一个瓶颈期了,如果L3能够真正地进一步放开,那么一个新的大门也即将打开。

但是,大家可能会发现一个问题,如今的各种辅助驾驶方案,无论是多颗激光雷达,还是多路摄像头,最后绝大多数品牌的方案都会再加上非常夸张的算力,甚至是上千Tops算力。

而地平线的余凯在最近表示:如今智能汽车之间的竞争已经有些偏离理性,不少企业推出的新产品都以大算力为宣传点,可在大算力背后,车企应该交付给用户的价值却并不高,这就造成了算力浪费,用户不该,也不会为大算力带来的成本去买单。

高算力只是国内新势力车型的“刚需”?

余凯所说的这一点已经是真实存在的了,大家会发现,如今的车企们使用的无论是MDC610、MDC810、双英伟达Orin、4颗英伟达Orin,甚至是英伟达THOR等,它们的综合算力几乎就没有低于200Tops的,而且大家会非常清楚地发现,它们所实现的功能几乎都没什么区别,在上一个阶段能够实现高速的NOA导航辅助驾驶,在下一个阶段能够显示城市的NOA驾驶,甚至是全场景辅助驾驶。

而在实现NOA导航辅助驾驶的阶段,很多车企们使用2.5Tops的Mobileye Eq4芯片和方案,以及算力差不多的博世方案,也都能实现和一些车型使用算力128Tops的征程5方案,以及1016Tops的4颗英伟达Orin芯片方案类似的效果,也就是说2.5Tops+单目摄像头,就能实现与上千Tops算力+激光雷达+一系列高性能传感器一样的效果,这就很有问题了,你要说它们的体验有什么区别,无非就是一个是供应商的黑盒方案,一个是车企自研或者合作的方案,但是真的要说成熟度以及稳定性,供应商的方案不见得比车企自研的弱。

大家现在其实有了一个这样的固有认知,认为大算力、高算力就代表着冗余度高,稳定性高,日后的可升级性更强,但几乎没有人会否定自己用不到自己买的这么多算力,其实可以打个比方,你买了一台有着150度电池的车,可是这台车实际上最高也就能消耗掉70度电,你需要一直背着这剩下的80度电满处跑,如果要真的是这样,你肯定不会答应,因为就算是之前车企给某些品牌的车型锁了十几度电,车主们都会不爽。

但是算力浪费也是这样,只是使用者没法亲身感受到,没法在使用功能的时候感受到自己可能只用了10%的算力,而车企可能也正是利用这种信息差,把大算力作为噱头去吸引消费者。

那么车企们是在如何利用这些算力的呢?之前各家都有不同的算法架构,而到了今年这个AI人工智能技术大爆发的时代,大家都开始不约而同地向人工智能辅助的大模型上靠拢,在过去2个月车企和供应商们已经发布了大概20多个大模型,各种多模态的大模型可以让车企们在自己建立的云端训练自动驾驶或者辅助驾驶,在AI的辅助下,可以更快速地搭建模型、去学习、去筛选,曾经需要几个月完成的工作量,如今几天就可以完成,而且准确度会更高,这一点已经是行业的共识,车企们在云端做的这些工作,可以减轻车辆自身的算力平台压力,因为车辆已经可以提前学习到这些场景,以及应对方式,所以车辆自身理应会更快速,更高效地有所反馈。

从上面这里可以看出,车企们加大在云端的辅助驾驶训练投入后,减轻了车端压力后,应该可以降低车端对于算力的需求,几百Tops的算力可能真的有些过剩,车辆端或许做出的更多是筛选的工作,对于算力的要求可能真的不高,而车企们不放弃高算力又是为了什么,充当噱头的因素肯定是会有,而剩下的算力就是要为了面对AI模型里没有的边角案例?

其实真的要是面对一些高难度的边角案例,我们从这么多的辅助驾驶事故中,可以基本上看到一个规律,就是面对突发情况,系统大概率是直接宕机,毫无反应地直接撞上去,因为毕竟现在国内量产的都是辅助驾驶,就算发生事故,也是驾驶者的责任,就算是国内的L3全面到来,从深圳目前的L3政策来看,驾驶者依然要承担主要责任,所以说高算力和边角案例之间,目前关系不明。

低算力能带来强效果,可是起步晚的新势力们做不到?

如果真的想要用低算力带来强效果,通常情况下,辅助驾驶功能的实现需要结合多种技术手段,如机器视觉、深度学习、传感器技术、控制算法等等。 这些技术手段涵盖了多个领域的知识和技术,需要经过长期的不断研究和算法优化才能得到实际应用。 因此,要想实现高质量的辅助驾驶功能,单纯依靠算力的提升是不够的,还需要综合优化各种技术手段,才能得到更加准确、可靠的结果,而像Mobileye、博世、大陆它们的低算力低成本L2级辅助驾驶方案,正是长期优化的结果。

在辅助驾驶功能的实现中,还需要考虑实际应用场景的影响。 不同的应用场景可能需要不同的技术手段和算法策略,而这些技术手段和算法策略往往与算力有着不同的依赖关系。 因此,在实际应用过程中,单纯依靠算力提升的效果可能会受到一定限制,还需要考虑其他因素的影响。

另外,辅助驾驶功能的实现还需要结合实时性、稳定性等多方面的考虑。 例如,在自动驾驶车辆处理传感器信息和控制行驶方向的过程中,需要实时地对数据进行处理和分析,并采取相应的措施来保证车辆的稳定性和安全性。 这就需要综合考虑计算资源的利用效率、处理时间的快速性、执行结果的稳定性等多个方面的因素。 因此,单纯依靠算力提升往往不能解决所有问题,还需要综合考虑其他的因素。

总结:

当然,Mobileye它们目前还没有量产城市NOA的功能,这确实有待商榷,只是使用两颗总算力为34Tops的Eq5h芯片也是可能实现城市NOA功能,低算力强效果的绝活确实需要长期的积累。 而低算力强效果的另一个代表就是特斯拉,144Tops的算力几乎低于所有新势力有高阶智驾功能的车型,但是海外FSD的效果大家也是有目共睹,BEV+占用网络技术,以及深度神经网络的支持,都让FSD以很低的算力,做出量产中顶级的效果。

算力浪费的问题确实存在,消费者们确实是可能多买了一些用不到的算力,车企们确实也在努力了,但是在如今这个内卷的时代,上千Tops算力和十几Tops算力的车型卖一个价,那么我也已经知道你会怎么选择了。

镁合金压铸龙头 星源卓镁 加速奔跑 斩获大订单新增长极已现
Needed? RNNs We Were All 图灵奖得主