“在大模型走向场景化、实用化的过程中,将会形成‘大模型+小模型’的产业生态。对于企业来说,拥抱大模型并不是绝对的,而是取决于企业的具体情况和需求,要考虑到成本和效益之间的平衡。”在2023年服贸会期间,毕马威中国数字化赋能主管合伙人张庆杰接受中新经纬专访时说。他还提到,大模型热下,算力需求将是10到100倍的增长速度。

大模型与“元宇宙”的产业化落地相互促进,共同发展

以大模型为代表的人工智能技术已成为当下技术创新焦点。但在此之前,科技圈的上一任顶流是元宇宙,彼时也是诸多企业争相布局。大模型带动的AI热又能持续多久?

对此,张庆杰表示,相对于元宇宙,AI大模型更多是赋能的角色,其商业化的场景会更加丰富。大模型与“元宇宙”的产业化落地存在着相互促进、共同发展的内在联系。一方面,人工智能的普及会加速元宇宙的产业化落地,人工智能算法会缩短元宇宙中的搭建周期和降低搭建成本,比如数字人、元宇宙空间3D建模等;另一方面,元宇宙给人工智能提供了丰富的使用场景,比如AIGC数字人交互,AIGC绘画等。

据了解,在本届服贸会上,毕马威中国展台也展示了升级版的“元宇宙体验中心”,结合了AIGC(生成式人工智能)技术,通过AI服务型数字人,能够进行当下最火热的AI对话和文生图。

张庆杰提到,虽然已经看到了众多大模型应用的有趣案例,但同时也观察到企业用户落地大模型其实还存在一定难度,因而还有很多企业处在观望阶段。

张庆杰认为,这主要包括三个原因:其一是场景选择,大模型目前并非在所有场景都表现很好,企业需要制定一个合适的路线图,逐步扩充成熟场景;其二是企业应用成本较高,部分企业希望私有化部署大模型,这需要一定的大模型技术人才,也需要有一定的数据积累和算力投入;其三是应用大模型涉及的一些合规及安全问题,企业也需要仔细考虑。

“单纯从ToB的角度来说,从目前和企业客户的沟通和测试结果来看,大模型可能会在营销内容生成、内部知识管理、专业文档的分析、辅助行业研究等场景首先体现出价值。”张庆杰称。

短期来看算力缺口可能变大

在某种程度上,大模型已成人工智能领域的“兵家必争之地”。据中国科学技术信息研究所5月发布的报告,中国10亿级参数规模以上大模型已发布79个。张庆杰表示,无法预测哪些模型会走到最后,但是最后成功的大模型一般会具备这样四个特点:

一是优秀的技术指标。随着大模型不断迭代,对于大模型能力的测评也一直在进行,未来在所有能力上领先,或者在特定能力领先的大模型会吸引更多客户;

二是明确的市场定位。究竟是提供更为优秀的通用AI能力,还是在特定行业领域越来越专精,成为行业领先的大模型和事实上的标准,要明确定位;

三是清晰的商业化策略。尤其是B端客户,能够快速应用这些大模型,并且成本、效果、风险等诸多因素都要能满足要求。

四是广泛的生态体系。“百模大战”初期是立足于模型、算法层面,而真正能够获得长远发展的大模型,一定是看谁更具有广泛基础的生态体系。

张庆杰还提到,企业是否需要拥抱大型模型和人工智能技术,可以根据自身的具体情况来决定。不过,所有企业都需要对这项技术保持关注,以便及时调整自己的策略和方向。

具体来说,他提到,成熟企业可能更有能力投入更多的资源来开发和应用大模型,初创企业可能更重要的是找到更切实可行的解决方案,比如使用已经训练好的开源模型或者购买第三方服务。

从企业所处行业看,他认为,不同行业的企业可能面临不同的挑战和机遇。例如,一些传统的制造业企业可能更关注如何通过人工智能技术来提高生产效率和质量,而不需要完全自研。同时,不同的业务需求也可能需要不同的解决方案。例如,对于金融、医疗等一些需要处理大量数据的业务中,使用大模型可能会更有效,而对于智能客服、智能推荐等,可能更注重的是模型的速度和实时性。

“自从大模型出来后,算力需求是10到100倍的增长速度。相比之下,算力的建设需要基建周期,这并不是一年、两年就能完全满足。因此,短期来看算力缺口可能变大。”张庆杰还提到,在数字化时代,对于企业来说,可以从算力设施、算力应用、算力服务三大关键要素来统筹整体考虑布局未来算力需求,将算力彻底转化为智能时代的新型生产力。

他认为,基于近期大模型的算力诉求爆发,企业应当在芯片、服务器、数据中心等底层硬件上提升算力的物理极限,在操作系统、数据库等底层软件上提升释放算力的能力。

免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。

推荐内容