大模型究竟应该向何处去?
在当前中美大模型竞争到焦点的时候,越来越多的模型开发方和企业用户都陷入了焦虑。因为通用模型的体量和训练方式接近极限,但效果的提升并没有达到所有人预期的最高点,也不能解决任何人在特定时间点遇到的特定问题。
对于企业用户更是如此。产业界普遍存在的焦虑和大模型商业化的不匹配问题,已经成为制约大模型技术发展的核心难题。
一方面,自2023年起,大模型技术的迅猛发展引起了企业家们的广泛关注。
他们普遍认识到,大模型技术特别是结合了AI的各种技术,对于降低企业成本、提高效率具有显著的积极作用。然而,如何让自身业务跟基础模型结合?如何在一线生产中让大模型帮助企业提效?
这些需求,不是一个简单的通用大模型能解决的。此时,急需懂得大模型,或者干脆就是大模型研发方的团队站出来,站在企业变革角度,找到企业业务与大模型结合的点,并为此单独训练行业模型并提供链接和使用工具。
因为只有这样,企业家才能真正将自己的需求快速与通用大模型结合,进而才能让AI与自身的企业发展深度结合,推动企业经营效率提升。
另一方面,越来越多的模型研发企业开始将目光投向B端市场,希望能够在这个领域取得突破。问题是,如何成功进入市场并占据一席之地,在满足企业需求的同时实现自身收益的增长,形成可持续的竞争优势,这些问题同样困扰着模型研发和运营企业。
亚马逊创始人杰夫·贝索斯在一次媒体采访中曾指出,数字化转型的本质在于利用信息技术和能力推动商业核心的变革。他认为,企业数字化转型的三个关键要素包括:建立数字化的企业战略模式与文化、掌握数字化技术能力,以及将数据视为企业的战略资本。
这些能力的实现,需要一个坚实的技术基础作为支撑。
在过去的数智化时代,公有云和云原生技术为企业的信息化能力提供了坚实的基础。而进入AI 与大模型时代,支持企业在大模型技术基础上完成自身发展能力建设的基础,应当成为整个行业的发展方向。
目前看来,哪个模型研发与运营企业能够率先实现这一目标,哪个企业就能够在未来的B端市场中占据先发优势,从而在激烈的市场竞争中脱颖而出。
1 大模型产业化谁跑出来了
众所周知,大模型的底层基础是算力,算力的基础是芯片。而在美国施加越来越严厉的对华芯片制裁后,以华为为核心的国产算力芯片厂商,就成为中国大模型发展的推动力。
实际上,今年应该算华为昇腾系列计算芯片大力发展的一年,昇腾910B追平英伟达A100的效果,已经开始大批量使用;而外媒网传与英伟达H100相当的昇腾910C,据说已经开始出货。
对于国内大模型研发方来说,完全组建在昇腾计算芯片万卡矩阵基础上的科大讯飞星火大模型,发展速度之快,可以说明昇腾系列的能力,确实可以支撑起中国大模型的发展。
有了芯片,说明国内模型研发与运营方有了持续服务企业用户的能力,这也是大家都开始重点关注企业用户的原因。
据媒体统计的《中国大模型中标项目检测报告(2024年7月)》,上半年大模型中标数最多的公司是科大讯飞。数据显示,7月份公开渠道统计到上半年大模型中标项目共计112个,科大讯飞中标数量领先,并且呈现稳步递增的态势。其中,央国企是讯飞星火业务端落地的典型代表客户。
这其实能代表一个趋势。
首先,当前各类型厂商对大模型的投入,已经从大水漫灌进入到精细操作阶段。大模型的研发方意识到,单纯靠堆算力,无限增加投入,其实不可能实现动态的商业平衡,大模型发展的后劲不足。
因此,当前各家在已经形成稳定的算力基础上,开始从知识、数据、算法上寻找突破,利用技术调整提升模型运营效率。
其中,做得最好的是科大讯飞。
6月27日升级至星火V4.0,不仅在底座能力上全面对标GPT-4 Turbo,并且发布了面向教育、医疗、汽车和企业智能体等多款软硬件产品,展现出了星火应用落地方面的领先能力。
关键,这是一个在以往打好算力基础上,通过技术进步、算法和知识调整等方式完成的升级,与硬件投入的关系没有之前版本那么大。这其实代表着行业发展方向。
其次,在面向B端大企业的投标统计中,科大讯飞始终牢牢占据着头把交椅的位置。
这一现象背后的原因在于,科大讯飞深刻地理解了这些企业的需求,尤其是对于大模型在具体实践中的应用保障能力。这种深入的理解和强大的保障能力,使得科大讯飞在竞争中具备了显著的优势。
具体来说,这些企业的需求非常明确,他们希望将先进的模型应用到实际业务中,同时降低相关的成本和技术投入。谁能有效地完成这一转化,谁就能赢得这些企业的青睐。
现在看,科大讯飞成为首选。
2为什么是科大讯飞?
那么,为什么B端大企业对于选择模型提供方上,愿意优先选择科大讯飞?
核心原因很简单,科大讯飞真正了解这些企业需要什么,还在模型的训练、匹配上下功夫。而且,他们还针对部分关键领域,单独调整、训练,推出从通用星火大模型基础上直接原生的行业大模型,效率、准确度和并发能力,远超三方训练的行业大模型。
另外,通过对于模型训练、算法的调整,科大讯飞能用更少的算力、更高的效率即可打造企业专属大模型,更符合企业投入产出要求。
目前依托大模型技术在语音、翻译、OCR等技术方向,科大讯飞通过已有算力已经可以做到业界最好;在教育、医疗、汽车等业务方向上应用价值也不断展现出来并初步形成商业闭环。同时因为可提供不同尺寸最佳性价比的大模型解决方案,星火大模型才会在产业化商业模式上领先。
而且,科大讯飞正在探索AGI过程中各个阶段的大模型成果,会通过蒸馏裁剪等各种技术手段沿途产出,落地到讯飞星火各个尺寸的大模型中,让大模型的尺寸降低,效果不改变。
再加上他们理解客户的需求,创造性提供了很多对接这类模型的工具,大大降低了B端客户的部署难度。
更关键的是,科大讯飞在通用大模型的底座能力上,与企业客户共同构建形成不断迭代的行业模型。同时,利用企业内部知识库和行业知识库,大模型在企业端形成具体场景的成功案例,使得客户在具体场景上大模型投入后产生良性循环的投资收益。
科大讯飞能产生这样的效果,是跟他们坚持科研投入有关,也跟他们从模型训练开始就建立产业化的视角有关。
刚刚发布的2024年中报显示,上半年研发投入达21.9亿元,同比增长32.23%,占营收比重达23.5%。而且研发投入继续向讯飞星火大模型倾斜,上半年围绕大模型相关的总投入达13亿元,围绕通用大模型研发投入增加4亿元,围绕大模型训练推理平台工程化的研发投入1.6亿元,围绕大模型推广和应用推广新增投入1.2亿元,各BGBU围绕大模型产品化的投入增加超过6亿元。
半年报显示,依托国家重大攻关任务的支持,科大讯飞未来几年在星火大模型保持行业领先水平同时,算力投资方面不会有大幅度的自有资金投入增长。另外,科大讯飞还在积极储备核心人才,在2023年提质增效同时,上半年技术人员增加507人。
3国产模型赶紧抄的商业化答案
根据半年报,上半年,科大讯飞的收入和毛利较去年同期都有显著增长,且毛利增速大于收入增速。
中报显示,科大讯飞上半年实现营业收入93.25亿元,同比增长18.91%,其中第二季度收入56.78亿元,上半年毛利37.48亿元,同比增长19.08%,上半年销售回款90亿元,较去年同期增长15亿元,增长20.04%。
数据背后,说明科大讯飞在商业化的布局逐渐落地,也因为对于大模型产业化的理解在行业属于前列,科大讯飞开始逐渐在竞争中发力。
目前,基于战略方向、市场空间、竞争优势、团队力量等评估确定了首批“7 3”重点战略聚焦业务。“7”是战略聚焦业务:重点包括教育、消费者、智能汽车等赛道中的有机会做到几十亿到上百亿的重点产品;“3”是重点布局探索型业务:包括星火大模型在C端和B端的探索,医疗领域星火大模型运营型业务的模式探索。
科大讯飞大模型商业化落地当前重点工作主要在以下三个层面:一方面是在已有的教育、医疗、汽车等场景中加快规模化落地:另一方面是大模型对外赋能;此外,科大讯飞也在积极投入以星火App为代表的大模型C端应用探索,同时关注基于大模型软硬件一体化产品的变革性创新机会。
在这样的背景下,2024年上半年,教育产品和服务实现营收28.6亿元,同比增长25.14%;医疗业务实现营收2.28亿元,同比增长18.8%;开放平台实现营收23.45亿元,同比增长47.92%;智能硬件实现营收9亿元,同比增长56.61%;汽车业务实现营收3.5亿元,同比增长65.49%。
中商产业研究院今年3月发布的《2024年中国AI大模型行业市场前景预测研究报告》显示,中国大模型产业市场规模从2020年的15亿元增长至2022年的70亿元,年均复合增长率达116.02%,2023年约为147亿元,百度、腾讯、华为竞相布局。中商产业研究院分析师还预测,2024年中国大模型产业规模将达216亿元。实际上,新时代的AI基建之路才刚刚开始。
在产业互联网阶段,具体的链接工具已经数不胜数,而且云服务越来越规范和简单,企业真正在某个领域通过引入数字化工具提升效率已经没问题。
但从长期看,这些还不是产业互联网的核心,因为现在的需求和供给都是碎片化的,未来大模型产业化落地过程中,这种碎片化会随着客户需求的增长越来越显性。
为此,大模型研发与运营方,恐怕要从行业模型和运营效率上下功夫。而只有像科大讯飞这样真正找到并落地相关的战略,才会有大模型产业化的未来。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
如有疑问请发送邮件至:goldenhorseconnect@gmail.com