“大模型六小虎”多高管离职:商业化靠掘金B端,试水端侧
21世纪经济报道记者孙燕上海报道
“2025年将是大模型商业化的大考年。”今年年初,零一万物创始人兼CEO李开复预言。
2025年尚未过半,“大模型六小虎”中已有十余位高管“出走”。其中,多位离职高管是商业化负责人,包括智谱首席运营官张帆、MiniMax商业化合伙人兼副总裁魏伟,以及百川智能联合创始人、商业化负责人洪涛。
人事变动背后,AI大模型企业的商业化焦虑浮出水面。
主动披露商业化收入的大模型公司少之又少。在“大模型六小虎”中,智谱AI曾透露,该公司2024年商业化收入同比增长超过100%,平台日均Tokens消耗量增长150倍。据市场预测,Minimax2024年的年化收入(ARR)有望达7000万美金。
但全球300余个大模型中,仅有少数企业实现了商业化的初步探索。面对亏损泥潭,牌桌上所有玩家都在追问:
产业化大方向究竟在哪里?
C端还是B端?
从客户定位来看,“大模型六小虎”走出了C端、B端两条路径。
MiniMax、月之暗面、阶跃星辰的重心均在C端:MiniMax推出了视频生成产品“海螺AI”、AI陪伴应用“Talkie”;月之暗面推出了Kimi助手;阶跃星辰推出了AI助手“跃问”、开放世界“冒泡鸭”。
智谱AI在C端推出了“智谱清言”,但更偏向B端业务。该公司CEO张鹏曾坦言,推C端产品的主要目的,是为了向B端客户展示能力。
零一万物、百川智能也以B端为重心:零一万物聚焦零售和电商等场景,推出了“AI2.0数字人”解决方案,百川智能以医疗为核心场景。
商业化压力之下,大模型企业也在边探索边调整:如零一万物早期宣称“坚决做ToC,不做赔钱的ToB”,但2024年起战略转向全面聚焦B端,收缩C端业务。
国泰海通证券研究指出,虽然当前仍处于商业化初期,但参照互联网发展历程,AI产业很可能遵循从B端到C端再到B端深化的演进路径,最终实现全产业链的协同繁荣。
在C端,大模型主要通过订阅实现价值,但正面临叫好不叫座的流量困局:数据显示,超八成用户拒绝为对话功能付费,多数人同时使用多个免费模型抵消体验限制。
相较C端用户“谁免费用谁,谁补贴跟谁”的主流思维,B端企业对于生成式AI的投入预算越来越多,但对于投入ROI也越来越重视。
“目前业界还很难给出一个确切的ROI中位数,因为大多数企业的AI应用仍处在价值发现和初期探索阶段。”毕马威中国技术和新经济管理咨询服务主管合伙人高人伯在2025年上海世界移动通信大会(MWC上海)期间告诉21世纪经济报道记者,目前已实现正向收益的场景,普遍集中在能够快速提升内部运营效率的领域,如利用AI辅助软件开发、自动化生成营销文案、优化内部知识管理与报告总结等。
在他看来,生成式AI的产业化方向之一是“深度垂直化”:通用大模型的能力应与金融、医疗、法律、制造等行业的专业知识深度融合,形成能够解决核心业务问题的专用AI,将是价值创造的关键。
云侧还是端侧?
从技术部署来看,“大模型六小虎”普遍采用云端训练+云端推理,依赖公有云厂商提供算力。
云侧的核心盈利方式主要有两种,一是按API调用次数或Token量付费;二是定制化解决方案,如智谱AI为金融、教育、制造等行业企业提供定制模型,收取开发与运维费用。
这主要面向B端用户。高人伯告诉记者,B端企业会根据自身业务的成熟度、数据敏感性以及战略目标,在“标准化”到“定制化”的光谱上动态移动:许多企业在初期会倾向于采购标准化的API服务,这种方式能够快速验证AI在通用场景下的潜力;但当单纯的标准化服务无法满足需求,企业便会转向探索定制化的行业模型。
目前,纯API调用模式盈利压力较大:由于产品同质化、难以深度满足场景需求等问题,规模效应较难达成,无法通过海量用户调用分摊模型训练与维护成本。定制化行业模型盈利能力相对较强:有头部厂商通过“通用大模型+行业精调”模式,向制造业客户收取模型定制费及数据服务费,单项目可达数百万元。
在部署云侧的基础上,今年以来,智谱AI、阶跃星辰也在拓展端侧:智谱AI今年与珠海市合作搭建“城市级GLM大模型”,覆盖端侧;阶跃星辰则将智能终端列为2025年重点场景。
但对于“大模型六小虎”而言,部署端侧一方面需要从硬件厂商手中“抢蛋糕”;另一方面生成式AI在端侧部署仍然面临技术挑战,进一步加大了研发成本。
“将生成式AI模型部署到手机、汽车等终端设备上,是实现普惠AI的关键一步,尤其对于需要即时响应和保护数据隐私的场景至关重要。”高人伯指出,但大型AI模型巨大的计算和存储需求与终端设备有限的资源(如算力、功耗、内存)之间存在天然的矛盾。
如何在保证模型性能的同时,克服这些硬件限制,并为用户提供流畅、可靠的体验?据高人伯观察,业界正在从多个层面积极探索解决方案。首先是通过模型压缩、知识蒸馏等先进技术,在保证核心功能的前提下,将大模型变得“小而美”,使其能够在端侧高效运行。
芯片厂商也在不断创新,推出集成NPU等专用AI处理单元的硬件,为端侧AI提供更强劲、更节能的算力支持。
此外,“端云协同”被认为是一种非常务实且灵活的路径,即在终端部署一个轻量级模型处理高频、简单的任务,当遇到复杂请求时再智能地调用云端更强大的模型,从而兼顾效率、成本与用户体验。