OR 新媒|oror.vip跨平台阅读首选
2025-01-06 12:38
科技

大模型的2025:卷价格,更要卷应用

闫曼:如果不能在算力受限的基础上提升效率降低成本,就算是大厂也不一定“卷”得过创业公司。
AI人工智能AI正在抢走谁的工作?一个人使用ChatGPT取代了60名员工
闫曼


在2024年的最后一天,阿里云宣布通义千问视觉理解模型全线降价超80%,这已经是通义千问一年里的第三轮降价了。这一轮的价格降幅达到81.3%,创下全网最低价格。按照这个价格,1块钱可最多处理约600张720P图片,或1700张480P图片。

就在阿里云降价的十多天前,字节跳动推出的豆包视觉理解模型价格比业内价便宜85%,千tokens输入价格仅为3厘,一元钱就可处理284张720P的图片。

两个巨头争相降价,跟还是不跟,这是一个让其他市场参与者焦虑的问题。

“以厘计价”的大模型价格战

还是原来的配方,还是熟悉的味道,国内市场上价格战实在是家常便饭。尤其是科技和互联网行业,经历过往年的百团大战、网约车大战、电商百亿补贴以及现在依然战火正旺的新能源汽车价格战。更何况,2023一整年这么多大厂和创业者都涌入大模型产业,淘汰赛是可以预见的。

但是没有人会想到这场价格战来得如此之快,更没有人想到这场价格战的导火索是一家创业公司:去年5月,幻方量化旗下的DeepSeek发布了DeepSeek-V2,能力号称对标GPT-4,价格却仅为GPT-4的近1%,还有“登录就送 500万 tokens“的优惠活动。

低廉的价格让DeepSeek一跃成名,成为了“大模型界拼多多”和“行业鲶鱼”。不到一周的时间就有友商崩不住了,智谱AI率先调整了其入门级大模型GLM-3 Turbo模型调用价格,从0.005元/千tokens降低到0.001元/千tokens,而且就像DeepSeek一样也推出了赠送活动:新注册用户获赠从500万tokens提升至2500万tokens。这场价格战就此拉开了帷幕。

紧接着字节也跟上了降价节奏:豆包通用模型Pro-32k的推理输入价格降到0.0008元/千tokens,比行业价格低了99.3%,火山引擎总裁谭待当场宣布“大模型从此以厘计价”。

这下子市面上几个主要的大模型厂商都坐不住了,接下来几个月里,阿里通义千问、百度文心一言,以及科大讯飞和腾讯的混元大模型,几乎”一周一个跳楼价”。

业内不少人就此自嘲:大模型再这么卷下去,马上就要“零元购”了。确实,对比较初级开发者来说,光是“薅”各个大模型平台注册或者登录赠送的tokens,可能也能用很长一段时间了。

从市场经济的角度看,卷价格是一个市场初步成熟之后的必经阶段。但能够发生价格战,某种程度上也意味着当前市场产品的同质化。我们的国产大模型如此迅速就开始了价格战,到底是因为国内AI大模型市场已经到了成熟阶段,还是因为技术升级阻力下导致的产品同质化,也就是低效内卷。或走向提升效率,或滑向恶性竞争,这其中的边界模糊不清。这应该是大家对当下的大模型价格战最为忧虑的地方。

从“卷价格”到“卷应用”

在担忧价格战会带来恶性内卷的同时,我们也不得不承认,价格战反过来也可以“催熟”市场。降价的压力会让生产者进一步挤压成本,提升效率,同时产品能够带来更加广泛的渗透。这一点我们在之前的网约车和电商价格战中已经看过很多遍了。

同样的,在价格内卷之下,大模型市场正在慢慢起变化。市场对大模型的关注点逐渐从从技术和性能本身,转向AI应用的落地和变现。

这一点从各个大模型的业务动向中能看出来,AI应用现在已经渗透进金融、医疗健康、教育培训、搜索、办公等多个场景。百度的李彦宏更是公开呼吁:“大家不要去卷模型了,卷应用吧,只有应用直接创造价值。”

AI应用大规模落地开花,或许有大模型这个基础设施的价格已经足够便宜的原因,但是大家从卷模型转向卷应用,根本上还是因为大模型需要耗费大量金钱和时间,变现渠道却并不明确,实在是烧不动钱了。

在之前的预计中,OpenAI2024年营收将达到37亿美元,但亏损也将高达50亿美元。这还是在欧美消费者付费习惯培养得比较好,ChatGPT付费用户比较多的基础上。国内几个大模型平台虽然也开始试探着收费,但国内受众付费意愿普遍不高,就算“摸着OpenAI过河”,效果好像也不尽如人意。

马斯克曾估算,GPT-5的训练可能需要3万-5万张英伟达H100芯片,仅芯片成本就超过7亿美元。要么在美国高端芯片禁售越来越严格的基础上,找到降低成本的途径继续升级下一代大模型,要么就先把模型训练放一放,先去卷应用,争取落地变现。

面对分岔路口,有的公司已经选了第二条路,逐步放弃预训练,全力卷应用。但是依然有人选择第一条。就在差不多十多天前,DeepSeek发布了新大模型DeepSeek-V3,将训练成本降至新低,整个训练过程在约278.8万个英伟达 H800 GPU小时内就完成了,估算出来的总成本才557万美元左右。可以想象,新的一年大模型价格战又会迎来腥风血雨,而在成本迅速降低的基础上,AI在各行业的应用也有可能进一步爆发。但是如何靠应用完成商业变现,又是一个新的难题。

继续卷模型卷成本卷价格,不一定无路可走,而转头去卷应用也不一定就是坦途一条。如果不能在算力受限的基础上提升效率降低成本,就算是大厂也不一定“卷”得过创业公司。新的市场充满了不确定性,也意味着新的可能。新的市场,新的一年,创业公司和大厂们再次站在了同一起跑线。

注:本文仅代表作者个人观点     

■ 
                                                                                         
读者评论
MORE +

热门排行榜
OR
+
  • 房地产中国表示将“大幅增加”债务以恢复经济增长
    楼市止跌回稳,核心在哪里?

    刘渊:2024年是中国房地产的转折之年。展望2025年,实现房地产市场止跌企稳的关键在于稳定需求,尤其是中低价位普通住宅的需求。


  • 英伟达CEO黄仁勋:中国可凭借大湾区独特优势发展人工智能
    黄仁勋在CES展会上大谈机器人和汽车业务未来发展

    英伟达首席执行官黄仁勋周一在消费电子展上发表演讲,大谈该公司在人工智能体、自动驾驶汽车和机器人领域取得的进展。


  • “天宫”空间站:中国如何计划成为下一个太空大国
    “中国完成了一项不可能的实验!”

    中国科学家通过“天宫”空间站首次制造出工业级铌合金,可能将彻底改变航空航天技术。


  • 在“玄学酒吧”半醉半醒的年轻人
    在“玄学酒吧”半醉半醒的年轻人

    2024年,酒吧刮起了玄学风。一边喝酒,一边解惑,一边是微醺,一边是直面问题的清醒,这种“半醉半醒”的癫系混搭,完美切中了当代年轻人的精神状态,受到他们的喜爱和追捧。


AI人工智能AI正在抢走谁的工作?一个人使用ChatGPT取代了60名员工
2025-01-06 12:38
科技

大模型的2025:卷价格,更要卷应用

闫曼:如果不能在算力受限的基础上提升效率降低成本,就算是大厂也不一定“卷”得过创业公司。
闫曼


在2024年的最后一天,阿里云宣布通义千问视觉理解模型全线降价超80%,这已经是通义千问一年里的第三轮降价了。这一轮的价格降幅达到81.3%,创下全网最低价格。按照这个价格,1块钱可最多处理约600张720P图片,或1700张480P图片。

就在阿里云降价的十多天前,字节跳动推出的豆包视觉理解模型价格比业内价便宜85%,千tokens输入价格仅为3厘,一元钱就可处理284张720P的图片。

两个巨头争相降价,跟还是不跟,这是一个让其他市场参与者焦虑的问题。

“以厘计价”的大模型价格战

还是原来的配方,还是熟悉的味道,国内市场上价格战实在是家常便饭。尤其是科技和互联网行业,经历过往年的百团大战、网约车大战、电商百亿补贴以及现在依然战火正旺的新能源汽车价格战。更何况,2023一整年这么多大厂和创业者都涌入大模型产业,淘汰赛是可以预见的。

但是没有人会想到这场价格战来得如此之快,更没有人想到这场价格战的导火索是一家创业公司:去年5月,幻方量化旗下的DeepSeek发布了DeepSeek-V2,能力号称对标GPT-4,价格却仅为GPT-4的近1%,还有“登录就送 500万 tokens“的优惠活动。

低廉的价格让DeepSeek一跃成名,成为了“大模型界拼多多”和“行业鲶鱼”。不到一周的时间就有友商崩不住了,智谱AI率先调整了其入门级大模型GLM-3 Turbo模型调用价格,从0.005元/千tokens降低到0.001元/千tokens,而且就像DeepSeek一样也推出了赠送活动:新注册用户获赠从500万tokens提升至2500万tokens。这场价格战就此拉开了帷幕。

紧接着字节也跟上了降价节奏:豆包通用模型Pro-32k的推理输入价格降到0.0008元/千tokens,比行业价格低了99.3%,火山引擎总裁谭待当场宣布“大模型从此以厘计价”。

这下子市面上几个主要的大模型厂商都坐不住了,接下来几个月里,阿里通义千问、百度文心一言,以及科大讯飞和腾讯的混元大模型,几乎”一周一个跳楼价”。

业内不少人就此自嘲:大模型再这么卷下去,马上就要“零元购”了。确实,对比较初级开发者来说,光是“薅”各个大模型平台注册或者登录赠送的tokens,可能也能用很长一段时间了。

从市场经济的角度看,卷价格是一个市场初步成熟之后的必经阶段。但能够发生价格战,某种程度上也意味着当前市场产品的同质化。我们的国产大模型如此迅速就开始了价格战,到底是因为国内AI大模型市场已经到了成熟阶段,还是因为技术升级阻力下导致的产品同质化,也就是低效内卷。或走向提升效率,或滑向恶性竞争,这其中的边界模糊不清。这应该是大家对当下的大模型价格战最为忧虑的地方。

从“卷价格”到“卷应用”

在担忧价格战会带来恶性内卷的同时,我们也不得不承认,价格战反过来也可以“催熟”市场。降价的压力会让生产者进一步挤压成本,提升效率,同时产品能够带来更加广泛的渗透。这一点我们在之前的网约车和电商价格战中已经看过很多遍了。

同样的,在价格内卷之下,大模型市场正在慢慢起变化。市场对大模型的关注点逐渐从从技术和性能本身,转向AI应用的落地和变现。

这一点从各个大模型的业务动向中能看出来,AI应用现在已经渗透进金融、医疗健康、教育培训、搜索、办公等多个场景。百度的李彦宏更是公开呼吁:“大家不要去卷模型了,卷应用吧,只有应用直接创造价值。”

AI应用大规模落地开花,或许有大模型这个基础设施的价格已经足够便宜的原因,但是大家从卷模型转向卷应用,根本上还是因为大模型需要耗费大量金钱和时间,变现渠道却并不明确,实在是烧不动钱了。

在之前的预计中,OpenAI2024年营收将达到37亿美元,但亏损也将高达50亿美元。这还是在欧美消费者付费习惯培养得比较好,ChatGPT付费用户比较多的基础上。国内几个大模型平台虽然也开始试探着收费,但国内受众付费意愿普遍不高,就算“摸着OpenAI过河”,效果好像也不尽如人意。

马斯克曾估算,GPT-5的训练可能需要3万-5万张英伟达H100芯片,仅芯片成本就超过7亿美元。要么在美国高端芯片禁售越来越严格的基础上,找到降低成本的途径继续升级下一代大模型,要么就先把模型训练放一放,先去卷应用,争取落地变现。

面对分岔路口,有的公司已经选了第二条路,逐步放弃预训练,全力卷应用。但是依然有人选择第一条。就在差不多十多天前,DeepSeek发布了新大模型DeepSeek-V3,将训练成本降至新低,整个训练过程在约278.8万个英伟达 H800 GPU小时内就完成了,估算出来的总成本才557万美元左右。可以想象,新的一年大模型价格战又会迎来腥风血雨,而在成本迅速降低的基础上,AI在各行业的应用也有可能进一步爆发。但是如何靠应用完成商业变现,又是一个新的难题。

继续卷模型卷成本卷价格,不一定无路可走,而转头去卷应用也不一定就是坦途一条。如果不能在算力受限的基础上提升效率降低成本,就算是大厂也不一定“卷”得过创业公司。新的市场充满了不确定性,也意味着新的可能。新的市场,新的一年,创业公司和大厂们再次站在了同一起跑线。

注:本文仅代表作者个人观点     

■ 
                                                                                         
 

读者评论
OR

 

分享:
每日头条
OR
+
最新资讯
OR
+
热门排行榜
OR
+
OR品牌理念
+

■ 或者,  留一段影像,回一曲挂牵。丝丝入扣、暖暖心灵 ,需飘过的醇厚与共。
■ 或者,热烈空雨伴芬芳泥土;绿绿生命缠锐意骄阳。
回望,回望,一马平川红酒飘散断归途。
■ 或者,灰蒙蒙空气重回道指一万四千点。滚动时光,照进现实,流逝过往,回归未来。

■ OR 新媒体是一个提供时政、经济、文化、科技等多领域资讯的平台,旨在为用户提供优质的阅读体验。网站的网址是oror.vip,用户可以通过浏览器在台式电脑 、笔记本电脑 、平板电脑 、手机访问。.......