首页 新闻内容详情

阿里云大模型降价不是短期竞争行为,而是长期战略选择

2024-05-22 1455 区块链百科
阿里云大模型降价不是短期竞争行为,而是长期战略选择

站点名称:阿里云大模型降价不是短期竞争行为,而是长期战略选择

所属分类:新闻

官方网址:

SEO查询: 爱站网 站长工具

进入网站

站点介绍

文章来源:硅基立场 原文链接:https://mp.weixin.qq.com/s/rv_n4ODmVprdYARvuR5u1w

作者|周一笑

18145c8b2be6b9d595e4c7e46d6369d9_FvERPxIo6Nfrb0AMErXqyVOdUWmb.png

图片来源:由无界AI生成

今天,国内大模型圈十分热闹,先是阿里云宣布大模型降价,随后国内多家公司跟、回,掀起一的降价潮。

 

但与国内其它厂商调轻模型价格的策略不同,阿里次一共有9款模型降价,其中性能对标GPT-4的主力模型Qwen-Long,API入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。1块钱可以200万tokens,相当于5本《新字典》的文字量。

 

Qwen-Long力究竟如何?根据官方的信息示,其不性能达到GPT-4级别支持最1000万tokens的超上下文对话,可1500万字或1.5万文档,是同级别模型之最。

 



image.png

片来源:由无界AI生成


近期,OpenAI的GPT-4o和谷歌的Gemini 1.5 Pro也下了API价格。不从性价比上来阿里云的主力模型仍然具有优势次降价也意十足。

 

于云算厂商来,没有品力的降价是没有意的,大模型基能力的先是通降价的底气。自从去年8月宣布“全模、全尺寸”开源路线以来,通的技术实力已经获得了国际认可。通已被多个国际权威榜测试基准可,是基于人偏好估大模型的开放平台Chatbot Arena中首个上榜并持在榜的中国大模型,与GPT-4Turbo、Gemini-1.5-Pro等模型于同一梯。通从5亿到1100亿参数的全模、全尺寸的系列模型,也能够满足企和开者不同景下的需求。

 

可以阿里云的次降价真正做到了便宜、量大、又能打。

 

今年年初,在和比·盖茨的播客目中表示,大模型技于陡峭的成线上,成本也在快地下降,大模型门槛的降低是趋势所在。

 

GPT-4o布之后,Sam Altman久布了一篇个人博客,宣布了团队段性目更新:“用最低的价格甚至是免,将最好的模型提供世界上所有人”。是代表OpenAI的,其也可以认为是代表微软说的。

 

“摩定律适用于大模型行”不会自然生,更不是一一家公司能做到的,需要硬件厂商、大模型厂商和云算厂商之的共同努力。如果把大模型行比作一个大的工厂,那么云算厂商就像是提供力的公司。没有力,工厂的机器就无法运

 

,没有云算厂商提供的算能力和存储资源,大模型的训练和推理就很难进行。没有云算厂商提供性、可展、高效的云服,原生AI用普及的度也会大大提高。

 

价格的降低背后是大模型构、训练、推理等成本的持续优化。于阿里云这样的云厂商来,能把API的价格逐步降低,本上是云模游的必然果。

 

术进来的性能提升和效率增加,使得云平台能低的成本提供更大的算服一点于大模型域也不例外。

 

尤其是考到,GPU短缺致算力的缺,如何高效利用算力,公共云服是一种最直接、便捷的方式。

 

级带来的是直接成本降低,而来的接成本分。无是大模型的训练、推理是AI原生用开,阿里云提供的云算网源池,都随着客增多,降低了供应链成本、研成本分置成本,从而提高了整体的成本效益。

 

以千72B开源模型例,根据阿里云的算,如果每个月1亿token的使用量例,在阿里云百上的用成本是每月600元人民,而如果做私有化部署,即使减去成本分,每个月成本也需要1万元。

 

具体来看,阿里云主要从模型和AI基础设施两个面降低推理成本和性能。阿里云基于自研的异构芯片互、高性能网HPN7.0、高性能存CPFS、人工智能平台PAI等核心技品,构建了极致性的AI算力度系合百分布式推理加速引擎,大幅压缩了模型推理成本,并加快模型推理速度。

 

从阿里云的略来看,次大模型的降价实际上可以理解阿里云公共云降价策略的一种延。在去两年,阿里云率先行了几次大模降价,一方面一步提升了国内公共云市渗透率,另一方面,也来了新的收增。更重要的是,阿里云在降价的同继续保持着盈利。

 

依托公共云的优势,阿里云大模型的降价,不是打价格,与“烧钱换无关”,更不能与当年云服厂商“一元中占市史同日而

 

不是短期的市场竞争行,而是期的选择。是阿里云依托“AI驱动、公共云先”略所来的先身位的一种必然。于阿里云来,大模型代的新机遇不是一百米冲刺,它需要做的是把能持下去。

 

正如阿里云深副裁刘光所仅仅是CPU和简单的GPU来的策略,更多是大模GPU集群来算力的基,包括网背后能力的提升。生成式AI从推理、训练,逐走向云端,再一次点燃了公共云的爆

 

“微+OpenAI”来了巨大的商潜力,所有云算巨都希望找到自己的OpenAI,亚马逊重金押注了Anthropic。阿里也不例外,除了通,集了国内五大大模型独角之外。阿里在打造属于自己的ChatGPT:通,当然阿里云不仅仅打造的是阿里云+通合,其百平台支持百川、ChatGLM、Llama系列等上百款国内外优质模型,体了阿里云在大模型代的开放属性。

 

于大模型行仅仅具有技的先性并不能用的落地,如果不能降低大模型的推理成本,任何商化都将是一种昂尝试,尤其是C端用,成本可能是个无底洞。

 

大模型的训练和推理都需要使用GPU或TPU这类专用硬件来加速程,相比之下,传统用的算需求通常低。

 

例如,传统谷歌搜索每点的成本约为0.2美分,而一次AI搜索,涉及大言模型的深度分析与精炼总结,成本升。Perplexity的大,也可以明AI搜索是多么烧钱

 

极高的估、巨大的运成本,如果大模型的使用成本不能一步降低,无法明确商化的众多目都很难维系下去。此前Inflection AI 始人跑路就是一个例子。

 

于企业还是个人开者,推理成本的降低是大模型用落地的前提,也是商化的前提。所以,构建开者生,推大模型用的爆,才是阿里云降价的真正意所在。

 

当前,以文本中心的态应是主流,但随着技术进步,大模型将走向多模态应用,比如像、音等更复的数据交互理,无疑会使得推理市的体量一步大。就像智能手机的展,将电话一通工具转变为娱乐、社交、工作等多功能于一身的设备

 

所以只要大模型用真正爆,AI推理市也将迎来爆,打造了具有基座大模型能力的公共云厂商,通公共云+API的模式,才能走出新的增线取更大的盈利空

 

根据IDC数据,随着人工智能入大模落地用的关键时期,预计到 2026 年,在云端部署的算力当中,推理将占到 62.2%。阿里云认为到今年年底,大模型整个API的市日均用量将达到100亿次,个数字会增十倍,一百倍,一千倍。甚至可能算市整体模翻倍。

 

在移代,从社交网到移支付,用不断涌底地重塑了代社会的生活方式和商格局。像奈和米哈游这样的企生之初就100%在云上,其背后正是公共云作础设施的支撑,和开者无需大模前期投就能利用大的源。

 

正如云网的爆式增提供了必要的土壤,公共云+大模型API的模式,也将大模型的爆款用提供似的支持和催化作用。从个角度出,生成式人工智能代的级应用,也会是云原生用。

 

程中,公共云厂商需要做的是持将新技与原有技术进行重新组织和重新架构,以支撑算范式和算力格局的转变

 

而以阿里云代表的云算厂商,通从底算力、AI平台再到模型服的不断新,同AI也反哺了云从管理、用、算、基架构能力的提升。经让看到了公共云在生成式人工智能代神和启机器般基石作用的体

 

公共云技术红利的持续释放,大模型用的爆发铺平了路,我将迎来一个大模型无不在的世界,可能不需要更多的逻辑推演,那么同理,公共云的AI基础设施也将成不在的存在。当AGI有一天像水廉价、可靠的候,每个人都会想要使用它,每个人都会离不开它。

 

本文接:https://www.aixinzhijie.com/article/6845852

转载请注明文章出


浏览统计(最近30天)