阿里云举办2024云栖大会,维持开源与低价策略持续耕耘LLM生态
阿里云2024年9月于浙江杭州举办“2024云栖大会”,以“云启智跃,产业蝶变”为活动主题。除了公布旗舰模型Qwen-Max、影片生成模型Qwen2-VL,以及Qwen2.5系列为目前训练数据量最大的开源模型,其训练数据量达18兆Token,并提供参数5亿到720亿大小不等的模型供用户选择,将100多个新款大模型开源至Hugging Face和ModelScope等平台,包含数学、程序码、多模态等不同类型的模型产品;同时,阿里云亦宣布模型价格再次调降,可望通过扩大AI云端运算资源解决AI模型的成本问题。
拓墣观点
模型生态圈成长空间大,阿里云维持开源与低价策略拓展生态
阿里云继2024年5月大幅调降后,此次针对Qwen-Turbo、Qwen-Plus和Qwen-Max等模型再次调降,其降价幅度50~85%不等,并宣布通义模型的客户数已由5月的9万成长至逾30万。除了反映出降价策略具有一定成效,以及参与人数持续增加之外,也反映出模型生态圈仍有较大的成长空间。尽管开源模型有其局限性,然而无论是对于学术研究还是个人开发者来说,对模型的持续迭代以及对整个生态系统的建设,都发挥着积沙成塔、不断累积的积极影响。这也使得阿里云有望通过降低使用成本和开源方式,持续发展模型生态系。
模型成本仍为挑战,阿里云可望通过扩大AI运算资源解决问题
阿里云除了通过低价策略持续拓展模型生态之外,还对外公布了多项数据中心解决方案,包括数据中心架构CUBE DC 5.0、Open Lake以及PAI AI Scheduler等,可望通过基础设施的扩大与优化、模型结构的调整,使运算资源有效发挥,以此解决AI模型的成本问题。
无论是自行训练模型,还是应对持续增加的用户数,这些都不断推动着对运算资源需求的增加。然而,随着芯片性能的不断提升,服务器的成本也随之变得越来越昂贵。对许多中小企业而言,自行购置服务器的成本远高于租赁,企业对AI的投入也增加了算力租赁需求,进而驱动云端厂商对算力基础设施的持续投入,并致力于优化云端资源以有效控制成本。换言之,随着模型用户数的不断增长,云端厂商所提供的运算资源与效能成为决定模型成本的关键因素。除了AI服务器之外,数据中心的通讯、能源、散热等基础设施也必须同步进行升级,以满足日益增长的需求。
海量资讯、精准解读,尽在新浪财经APP