阿里云全面升级AI基础设施,打造最强AI基建,助力大模型走进千行百业

元描述: 阿里云全面升级AI基础设施,推出最强开源模型Qwen2.5系列,并大幅降价通义千问主力模型,降低AI使用门槛,助力大模型走进千行百业。

引言: 随着人工智能技术的飞速发展,大模型已成为推动各行业智能化升级的关键力量。作为国内领先的云计算服务提供商,阿里云始终致力于打造最强大的AI基建,为企业和开发者提供高效、便捷的AI服务。在近日举办的2024杭州云栖大会上,阿里云发布了一系列重磅消息,包括最强开源模型Qwen2.5系列、通义千问主力模型降价、全新升级的AI程序员等,再次彰显其在AI领域的领先优势。

阿里云AI基础设施全面升级,打造最强AI基建

与传统IT时代不同,AI时代对基础设施的性能和效率提出了更高的要求。传统的CPU计算体系已逐渐被GPU主导的AI计算体系取代。为了迎接AI时代的到来,阿里云围绕AI时代树立了一个全新的AI基础设施标准,全面升级了从服务器到计算、存储、网络、数据处理、模型训练和推理平台的技术架构体系,将数据中心打造成一台超级计算机,为每个AI和应用提供高性能、高效的算力服务。

阿里云的AI基础设施升级主要体现在以下几个方面:

  • 硬件升级: 最新上线的磐久AI服务器,支持单机16卡、显存1.5T,并提供AI算法预测GPU故障,准确率高达92%。
  • 计算升级: 阿里云ACS首次推出GPU容器算力,通过拓扑感知调度,实现计算亲和度和性能的提升。
  • 网络升级: 为AI设计的高性能网络架构HPN7.0,可稳定连接超过10万个GPU,模型端到端训练性能提升10%以上。
  • 存储升级: 阿里云CPFS文件存储,数据吞吐20TB/s,为AI智算提供指数级扩展存储能力。
  • 平台升级: 人工智能平台PAI已实现万卡级别的训练推理一体化弹性调度,AI算力有效利用率超过90%。

这些升级不仅提升了AI基础设施的性能和效率,也降低了企业和开发者使用AI的成本。在过去两年,尽管模型的尺寸增长了数千倍,但模型的算力成本却持续下降,企业使用模型的成本也越来越低。阿里云将持续投入先进AI基础设施的建设,加速大模型走进千行百业。

通义千问主力模型降价,助力AI应用落地

为了进一步降低AI使用门槛,促进大模型应用落地,阿里云在5月首次大幅降价的基础上,再次宣布百炼平台上的三款通义千问主力模型降价,Qwen-Turbo价格直降85%,低至百万tokens 0.3元,Qwen-Plus 和 Qwen-Max 分别再降价 80% 和 50%。

其中,Qwen-Plus 的推理能力已经追平了 GPT-4,可应用于复杂任务,是效果、速度和成本均衡的最优选择。降价后,Qwen-Plus 的性价比达到业界最高,同等规模较行业价格低 84%。

除了降价外,阿里云百炼平台还为所有新用户免费赠送超5000万tokens 和 4500 张图片生成额度。自首次宣布降价后,阿里云百炼付费客户数较上一个季度增长超过 200%,大批企业和开发者放弃私有化部署,选择直接在百炼上调用各类AI大模型。

目前,阿里云百炼已经服务超过 30 万客户,包括一汽、金山、猎聘、哈啰集团、国家天文台等众多知名企业和机构。本次通义第二轮降价将继续提升 AI 在各行各业的渗透率,未来生物医药、工业仿真、气象预测、游戏等行业将加速拥抱大模型,带来新一轮的 AI 算力增长。

开放最先进的大模型,打造繁荣的AI生态

过去一年,大模型技术实现了多个里程碑式跨越,从大语言到视频生成到多模态模型,大模型的能力边界不断扩展,在数学、代码及推理等能力上持续攀升。

作为业内最早布局大模型技术的科技公司之一,阿里云于去年 4 月发布首个大语言模型通义千问,如今通义大模型家族已全面涵盖语言、图像、视频、音频等全模态,性能均跻身世界第一梯队。同时,通义模型持续开源,已成为最受企业和开发者欢迎的国产大模型。

在云栖大会上,阿里云重磅宣布通义旗舰模型 Qwen-Max 全方位升级,性能接近 GPT-4o,并发布最强开源模型 Qwen2.5 系列,成为仅次于美国 Llama 的世界级模型群。此次共开源 100 款模型,创造了大模型开源史上之最,让企业和开发者以低成本的方式用上大模型。

面向编程场景,阿里云通义灵码再次升级,推出全新 AI 程序员。不同于上一代产品,它同时具备架构师、开发工程师、测试工程师等多种岗位技能,能自主完成任务分解、代码编写、缺陷修复、测试等开发工作,最快分钟级完成应用开发,帮助软件开发提效数十倍。

百模大战一年后,应用成为了大模型产业的主旋律。作为最早提出模型即服务 (MaaS) 理念的企业,阿里云一直把大模型生态的繁荣作为首要目标。目前,魔搭社区已成为中国最大的模型社区,拥有超过 690 万开发者用户,与行业合作伙伴合作贡献了超过 10000 款模型。

阿里云希望企业和开发者能够以最低的成本做 AI、用 AI,让所有人都能用上最先进的大模型,共同推动 AI 产业的繁荣发展。

什么是阿里云的AI基础设施?

阿里云的AI基础设施是为人工智能应用提供算力、存储、网络、数据处理等服务的底层技术架构体系。它包括:

  • 服务器: 用于运行 AI 应用程序的物理硬件,例如阿里云最新上线的磐久 AI 服务器,支持单机 16 卡、显存 1.5T。
  • 计算: 用于执行 AI 模型训练和推理的计算资源,例如阿里云 ACS 首次推出的 GPU 容器算力,通过拓扑感知调度,实现计算亲和度和性能的提升。
  • 存储: 用于存储 AI 模型和数据集的存储资源,例如阿里云 CPFS 文件存储,数据吞吐 20TB/s,为 AI 智算提供指数级扩展存储能力。
  • 网络: 用于连接 AI 模型和应用的网络资源,例如阿里云为 AI 设计的高性能网络架构 HPN7.0,可稳定连接超过 10 万个 GPU,模型端到端训练性能提升 10% 以上。
  • 数据处理: 用于处理和分析 AI 数据的工具和平台,例如阿里云人工智能平台 PAI,已实现万卡级别的训练推理一体化弹性调度,AI 算力有效利用率超过 90%。

阿里云的AI基础设施有哪些优势?

阿里云的AI基础设施拥有以下优势:

  • 性能: 硬件、计算、存储、网络和数据处理能力都处于业界领先水平,能够满足各种 AI 应用的性能需求。
  • 效率: 通过优化技术架构和算法,提高了 AI 模型训练和推理的效率,降低了企业和开发者使用 AI 的成本。
  • 安全: 提供安全可靠的 AI 基础设施,保障用户数据的安全和隐私。
  • 易用: 提供简单易用的工具和平台,降低了企业和开发者使用 AI 的门槛。
  • 可扩展: 能够根据用户需求进行灵活扩展,满足不同规模的 AI 应用需求。

阿里云是如何推动大模型走进千行百业的?

阿里云通过以下措施推动大模型走进千行百业:

  • 开源最先进的大模型: 开源通义模型,让企业和开发者能够以低成本的方式使用大模型。
  • 降价通义千问主力模型: 降低大模型的使用门槛,让更多企业和开发者能够负担得起大模型的使用成本。
  • 提供模型即服务 (MaaS): 通过百炼平台提供模型即服务,让企业和开发者能够便捷地调用各种大模型,无需自行训练和部署。
  • 打造繁荣的AI生态: 通过魔搭社区,连接了超过 690 万开发者用户,并与行业合作伙伴合作贡献了超过 10000 款模型,为大模型的应用提供丰富的资源。

阿里云的这些举措为大模型的应用落地提供了强有力的支撑,推动了大模型在各行各业的应用普及,加速了各行业智能化升级。

常见问题解答

Q: 阿里云的 AI 基础设施与其他云厂商的 AI 基础设施相比有哪些优势?

A: 阿里云拥有全栈技术储备,并通过基础设施的全面升级,让 AI 训练、推理、部署和应用整个生命周期变得更高效。阿里云在硬件、计算、存储、网络和数据处理方面都处于业界领先水平,能够提供更加全面的 AI 服务。

Q: 阿里云的通义千问模型与其他大模型相比有哪些优势?

A: 通义千问模型是阿里云自主研发的中文大语言模型,拥有强大的中文理解和生成能力,在多个方面都达到了世界领先水平,并且持续开源,成为最受企业和开发者欢迎的国产大模型。

Q: 企业该如何选择合适的 AI 模型?

A: 企业需要根据自身的业务需求和数据特点选择合适的 AI 模型。例如,如果需要进行复杂的推理任务,可以选择 Qwen-Plus;如果需要进行快速文本生成,可以选择 Qwen-Turbo。

Q: 如何使用阿里云的 AI 服务?

A: 企业和开发者可以通过阿里云官网的 AI 平台访问阿里云的 AI 服务,例如百炼平台、魔搭社区等。

Q: AI 技术未来的发展趋势是什么?

A: AI 技术未来将继续发展,模型的规模将越来越大,能力将越来越强,应用场景将越来越广泛。未来 AI 将会更加深入地融入到各行各业,推动各行业智能化升级。

结论

阿里云全面升级 AI 基础设施,推出最强开源模型 Qwen2.5 系列,并大幅降价通义千问主力模型,降低了 AI 使用门槛,助力大模型走进千行百业。未来,阿里云将继续投入 AI 基础设施的建设,打造更加完善的 AI 生态,为企业和开发者提供更加便捷、高效的 AI 服务,共同推动 AI 产业的繁荣发展。