星空体育·(StarSky Sports)官方网站

咨询热线:

400889562369





公司资讯

直击云星空体育栖阿里云再甩王炸:模型到云基础设施全面升级

发布时间:2024/09/24    浏览次数:

  过去两年,从生成式 AI 火爆出圈到 AI 大模型在各行业落地应用,CSDN 看到,大模型正在掀起一场智能化,带来计算、开发、交互三大范式全面升级和转换,本次 AI 技术浪潮,可能进一步让我们迎来科技变革周期,而且比移动与云计算变革更加剧烈。这与 IT 云化、全行业数字化之后 AI 引发的云计算第三次浪潮不谋而合。

  重要的趋势之下,全球科技巨头纷纷加码 AI 大模型技术投入,在今天的 2024 云栖大会上,阿里云通义旗舰模型 Qwen-Max 全方位升级,性能接近 GPT-4o;通义千问推出新一源模型 Qwen2.5,Qwen2.5 全系列涵盖多个尺寸的大语言模型、多模态模型、数学模型和代码模型,每个尺寸都有基础版本、指令跟随版本、量化版本,总计上架 100 多个模型,刷新业界纪录。

  除了自研模型的全面开源开放,今年云栖大会更重磅的是阿里云全栈“All in”AI 基础设施,全面重构了面向 AI 的服务器、弹性计算、网络、存储等全栈技术体系,钻研探索 AI 基础设施的新标准。这一重要技术风向,可以说是一改 AI 系统就要“堆资源、堆硬件”,“搞 AI 就是装备竞赛”的 IT 传统思路,而是从计算存储网络这些云技术底层核心架构的创新,挖掘算力潜力和效率,这可能才是系统性、结构化去满足巨量算力需求的新思路。

  我们看到,AI 计算范式正在从图灵、冯·诺伊曼计算范式转为神经网络计算范式,以 GPU 为主的 AI 算力是目前 AI 系统计算的核心。今年云栖大会,阿里云从自研磐久 AI Infra 服务器、云基础设施处理器 CIPU,GPU 容器算力,自研 HPN7.0 高性能网络,自研智算 CPFS 文件存储系统,AI 大模型工程平台 PAI,全链路提升 AI 系统性能。

  阿里云自研 AI 服务器磐久系列,推出针对 AI 深度优化版本 G 系列(现场展示了磐久 AI Infra1.0、2.0 服务器),可以支持国内外多种 GPU 与异构芯片、单机可实现 16 颗 GPU 高速 Scale up 互连,支持最高 1.5TB 共享显存,提供最高 3.2Tbps 的 Scale-Out 网络带宽。除了硬件规格升级,磐久面向高性能计算的可靠性设计,采用超钛金电源实现能效超 97%,基于 AI 算法的 GPU 故障预测准确率达 92%。另外,阿里云自研云基础设施处理器 CIPU2.0 全面打通阿里云 AI Infra,通过 VPC、eRDMA 提供高性能虚拟网络能力,并全量接入 EBS、EED、CPFS、DFS 等高性能 AI 存储能力;通过存储和网络数据 E2E 加密、统一 TPM 硬件可信根等技术确保数据全生命周期安全。通过软硬一体协同优化,CIPU2.0 最终可以实现 400Gbps 的高吞吐硬件数据加速架构,将整机稳定性提升 20%。

  除了高密度 AI 服务器硬件升级,在 2023 年 Gartner 容器管理魔力象限进入领导者象限的阿里云,在今天会上宣布容器计算服务 ACS 重磅升级,以 0.5vCPU、1GiB 步长递进,实现更柔性的秒级自动热变配;每分钟可弹至 10000 个 pod,并推出按天承诺消费的节省计划,综合算力成本最高可降 55%。面向 AI,ACS 首次推出 GPU 容器算力,用户可以容器化去使用 GPU 算力,通过拓扑感知调度,实现计算亲和度和性能的提升;容器服务 ACK 再升级,大模型应用冷启动延迟降低 85%,容器网络吞吐增加 30%,弹性扩容效率提升 25%,并可提供 15000 个超大规模节点支持。

  在网络层面,针对需要高带宽的 AI 推理在传统数据中心三层网络架构中遭遇负载不均衡的问题,今年云栖大会阿里云推出自研高性能网络 HPN 7.0。HPN 网络系统论文于 2024 年收录顶会 SIGCOMM,成为首篇智算架构论文,HPN 7.0 设计了“双上联+多轨+双平面”的网络架构,被认为是继谷歌 Jupiter 经典网络之后的 AI 网络架构新范式。以 HPN 7.0 构建的高性能、高稳定 AIinfra 网络,支持 3.2TRDMA 网络带宽,模型训练性能端到端提升 10%,集合通信性能提升十余倍。除了 HPN,阿里云还提出端网融合的可预期网络技术体系、率先实践 RDMA 低延时网络,阿里巴巴还曾获评权威机构 AMiner 全球十大最具影响力的网络研究机构。

  面对 AI 海量数据存储管理挑战,阿里云存储服务全面升级,AI 训练场景通过采用对象存储服务(OSS)作为统一的数据湖底座,并结合文件存储 CPFS 数据流动,通过冷热数据分离进行生命周期管理,实现端到端全链路性能提升,数据吞吐 20TB/s,为 AI 智算提供指数级扩展存储能力;另外阿里云 Tablestore 表格存储的向量检索技术,推出了 OSS 索引服务-语义检索,适用于大规模多模态数据集的管理。

  计算存储网络之上,还有数据/算力/AI 资产管理、开发、训练广告设计公司官网、推理的大模型工程化平台 PAI,通过针对 AI 各层全栈优化的 AI Infra,阿里云灵骏集群提供高效的一体化 AI 算力,万卡规模性能线TB/s,万卡规模下网络带宽利用率超过 99%,可支持单集群十万卡级别 AI 算力规模。技术创新也得到了行业权威认可,Gartner 最近刚刚发布了针对 AI 大模型和全流程服务的 2024 年全球云 AI 开发者服务魔力象限,阿里云成为唯一进入挑战者象限的中国厂商。

  大会现场,通义大模型迎来了年度重磅发布。首先是通义旗舰模型 Qwen-Max 全方位升级,性能接近 GPT-4o。通义官网和通义 APP 的后台模型均已切换为 Qwen-Max,继续免费为所有用户提供服务。用户也可通过阿里云百炼平台调用 Qwen-Max 的 API。

  另外,通义千问新一源模型 Qwen2.5 发布,旗舰模型 Qwen2.5-72B 性能超越 Llama 405B,再登全球开源大模型王座。Qwen2.5 全系列涵盖多个尺寸的大语言模型、多模态模型、数学模型和代码模型,每个尺寸都有基础版本、指令跟随版本、量化版本,总计上架 100 多个模型,刷新业界纪录。

  通义万相全面升级,并发布全新视频生成模型,可生成影视级高清视频,可应用于影视创作、动画设计、广告设计等领域。即日起,所有用户可通过通义 APP 及通义万相官网免费体验星空体育官网。

  2024 年 9 月中旬,通义千问开源模型累计下载量已经突破 4000 万,通义原生模型和衍生模型总数超过 5 万个,成为仅次于 Llama 的世界级模型群。

  云计算本身就是灵活、低门槛、技术普惠理念下的产物。AI 时代,有了底层技术架构革新去探索巨量 AI 算力新解法、开源自研大模型以追求 AI 技术的极致前沿水平,阿里云就有了成为中国大模型的公共 AI 算力底座的底气。

  现在,中国一半大模型公司跑在阿里云上,百川智能、智谱 AI、零一万物、vivo、复旦大学等大批头部企业及机构均在阿里云上训练大模型;中国众多头部主流大模型都已通过阿里云对外提供 API 服务,包括通义系列、Baichuan 系列、智谱 AI ChatGLM 系列等。

  今天大会上,阿里云百炼平台上的三款通义千问主力模型再次降价,Qwen-Turbo 价格直降 85%,低至百万 tokens 0.3 元,Qwen-Plus 和 Qwen-Max 分别再降价 80%和 50%。自首次宣布降价后,阿里云百炼付费客户数较上一个季度增长超过 200%,大批企业和开发者放弃私有化部署,选择直接在百炼上调用各类 AI 大模型,中国一汽、联想、微博、携程、喜马拉雅、三得利(中国)等 30 多万企业客户已经接入通义大模型。

  以上,我们还只是研究讨论了 AI 基础设施、大模型开源与生态,模型之上则是千行百业的 AI 应用百花齐放。从今年云栖大会的展览部分也能看出,三个场馆中 AI 底层和前沿技术的展商有 17 家,AI 算力计算馆展商 80 家,AI 创新应用的前沿应用馆展商数量高达 170 多家。阿里云通义大模型已经服务了超 30 万家企业客户,重点覆盖了互联网、金融、汽车、科研、医疗、教育、政务、工业制造和零售等领域,包含营销设计、社交、AI 游戏、在线教育、智慧终端、自动驾驶、智能座舱、金融客服、政务服务、代码开发、药物研发、气象预测、太空探索等场景。

  对于更前沿的 AGI 通用人工智能广告设计师报名官网、具身机器人等话题,云栖大会上 AI 前沿技术研究学者预测 L3 级别的 AGI 将在未来 18 个月内实现,甚至集成 AI 各模块后 L4 级别的通用人工智能也将加速产生。

  阿里巴巴集团 CEO、阿里云智能集团董事长兼 CEO 吴泳铭在 2024 云栖大会上提到,AI 发展的速度超过任何历史时期,但现在也仅仅是 AGI 变革早期,生成式 AI 最大的想象力,绝不是在手机屏幕上做一两个新的超级 app,而是接管数字世界,改变物理世界。,开源开放的技术生态,成为中国公共 AI 算力底座,与全行业共同迎接“图灵时刻”。


Copyright © 2012-2024 星空体育·(StarSky Sports)官方网站 版权所有      浙ICP备2029999782号-1HTML地图 XML地图 txt地图
电 话:400889562369 手 机:138526386529
地 址:浙江省杭州市星空体育官网
扫一扫关注微信