硅星人 04-20
AI原生应用爆发在即,中国需要“一云多芯”的“操作系统”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

编程是一种创造性的过程,通过特定的编程语言,我们能够向计算机发出指令,让它执行我们想要的任务。从我们日常进行办公、学习、娱乐活动的软硬件应用,再到数字化经济的发展,编程不仅是互联网的基础,它还渗透到了人类生活的每一个角落。

而编程的源起,可以追溯到 19 世纪。英国数学家查尔斯 · 巴贝奇发明的分析机,被认为是第一台可编程的计算机。

其设计理念包括使用穿孔卡进行数据输入和输出,穿孔卡上的不同位置,代表了不同的指令和数值,通过组合和排列,就可以实现不同的功能。在巴贝奇的时代,掌握这种 " 编程 " 技术的人仅限于巴贝奇和他的几位直接合作者。

随着计算机技术的不断发展,计算机编程语言也在不断更新和发展。从最早的机器语言,到汇编语言,再到现在的高级语言。编程的历史,就是人类和计算机之间沟通的历史,每一代编程语言都为人类提供了更高效、更强大的工具,也让更多人能够借助编程去进行创造。

虽然新型的编程语言学习成本已经降低了不少,但对于没有计算机科学背景的人来说,要达到熟练掌握并能够解决实际问题的水平,仍需要大量的时间。

生成式 AI 的发展正在变化这种情况,我们开始通过提示词来和大语言模型进行交流,指导其执行各种任务。

有史以来第一次,自然语言变成了一种编程语言,虽然目前它还很稚嫩。但我们已经开始想象,不远的将来,我们将抛掉繁琐、" 死板 " 的编程语言,用上自然语言编程

自然语言代替了编程语言,并不意味着以编程为代表的人类智力劳动的终结,也不代表程序员的消失,而是对人类创造力的一种解放。

这也就是百度创始人李彦宏和英伟达创始人黄仁勋都在强调的,未来人人都可以是程序员。

但这一过程不是一蹴而就的,编程技术进步的关键驱动力之一就是操作系统的演进。从早期的硬件控制,到软件编程。Linux 等单机操作系统重点是解决硬件和软件的兼容性问题,给开发者提供一个接口。

而随着软件开发模式从单机时代进入云计算时代,云计算中心操作系统能够管理海量的硬件设备和进程,开发者不用关心单机上的进程,成为一种新型的架构。

此后 AI 的兴起,让云计算、 AI 技术和应用开发这三条平行线也开始交织融合。

云计算正迈入 AI 原生时代,支撑 AI 的计算操作系统内核也需要经历了一次根本的变革。传统以 CPU 为核心的算力已经让位于以 GPU 驱动的算力结构,同时内核中也融入了大模型压缩后的世界知识。管理的重点也从进程和微服务,转变为对智能本身的精细调控。

AI 正在从看不见摸不着的底层技术,迈向工具性、普适化和工业化的应用,新的时代,需要全新的操作系统。

在这样的背景下,在 2024 百度 Create AI 开发者大会上,百度集团执行副总裁、百度智能云事业群总裁沈抖正式发布新一代智能计算操作系统——万源。

原生 AI 应用开发化繁为简,用 " 最优解 " 得 " 极致体验 "

" 万源 " 智能计算操作系统,旨在 " 桥接 " 算力效能与应用创新,从架构来看,万源主要由 Kernel(内核)、Shell(外壳)、Toolkit(工具)三层构成。

底层通过对 AI 原生时代的智能计算平台进行抽象与封装设计,屏蔽掉云原生系统与异构算力的复杂性。上层则建立了一套可重复使用、可扩展的工具、服务和框架,为 AI 原生应用的敏捷开发提供支撑与保障。

从开发者的视角出发,万源就像是 " 智算发电厂 "+" 超级 AI 原生应用工厂 " 的结合体。一方面 AI 应用开发会增加对算力的需求,而并非所有人都具备自建算力的能力,万源通过对云计算的重构,进而把更多智能计算的能力引入到基础设施当中,为开发者的生成提供了持续不断的 " 能源 "。在上层,万源则起到了 " 超级 AI 原生应用工厂 " 的作用,提供了一站式平台支持,就像是工厂的 " 大脑 ",负责指挥调度各种资源,协调生产流程,确保产品质量,而开发者可以更专注在创意和构建产品本身。

具体来看,庞大的训练任务,需要由大量 GPU 服务器组成的算力集群协作完成。在万源的内核层,百度百舸 · AI 异构计算平台针对大模型和智算集群的设计进行了专项优化。能够实现万卡集群上的模型有效训练时长占比超过 98.8%,线性加速比、带宽有效性分别高达 95%,算力效能业界领先。

模型有效训练时长占比从去年的 95% 提升到了超过 98.8%,几乎全部的时间都用于实际的模型训练,而非闲置或等待资源。而线性加速比、带宽有效性分别高达 95%,意味着数据传输几乎没有任何浪费,这对于处理大量数据非常关键。就像一个高效运转的传送带,几乎所有空间都在有效使用,没有闲置,没有浪费空间,确保用户能够获得更高效的服务的同时,也节省了开销。

在算力方面,国内还有一个特殊情况,就是芯片供应的不确定性,这必然会导致多款芯片并存的格局,短期看,是企业被动接受的局面,长期看,一定是主动选择的结果。

所谓异构计算平台,那么包含的就不止一种算力形式,百舸实现了对昆仑芯、昇腾、海光 DCU、英伟达、英特尔等国内外主流 AI 芯片的兼容,支持用户以最小代价完成算力适配。

通过最大程度上屏蔽硬件之间的这种广兼容性,意味着万源能够利用市场上多种不同的硬件资源,帮助用户摆脱单一芯片的依赖,提供了更多的选择和灵活性,而无需为每个芯片平台重新设计和优化模型,节省了大量的时间和资源。尤其是在全球供应链可能出现波动的情况下,避免单一芯片供应问题对项目进度的影响。

在 AI 模型训练中使用多种不同厂商的芯片,尤其是在单一训练任务中实现这一点,一直是业界的一大挑战,主要涉及两个问题:

算力均匀切分:需要确保不同厂商的芯片能够在训练过程中均等地贡献计算力,这要求系统能够智能地分配任务,使得每个芯片都能发挥其最大效能。

芯片间通信效率:不同厂商的芯片可能会有不同的通信协议和优化技术,如何优化这些芯片间的数据交换和同步,是保证训练效率和减少时间延迟的关键。

百舸已经实现了单一训练任务下不同厂商芯片的混合训练,且百卡规模性能损失不超过 3%,千卡规模性能损失不超过 5%,属于业界领先。

万源内核中的另一个重要组成部分是大模型。大模型能够将巨量的世界知识进行高效压缩,并将自然语言的理解、生成、逻辑、记忆能力进行封装。目前,万源内核中既包含了业界领先的 ERNIE 4.0、ERNIE 3.5 大语言模型,也包括 ERNIE Speed/Lite/Tiny 等轻量级模型、文心视觉大模型和各具特色的第三方大模型,以满足用户在不同业务场景下的多样化需求。

在 Shell 层的 ModelBuilder 则解决了内核中模型的管理、调度、二次开发等问题,屏蔽掉模型开发的复杂性,帮助更多人只投入少量的数据、资源和精力,就能快速精调出适合自己业务的模型。

同时,在实际应用中,ModelBuidler 提供的模型路由服务,能够自动为不同难度的任务选择合适参数规模的模型,给出平衡效果与成本的最优模型组合。经测算,在模型效果基本持平的情况下,模型路由平均降低推理成本多达 30%。

除了直接调用万源内置大模型的 API,在 Shell 层之上,千帆 AppBuilder 和 AgentBuilder 共同构成了工具层,为开发者提供强大的 AI 原生应用开发能力。

在应用开发工程实践上,AI 原生应用的开发已经逐步从人工编程逐步过渡到基于提示技术、智能代理设计甚至多智能体系统的趋势。AgentBuilder 为开发者提供了零代码、低代码两种低成本智能体开发模式,真正推动

Agent 成为撬动新一轮人工智能革命的关键力量。

针对 AI 应用开发涉及复杂的算法和大量的数据处理,AppBuilder 提供的工作流编排功能,支持开发者使用预置的模板和组件,轻松定制自己的业务流程,还能够集成、扩建自己的特色组件,在不同节点上选用适合的模型,通过灵活地编排实现业务逻辑。

这类似于提供了 AI 原生应用开发中的通用的轮子,这样开发者可以快速让自己的 AI 应用跑起来,而不用从头研发踩坑。

总体来看,百度智能云的发布了新一代智能计算操作系统 " 万源 " 构建了一个全面且综合的架构,从根本上支持了 AI 应用的开发和部署的整个生命周期。自下而上的综合覆盖确保了从最基本的云基础设施和高性能硬件开始,直到顶层的应用开发与实施,每个环节都得到了充分的支持和优化。

这种极致追求的 " 系统工程 ",确保没有单一环节成为整体系统的瓶颈,从而实现开发者效率的显著提升和成本的显著降低,通过全面的系统优化,实现了效益的 " 乘数效应 "。

万源作为整体的操作系统,在 AI 时代提供全栈的服务。开发者也可以直接通过 AppBuilder 和 AgentBuilder 构建自己的 AI 原生应用,客户可以根据需求选择不同层级的服务,比如,企业可以借助万源打造专属的垂直行业操作系统,万源也支持私有化部署在客户自有智算中心,提供稳定、安全、高效的智能计算平台服务。

万源未来还将进一步开放生态合作,为应用开发者提供更多能力和接口,适配更多厂商异构芯片并发挥其最大效能。

MoE 架构 + 端云协同:兼顾用户体验与实施成本才能迎来 AI 普惠

万源是百度云计算技术与 AI 技术的集大成者,更是 AI 普惠理念的积极推动者,通过万源,百度让普罗大众触手可及 AI 技术,实现技术平权,无论技术背景如何,人人都是 AI 时代的创作者。

通过 MoE(Mixture of Experts,混合专家系统),用户可以根据实际需求和资源状况,灵活选择和组合不同的 AI 模型,例如把文心基础大模型和许多基于专用模型搭配使用。基础大模型保证智能的广度和深度,专用模型负责处理特定任务,以达到最优的性能和成本效益。不仅降低了技术创新的门槛,还提供了一种应对算力资源局限的思路。

百度智能云与荣耀在 MagicOS 上的合作就是一个案例,双方采用了 " 文心大模型 " 与荣耀 " 魔法大模型 " 相结合的 MoE 架构。

在部署方面,则采用了 " 端云协同 " 的方式。云侧的文心大模型擅长处理复杂问题,满足用户深层次需求,端侧大模型与用户走得更近,更懂用户意图。端侧模型就像是一个大管家一样,可以理解用户想要做的事情,然后把这个任务分解成一系列小任务,并发送给云端的大模型,而云端大模型则充当了智囊团的作用,通过调用云端的资源,协调不同的小服务,最终完成用户想要的复杂任务。

下一代计算设备还不见踪影,手机想要成为 "AI 入口 ",需要把大模型和终端结合,要实现这一点,对于终端厂商来说,端云协同是必然的选择。只有端侧、云侧能力互补、相互结合,才能让用户把大模型用起来,从而为用户带来原生的 AI 体验。

在外界还在猜测苹果将与哪家厂商合作来落地国行版设备的时候,百度智能云与荣耀在 MagicOS 的端、云协同的创新,为业界做了最好的示范。

近期,优必选人形机器人通过百度 AppBuilder 平台接入百度文心大模型进行任务调度应用开发,更是让我们看到了端云协同与具身智能结合,让机器人实现行动与认知融合所带来的巨大潜力。

未来,我们可以期待百度智能云进一步推动 AI 模型应用在各行业的渗透和创新,让生成式 AI 真正走向普惠,走进每个人的生活。

万源是时代的必然,也是百度的必然

为什么是百度来做这件事?这是时代的必然,也是百度的必然。

百度长期深耕 AI 技术,在大模型、多模态等领域处于国内领先地位,万源能够将这些前沿技术充分融入和输出,百度自身拥有海量数据和算力资源,也能为万源提供强有力的计算基础设施支撑。

万源的诞生与百度智能云 " 云智一体 " 的战略也是一脉相承的,云智一体可以从 AI+ 云和云 +AI 两个角度来理解,AI+ 云,是以人工智能技术革新云计算;云 +AI 则是将云计算作为 AI 技术产品对外输出的平台,降低 AI 应用的创作和使用门槛。

万源通过深度融合 AI 技术和云计算服务,从底层基础设施—大模型开发与应用— AI 原生应用开发的端到端进行升级重构,用完整的 AI 原生操作系统的视角去迎接原生 AI 时代的到来。

从 " 软件将吞噬世界 " 到 "AI 正在吞噬软件 ",得 AI 开发者得天下绝非言过其实,万源正是百度抓住这一历史契机的产物。

千帆百舸,遇水则发。万源在成为 AI 原生时代智能涌现与应用生根落地的基座的同时,也为百度智能云在 AI 时代带来了新的增长点。所以从这个意义上讲,万源不仅仅是 AI 生态繁荣之源,也是百度新的增长之源。

我们正经历一生中少有的计算技术革命," 未来已来,只是分布不均 ",百度对 AI 的长期投入正在填平这一鸿沟。AI 时代的万源,应运而生,AI 时代的百度,恰逢其会,正走在一条动力充沛的增长路线上。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

智慧云

智慧云

ZAKER旗下新媒体协同创作平台

相关标签

ai 编程 计算机 云计算 程序员
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论