ai如何变革软件和硬件开发的范式?

ai如何变革软件和硬件开发的范式? -k8凯发国际

作者:puneet kumar,rivos 公司联合创始人兼首席执行官

人工智能正在重塑软硬件设计的基本逻辑。过去需耗时 18 至 24 个月的传统服务器硬件开发流程,如今已被压缩至仅 12 个月;与此同时,软件层面通过改进 attention 机制等技术,在两年内实现了性能提升十倍的飞跃——这迫使硬件架构必须向“软件定义硬件(sdh)”转型。客户的需求也从单一追求高性能,演变为对多框架兼容和多种模型支持的灵活性要求:不仅要高效运行当前主流模型,还需快速适配未来可能出现的新模型与新框架。为此,行业应借鉴 gpgpu 架构理念,融合开源生态与开放标准,借助协作式创新打破厂商壁垒,增强硬件可编程能力并实现可持续扩展,从而降低能耗、延长设备寿命,并提升整体投资回报率。

图一、ai 对软硬件设计的颠覆性冲击

硬件迭代显著提速:传统服务器硬件研发周期长达 18–24 个月,而在 ai 驱动下现已缩短至一年内,开发、验证与迭代节奏全面加快。

软件性能指数级跃升:以 attention 技术为例,flash attention 系列在 2022 到 2024 年间完成三次重大优化,每次带来 2–3 倍性能增益,累计实现两年十倍的突破。

典型实例佐证趋势:vllm 的 paged attention 技术使吞吐量提升 3–5 倍;mamba 模型正逐步取代 transformer 成为新兴架构选择。

二、客户需求重心转移:由静态性能转向动态适应力

需求维度 传统硬件满足度 ai 时代新诉求 实现路径
现有模型效率 需持续精进 针对核心算法进行硬件专项加速
未来模型支持 敏捷响应新模型(如 mamba) 采用可编程架构 开源生态支撑
多框架兼容性 无缝运行 pytorch/tensorflow/jax 等多种框架 依托开放标准 统一编程接口

ai 服务器用户的关注点发生了哪些根本变化?

答案是从单一性能指标转向多维灵活性:既要保障现有模型(如 transformer)的高效率执行,也要具备快速接纳未来模型(如 mamba)的能力,同时还需兼容主流深度学习框架(pytorch/tensorflow 等)。传统专用加速器只能满足第一项,唯有结合可编程硬件与开源生态,方能兼顾后两项关键需求。

三、软件定义硬件(sdh)与 gpgpu 架构的融合之道

sdh 的核心设计理念

保持原有编程模型不变,最大限度减少软件迁移成本(例如兼容现有代码库);

在硬件层面聚焦核心任务优化(如矩阵乘法),剥离冗余模块以节省功耗和芯片面积。

gpgpu 的天然契合性

其高并行、多线程特性完美匹配 ai 工作负载特征,目前约 90% 的前沿 ai 模型均基于 gpgpu 进行训练与部署。

四、开源生态的战略杠杆价值

开源带来的三大核心优势

成本控制:借助社区协作共享成果,避免重复造轮子,显著缩短产品上市时间(如 vllm 就是依托开源社区快速演进的典范);

灵活定制:代码透明化允许深度个性化调整,规避对单一供应商的依赖,开放标准让多厂商技术混搭成为可能;

协同进化:跨机构合作加速技术迭代(vllm、flash attention 等突破皆源于开源社区合力)。

开放标准的关键作用:实现软硬件组件解耦,允许独立升级(如软件更新无需更换硬件),构建可持续演进的技术体系。

五、面向未来的硬件战略方向

设计目标明确:打造支持开源生态的可编程 gpgpu 架构,在当前性能与未来适应性之间取得最优平衡。

优选参与开源项目的供应商,可带来三重收益:

投资回报最大化:硬件生命周期随软件演进而延长;

部署敏捷性增强:基于开放标准自由切换技术方案;

绿色低碳转型:通过架构精简降低功耗(如剔除无用功能单元)。

以上就是ai如何变革软件和硬件开发的范式?的详细内容,更多请关注非常游戏网【www.vycc.cn】其他相关内容。

相关推荐

网站地图