您的位置:首页 >今日更新 >正文

如何降低AI应用门槛?网宿科技携边缘智能解决方案重磅亮相

摘要 小枫来为解答以上问题。如何降低AI应用门槛?网宿科技携边缘智能解决方案重磅亮相,这个很多人还不知道,现在让我们一起来看看吧~.~!  近...

小枫来为解答以上问题。如何降低AI应用门槛?网宿科技携边缘智能解决方案重磅亮相,这个很多人还不知道,现在让我们一起来看看吧~.~!

  近日,全球边缘计算大会在深圳召开,网宿科技(300017)作为领军企业,与业界专家共同探讨了边缘计算的前沿技术以及应用趋势。

  会上,网宿科技边缘智能平台资深架构师陈云辉分享了网宿在AI时代的创新探索,重点带来了网宿面向AIGC的一站式边缘智能解决方案,受到了广泛关注。

  众所周知,尽管国内基础大模型百花齐放,为用户提供了丰富的模型选择,但用户在实际落地中仍面临较高门槛。

  陈云辉指出,从0开始实现AI应用落地的过程中,企业用户必须综合考虑多个关键因素,包括对比开源模型和云服务商的推理成本与性能评估,重视系统的安全性、敏感词过滤等,特别是在与现有业务的改造整合中,更是问题多多。对于对数据隐私和模型控制有严格要求的应用场景,还需考虑针对特定垂直场景的私有模型微调。这些都使得整个实施周期漫长且成本高昂。

  边缘计算拥有高效的数据处理能力、实时的响应速度、更低的带宽要求等优势,可以在AIGC应用过程中发挥关键价值。

  网宿科技近年来对AIGC展开了持续探索,形成了涵盖Serverless GPU、AI网关、模型微调与推理服务的一站式边缘智能解决方案,可以大大降低AIGC应用的落地门槛,帮助用户以低成本、高效率的方式轻松实现AI应用创新。

  网宿Serverless GPU为用户提供高度可扩展、按需使用的GPU算力资源服务,主要适用于多种计算密集型任务,如AI模型推理、音视频加速生产、图形加速等。

  基于网宿丰富的GPU算力资源,结合Serverless K8S和GPU加速的优势,用户无需管理GPU服务器和K8S,只需上传容器镜像即可方便快捷运行AI应用。

  陈云辉介绍,Serverless GPU除了拥有免运维的特性外,相较集中部署,由于GPU资源是放在边缘侧,离用户更近,更贴近业务边缘,具有低时延优势。并且,通过按需分配和GPU虚拟化技术,大大提高GPU资源的利用率,可以有效降低用户的GPU使用成本。

  网宿AI网关则是一款针对大语言模型的统一API接口,可以用在应用程序和托管的大语言模型(LLM)之间,允许通过一个统一的API接口将API请求转发给各个云厂商以及自有部署的大模型。

  网宿AI网关可以用于个人开发者和企业级AI应用,帮助管理和整合多个后端大模型接口,提高AI应用的稳定性和可靠性,并降低后端模型的调用成本。

  此外,对数据隐私、模型可控性有强要求的企业往往选择部署自有开源模型,对此,网宿边缘模型训练推理平台可以提供最经济可靠的模型推理服务。

  网宿边缘模型训练推理平台不仅为用户提供一个全球性的边缘推理运行环境,还提供模型微调环境、配备所需的GPU资源和完整的工具链,并支持将微调好的模型一键部署到网宿全球的边缘节点上。通过不断优化的推理性能,边缘模型训练推理平台可以支撑用户高效地训练、推理和使用大模型。

  此次会上,陈云辉进一步向业界分享了网宿边缘智能的布局新方向——AIGC工作流引擎和AI营销创意平台。

  其中,AIGC工作流引擎旨在帮助用户更高效地管理和执行AI应用的工作流程,通过将当前复杂的业务流程分解成单个小任务,降低单一任务的复杂度,既可以减少对提示词以及大模型推理能力的依赖,还能提升大模型处理复杂任务的性能和容错能力,同时,在大模型性能不足的环节,AI工作流引擎还可以使用传统的处理方法。基于工作流引擎搭建的AI应用开发平台,能有效结合AIGC与传统方式,更好实现AI应用的落地。

  AI营销创意平台则面向最终用户提供开箱即用的AI产品,旨在为用户的营销工作赋能。

  展望未来,陈云辉表示,大模型将演变成为基础设施,为各种应用提供基础性和通用性的支持。网宿希望持续为客户提供更低成本模型推理、更高质量内容生成的边缘智能解决方案。

来源:网宿科技官微

以上就是关于【如何降低AI应用门槛?网宿科技携边缘智能解决方案重磅亮相】的相关内容,希望对大家有帮助!

版权声明:本文由用户上传,如有侵权请联系删除!