《科创板日报》2 月 8 日讯(记者 郭辉) "80 块打造个人语音助手 "、"150 块 DIY 豆包智能机器人 " ……随着 DeepSeek 的爆火,个人用户部署 AI 大模型一夜间 " 出圈 "。
科技界围绕 AI 降本所做的工作并非一夕之功。有业内人士表示,DeepSeek 在算法层面的推理成本优化,为国产算力芯片和计算集群网络等硬件端的发展争取了更多空间,而软硬件成本的减少,也将相应为国内 AI 应用带来机会,由此形成产业发展正向循环。
越来越多个人开发者低成本的 AI 模型部署实践,让公众更加清醒地认识到,AI 普惠时代已来,端侧 AI 落地箭在弦上。PC 产品被认为是端侧 AI 模型落地的首站。而受访的供应链人士认为,当前更大的想象空间还在智能眼镜、AI 玩具等智能体等应用中,DeepSeek 带来的轻量化模型,将为智能终端行业带来积极影响。
个人用户部署大模型火爆 40 元开发板月售万件
"80 块买一块开发板,按照教程进行硬件连接和固件烧录,就能接入 DeepSeek 等大模型,打造个人语音助手系统。" 在技术社群中,有开发者分享了部署 AI 的技术帖。
不仅如此,《科创板日报》记者关注到,花 150 元还能自行搭建一个豆包智能机器人,358 元能搭建接入大模型且具备手势识别、触摸交互的机器人……可以说,DeepSeek 近期的持续爆火,使得 AI 大模型部署的知识交流同样火热,也让低成本搭建 AI 智能工具进入更广泛的公众视野。
" 万能的淘宝 " 和技术开源贡献,让这一切加速走进现实。
据了解,以上方案均基于乐鑫科技的 ESP 系列芯片。在淘宝搜索 ESP32 关键词,可以看到包括乐鑫官方企业店在内,有多个商家售卖开发板或套件,不同套件价格低可至 20 元、配备屏幕及扬声器、麦克风的套件价格可高至 340 元。
《科创板日报》记者关注到,一套价格 80 元的聊天机器人 ESP32-S3 开发套件,全网销量已超 1000 件;价格 40 元的 ESP32-S3 开发板,则显示月售超 1 万件。
在评论区中,消费者以个人开发者居多。在购买商品后,商家会附送教学视频,同时还会为用户提供技术支持。
" 一站式搞定,新手小白也可以操作 "、" 老板教我教到(晚上)12 点半 "、" 老板晚上 10 点还在教我烧录 " ……多名买家如是反馈产品购买体验。
据乐鑫科技介绍,其 ESP32-S3 芯片硬件具备加速神经网络计算和信号处理等工作的向量指令,AI 开发者们通过 ESP-DSP 和 ESP-NN 库使用这些向量指令,能够实现高性能的图像识别、语音唤醒和识别等应用。
有开发者称,ESP32-S3 支持在本地离线运行一些 AI 模型,比如语音识别、人脸识别和移动检测。但大部分自然语言对话交互仍需要线上接入大语言模型。
除乐鑫科技外,恒玄科技、中科蓝讯、炬芯科技等公司的 SoC 芯片在终端 AI 部署中有所应用。
其中,恒玄科技应用于可穿戴设备中的 BECO 嵌入式 AI 协处理器,能够和主 CPU 核心配合工作,完成基于神经网络 AI 算法的音频处理,同时保持较低功耗水准。
炬芯科技则在其最新一代产品中整合了低功耗 AI 加速引擎,采用基于 SRAM 的存内计算技术,同时将产品逐步升级为 CPU、DSP 加 NPU 的三核异构计算架构,打造低功耗端侧 AI 算力。
产业链人士:看好 DeepSeek 对 AI 端侧的积极影响
DeepSeek 的横空出世,为端侧 AI 落地应用进一步打开想象空间。
据了解,通过蒸馏,大模型推理能力可迁移至小参数模型,能够大幅提升 AI 部署的灵活性。据光大证券分析师刘凯在 2 月 6 日发布的研报称,蒸馏模型有 1.5B、7B、8B、14B、32B、70B 等多个版本,虽然蒸馏会损失部分能力,但更小的参数意味着更大的灵活性。第三方可以从 DeepSeek-R1 中蒸馏出更多版本的小参数模型并部署至手机、笔记本电脑、智能家居产品等各类终端产品中,预计将助力硬件销量提升、并涌现出更多基于 AI 服务的付费点。
端侧 AI 落地来势汹涌,其前景也得到了产业链人士的证实和看好。
一家存储芯片厂商人士则向《科创板日报》记者称,DeepSeek 对于 AI 端侧的存储有积极的影响,目前尤其看好端侧 AI 智能眼镜产品当中的落地。从行业来看,海外公司 Meta 的 AI 眼镜是 32GB 容量 +2GB 的配置,大模型在其中已经能够当成本地化工具来使用,而未来可能智能眼镜存储容量还要加大。
该人士称," 预计今年国内的智能眼镜肯定会大爆发,起量会在 2026 年。"
一家国内消费电子配套芯片公司人士向《科创板日报》记者表示,尽管他们的产品在产业链几乎最上游,但还是能感受到 DeepSeek 为智能终端行业带来的积极影响。"AI 降本之后,终端应用预计会有大的爆发,继续看好眼镜、玩具、AI 手机、AI PC 等消费电子。"
华安证券分析师陈耀波在 2 月 6 日发布的研报中表示,端侧实现 AI 能力需要端侧 AI 大模型的落地。从国内手机整机厂商看,均推出文档摘要、AI 修图等端侧 AI 功能,包括华为的盘古模型、小米的 MiLM、vivo 的蓝心大模型等,基于 DeepSeekR1 在推理能力上表现出色,若能进入 AI 智能终端,将推出具有强大 AI 功能的产品,有望提升用户体验。
以 AI 眼镜的产业链为例,光大证券表示,看好与日常需求相结合产生的巨大市场空间,建议关注恒玄科技、中科蓝讯、星宸科技、富瀚微、云天励飞 -U、炬芯科技等 SoC 芯片商;以及普冉股份、兆易创新、佰维存储、长盈精密等零部件环节。
DeepSeek 为国产硬件端发展争取更多空间
PC 产品同时包含生产力工具和个人智能管家两大属性,被认为是端侧模型落地的首站。以部分 PC 主机厂为主导,DeepSeek 模型与国产算力芯片的适配进展超过不少人的想象。
《科创板日报》记者了解到,日前搭载龙芯中科 3A6000 处理器的信创 PC 宣布实现 DeepSeek 本地化部署。据诚迈科技表示,DeepSeek 实现本地部署后,无需依赖云端服务器,避免了因网络波动或服务器过载导致的服务中断,并且也保障了信息安全。比如在党政机关等涉及大量敏感信息和个人隐私的场景中,用户通过诚迈信创电脑上的本地部署 DeepSeek,能够完成文档处理、数据分析、内容创作、图片编辑及代码生成等多项工作,防止数据外泄。
国产 GPU 厂商沐曦则与联想合作,推出了面向敏捷部署的 DeepSeek 智能体一体机解决问题。该产品搭载的联想 AI Force 智能体开发平台,深度融合 DeepSeek 等主流大模型库,并通过私有化部署实现安全合规以及高度定制化、再开发能力等。实测数据显示,在相同并发条件下,沐曦曦思 N260 GPU 在 Qwen2.5-14B 模型推理实测性能达到 NVIDIA L20 GPU 的 110%-130%,可支持本地部署 DeepSeek 各种参数蒸馏模型推理。
除了本地化部署,DeepSeek 作为开源模型,还通过各大云计算平台向中小企业及个人用户提供 AI 服务资源。
有业内人士向《科创板日报》记者表示,从商业模式上来看,目前 DeepSeek 处于开源状态,云计算平台方遵循开源协议均可使用。对用户而言,算力平台可能会附加算力成本或相关服务成本,但考虑到算法模型公司的资产投入,云计算平台作为 " 卖水人 ",相对而言仍是高效稳定的选择。事实上," 近期 DeepSeek 火热,使得算力平台需求明显增多 "。
该人士还表示,基于主流云平台异构计算方案,DeepSeek 也在一定程度上推动国产大算力芯片和异构计算方案被市场接纳,进一步降低了 AI 训练成本。
目前,阿里、腾讯、超算互联网等算力平台,均已经上线 DeepSeek 系列模型。在算法和算力网络的共同优化之下,云计算平台对 DeepSeek 模型进行适配并提供服务,降低了终端接入大模型的成本和部署门槛。
以阿里云为例,用户无需编写代码,即可云上一键部署 DeepSeek-V3、DeepSeek-R1,实现从模型训练到部署再到推理的全过程,极大地简化了 AI 模型的开发流程。在价格成本方面,阿里云服务用户可选取公共资源组搭配节省计划,或购买预付费 EAS 资源组等方式来节约成本。超算互联网平台则无需用户部署或进行复杂操作,可开箱即用 DeepSeek 模型,并提供不限量免费体验服务。
" 端侧大模型的线上接入,相对本地部署更为容易,但整体来看,DeepSeek 确实让更多 AI 应用落地的软硬件成本有所减少。" 有算力产业人士表示,DeepSeek 在算法层面的优化,给了国产硬件端的发展争取了更多空间,相应地也为国内 AI 应用带来机会,并进一步强化了国产 AI 从算法、算力到应用的生态闭环。
登录后才可以发布评论哦
打开小程序可以发布评论哦