作为 AI PC 概念的提出者,英特尔一直持续发力 AI PC 领域,在 2023 年发布了专为 AI PC 场景而生的第一代酷睿 Ultra 系列处理器,首次集成神经网络处理单元 ( NPU ) ,凭借 CPU+NPU+GPU 异构式架构方案,为终端提供强劲本地 AI 算力 , 赋予 PC 更丰富的体验和更多的可能性。而在去年它们带来了全新的酷睿 Ultra 200V 系列处理器,不仅性能及 AI 算力有明显提升,能效方面也有着非常大的进步,让 PC 设备的续航得以大幅增长,并且在第一时间就让今年春节爆火的 DeepSeek 大模型在酷睿 Ultra 产品之上完成本地部署,为广大企业带来数据主权、安全可控、低延迟、低成本等优势。
英特尔不仅在提供底层算力,还在思考如何让 AI 应用真真正正落实到终端设备上为用户所用。它们自 2023 年起就推动 "AI PC 加速计划 ",一方面不断提升模型适配的广度和深度,它们不仅实现了对国内外的各种类型的 AI 模型的完整覆盖和深度优化,还率先实现了对多模态模型的支持和适配,通过不断和国内模型厂商合作,把最新的、最好玩的模型第一时间带到 AI PC 上 ; 另一方面则与全球超 200 家 ISV 伙伴一起积极开发各种 AI PC 应用,积极布局软件生态。
我们今天将要详细体验的这款来自星环科技的无涯问知 AI PC 版便是其中之一,它基于星环科技先进的大模型技术,提供本地化的向量库,支持将数据向量化存储,使用户能够高效地存储和查询海量数据和知识,支持影、音、图、文等多模态数据和资料的 " 知识化 " 处理,并且配备自研的 RAG 模块,为丰富的知识库应用提供强大的支持。它可以充分利用酷睿 Ultra 平台的混合 AI 算力,本地大模型调用 iGPU 强大的 AI 能力,其它微服务运行在 CPU 上,嵌入模型 ( Embedding Model ) 等小型组件调用 NPU,全面提升 PC 用户的 AI 体验。
我这次体验使用的设备是来自华硕的破晓 6Pro,它搭载的是酷睿 Ultra 7 258V 处理器,8 核心 8 线程,至高睿频可达 4.8GHz,并且集成了 Xe2 架构的 Arc Graphics 140V 显卡,以及 Intel AI Boost NPU 处理器,三大 AI 引擎的总算力达到了 115 TOP,为 AI 应用流畅运行提供支持。另外,它还配备了 32GB LPDDR5X-8533Mop 内存和 1TB 的 PCIe 4.0 SSD。
接着我们重点聊聊无涯问知 AI PC 的使用体验,它具有智能问答、知识总结以及文本生成等功能,而相比于开源方案,它不需要复杂的部署流程,下载后即可一键实现安装和模型部署。用户只需要在网站上点击这块下载,建议大家选择 DeepSeek 增强版,它直接内置了本地大模型。
然后解压下载完成的安装包,双击安装包中的 exe 文件进行软件安装。
勾选中大语言模型组件,选择安装路径,然后等待安装完成后即可打开软件登录使用了,无需额外的设置和操作,大大的降低了学习和使用的门槛,对于企业中的普通用户来说也能轻松上手体验。
目前,无涯问知 AI PC 版可以实现 80 亿参数的 DeepSeek 的 " 蒸馏模型 " 在个人电脑端的本地化流畅运行,这意味着大模型推理全部在本地完成,确保数据安全可控。
而且它支持 " 云端协同 ",我们可以在软件内根据需求在 " 远程无涯大模型 " 和本地深度思考大模型 ( DeepSeek R1 ) 之间随时进行切换,兼顾了性能与隐私。这样我们既可以使用云端强大的能力,高效处理复杂数据查询和分析任务,又可以享受本地部署的数据安全性和隐私性,避免了数据上传到云端可能带来的风险。
我们这次的所有的体验将会使用本地 80 亿参数的 DeepSeek 的 " 蒸馏模型 " 进行推理,充分发挥酷睿 Ultra 7 258V 的本地 AI 算力。
刚才也有提到,无涯问知 AI PC 版有着丰富的功能,首先就是智能搜索,在日常工作中难免会遇到一些不太明白的问题,这时候便可以在这里进行搜索,其知识源可以来自个人知识库、互联网、实时财经新闻咨询、法律法规文档等。
比如我最近正在筹备 AI PC 相关的选题,就可以使用它去搜索和 AI PC 相关的资料,并利用本地的深度思考大模型 ( DeepSeek R1 ) 进行整理和总结,它参考了我本地的资料以及互联网信息,依靠着酷睿 Ultra 7 258V 提供的强大算力,其首 token 延迟为 32.6 秒,生成速度为 11.7tokens/ 秒,差不多几分钟就能生成一段较为详细的结果。
而且除了可以将文字内容复制外,如果有需要的话,还可以将其直接导出为 PPT,非常的方便,省去了我们不少的功夫。
它还可以帮助我们分析文档,它支持影、音、图、文等多模态数据的 " 知识化 " 处理,我这里上传了一个之前下载的 AI PC 行业报告,就可以利用无涯问知 AI PC 版帮我对其进行分析和总结,首 token 延迟大约为 12s,生成速度约 10.4token/ 秒,同样是仅需几分钟,我就可以快速了解到这篇报告的主要内容,非常的高效方便。除了给出对应的回答外,它还会延伸一些相关的问题,我们可以根据需求选择提问。
当然,像会议录音同样可以轻松处理,首 token 延迟大约为 13s,生成速度约 10.3tokens/ 秒,只用 1 分半就能整理出了长达 30 分钟音频会议内容中的要点,并且由于使用的本地的深度大模型 ( DeepSeek R1 ) ,所以完全不用担心会议内容被泄露的问题。
另外,除了可以进行知识问答或是整理文档、录音外,我们还可以利用无涯问知 AI PC 版构建属于自己的本地知识库,把相关的文档上传到本地,使用本地部署的大模型进行检索和整理,这样就可以确保私密数据零出网。
比如我最近就在研究 AI PC 相关的发展和未来,就把搜集到的 AI PC 相关的报告、文档等资料都收集了起来,传到了我的本地知识库之中。当我想要查找相关资料时,就可以利用本地深度大模型 ( DeepSeek R1 ) 帮我进行检索和生成。这里就针对我想要知道的关于 AI PC 的一些问题进行了咨询,首 token 延迟只有 6 秒左右,生成速度约为 10.8token/ 秒,仅需几分钟就可以得到想要的答案,而且无论是资料还是检索和生成的过程都是在本地实现的,无需担心私密的资料泄露。
构建这样一个本地知识库之后,即便是在完全不联网的情况下,我们同样可以利用本地深度大模型帮我们检索和总结想要的内容。
对于企业用户来说,这是一个非常不错的功能,比如像客服,就可以将公司产品的详细资料和使用说明上传本地知识库之中,当有相关问题咨询时,就可以在本地进行检索 ; 亦或是律所,可以将之前处理过的案件资料上传到知识库当中,当有类似案件发生时或是想要寻找之前的案卷时,可以利用自己在无涯问知 AI PC 版构建的本地知识库通过大模型快速进行检索,从而提升工作和办案效率。
无涯问知 AI PC 版还提供了写作助手,对于和我一样的文字工作者来说非常的好用,能够快速生成内容的大纲,协助我们缕清内容思路,更快的完成内容创作。这里同样能够选择知识来源,可以只选择我们本地的知识库,也可以将个人知识库和互联网等全部选上。
无涯问知 AI PC 软件还内置了各种智能助手,包括数据分析助手、视频解析助手、合同审核、财务审核等,可以为相关领域的企业用户提供帮助。
我这里也选择了一部分进行了使用,比如这个尽调助手,只要知道公司名称,即可对其进行调研,并且生成一份非常详细的报告,方便企业用户对于竞争对手或是将要合作的企业进行调查。
合同审核助手则可以帮助企业用户对相关的合同进行审核,它提供了默认的审核规则,上传合同后即可根据规则对合同进行全面的审核。我上传的是一份房屋租赁合同,审核项目非常详细,并给出各个项目和条款是否符合规则、符合的原因以及审核意见等,帮助我们规避法律风险和合同争端。
除了默认的规则外,企业还可以根据需求,上传自定义的审核规则,从满足公司对合同的审核要求。
还有这个视频助手也是我个人很喜欢用的,可以解析本地上传或是在线视频链接的内容,让我们可以快速了解视频的内容,不过目前在线内容仅支持 bilibili 视频,希望后续能够继续扩充。不过,由于视频助手是通过识别视频中的音频内容进行的总结,所以无法对无声和只有背景音乐的视频进行解析。
除了我提到的这些外,无涯问知 AI PC 版还提供了数据分析助手、财务审核等工具,满足企业用户在日常工作中的使用需求,提升工作效率。
由于无涯问知 AI PC 版可以调用本地深度思考大模型 ( DeepSeek R1 ) 进行推理,所以即便在断网情况,用户依然可以使用本地知识库问答和写作的功能。比较可惜的是,即便使用的本地大模型,但目前助手相关的功能在断网情况下暂时无法使用,我们期待他们未来的升级能够做到更好。
体验总结
通过这段时间的使用和体验,我觉得无涯问知 AI PC 版是一款功能丰富、使用便捷的软件,依靠着酷睿 Ultra 7 258V 处理器提供的强大算力,让它可以利用本地深度思考大模型 ( DeepSeek R1 ) 进行推理和分析,为广大企业用户智能问答和知识管理,并且构建属于自身的本地知识库,即便在不联网的情况下,依然可以获取想要的知识,做到数据完全不出网,能够更好的保障隐私安全。同时还提供了非常丰富的智能助手,协助用户完成内容创作、数据分析、合同审核、企业尽调等工作,有效提升工作效率,无论是日常办公还是专业领域的需求,都能得到满足。酷睿 Ultra 与无涯问知 AI PC 版,通过软硬件协同设计,正在推动生产力工具向更智能、更高效的未来演进。
尽管在算力方面与端的数据中心级硬件相比仍有差距,但目前酷睿 Ultra 200V 系列的本地 AI 算力已经对比前代有了跨越式提升,使企业级 AI 模型部署与流畅运行成为可能,并为企业用户提供数据主权、安全可控、低延迟、低成本等优势。相信在未来,随着本地 AI 算力的持续提升,也将为企业和用户带来更出色的 AI 应用体验。
登录后才可以发布评论哦
打开小程序可以发布评论哦