半导体行业观察 1小时前
一颗AI CIS所引发的影像革命
index.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

11 月 27 日,索尼半导体解决方案公司宣布将推出一款 1/1.12 英寸、约 2 亿像素、并在芯片内部集成 AI 推理电路的 CMOS 传感器—— LYTIA 901。这是全球首批将 AI 图像复原、电路级算法处理与成像结构融为一体的移动影像传感器。

众所周知,图像传感器是摄影摄像中最重要的部件,它负责将光线转换为电信号。在图像传感器领域,索尼是当之无愧的引领者。自上世纪 70 年代起,索尼便开始研发 CCD 图像传感器,即 " 电子眼 ",并在 80 年代率先将其商业化。此后,索尼在该领域始终保持领先地位。2004 年,索尼开始着眼于高清(HD)的未来,大力发展高速、低功耗的 CMOS 图像传感器。自此,索尼不断研发融合新技术的高性能 CMOS 图像传感器,至今仍引领着图像传感器领域的发展。

那么,此次索尼的这款 AI CIS 会不会再次引发影像革命?

传统影像路线已走到尽头

回顾智能手机影像的发展,我们会发现,这是一个不断对抗物理限制的技术演化史。从镜头到算法,再到堆结构,行业试过所有能走的路径,如今,这条路已经接近尽头。

第一个阶段是光学时代(2010 – 2016),这一时期的影像升级逻辑非常简单:硬件越强,画面越好。从 800 万像素到 1200 万像素,再到更大的光圈、更长的焦距、更厚的模组,几乎每一代旗舰手机都能在夜景、细节、色彩上带来直接肉眼可见的差异。但很快行业意识到:手机不是单反,它受体积限制,镜头和传感器不可能无限做大。至此,第一条路走到了天花板。

接着来到了计算摄影时代(2017 – 2023),用算法弥补物理上的限制。从 Google Pixel 2 开始,行业出现第一句真正意义上的影像趋势口号:不是硬件决定画质,是算法决定画质。于是,HDR、夜景模式、多帧融合、语义识别、AI 降噪、RAW 域处理等等这些技术改变了智能手机的成像方式,让手机能够拍出 " 看起来比肉眼还清楚 " 的画面。

这时,影像不再只是传感器采集的结果,而变成了硬件 + 算法 + 芯片算力协同发力。但问题随之出现:随着算力需求翻倍增长,多帧堆叠导致拍摄延迟,处理耗电显著增加,因此就让算法继续变强,但成本也继续飙升,瓶颈再次出现。

然后又来到了结构堆叠时代(2021 – 2024),多摄系统开始上场。由于单摄难以覆盖广角、中焦、长焦需求,各大厂商开始加超广角、加 2x 人像镜头、加 5x/10x 潜望式镜头、加 ToF 深感模组辅助算法。当然这不是为了画质才需要这么多摄像头,而是为了绕过物理焦段限制。

然而 , 随着这一路线持续推进,行业又遇到了三个尖锐现实:1)众所周知,现在的手机摄像头越来越多,占据的面积也越来越大,手机的影像模组已占整机体积的 25 – 40%;2)随着摄像头数量的不断增加,每新增一个镜头,算法工程量不是线性增加,而是几何级增加;3)HDR 叠帧、夜景、超分辨率算法,每一步都需要 ISP/NPU 参与,这意味着手机发热更高、续航下降、视频录制时长受限,而消费者已经不愿意为手机影像牺牲续航和机身厚度。

换句话说,性能投入曲线越来越陡,但用户感知曲线越来越平。通过堆料换体验,已经无法继续驱动影像革命。所以问题出现了,如果不能再堆光学硬件,那影像体验还能怎么提升?如果说过去十年行业解决的问题是——手机如何拍得更真实?那么,未来十年要解决的是——设备如何在成像时就理解真实?

而 AI 进入传感器——就是这条新路线的起点。

AI 进入传感器,是技术路线的重大拐点

索尼 LYTIA 901 最大的突破,并不是 "2 亿像素 ",而是 AI 第一次从后端算法栈,进入前端采集层,这是移动影像架构的部分重构。

为了充分发挥约 2 亿有效像素的高分辨率优势,这款新产品采用了四倍拜耳编码(QQBC)阵列,其中 16 个(4×4)相邻像素通过相同颜色的滤镜进行聚类。在正常拍摄时,这 16 个聚类像素的信号作为一个像素单元进行处理,使相机即使在夜间或昏暗的室内拍摄条件下也能保持高感光度。另一方面,在变焦拍摄时,一种称为重马赛克的阵列转换处理会将聚类像素还原为普通的像素阵列,从而实现高分辨率成像。

索尼指出,将 QQBC 阵列还原为普通像素阵列的阵列转换处理(重马赛克)需要极其复杂的计算过程。针对这款产品,索尼开发了一种基于人工智能学习的全新 QQBC 阵列重马赛克技术,并将处理电路集成到传感器内部,这再次刷新了索尼在业界的纪录。这项新技术能够处理通常难以再现的高频分量信号,从而更出色地还原精细图案和文字等细节。此外,将基于人工智能学习的重马赛克技术直接集成到传感器中,实现了高速处理,并在 4K 分辨率下以最高 4 倍变焦拍摄时,能够以高达 30 帧 / 秒的速度进行高质量视频录制。

一句话总结:过去是拍到什么就处理什么,现在是边拍边理解、边复原。

要知道,过去传统算法能力取决于手机厂商,如小米调色味道、苹果 HDR 策略、华为夜景算法等等,然而传感器集成 AI 意味着:算法从手机厂 " 私有能力 ",变成影像硬件的 " 原生功能 "。因此,未来手机厂之间的差距,将更多来源于生态闭环与场景理解能力,而不是 HDR 曲线怎么调。

此外,这也将带来延迟与能耗断崖式改善。传统上,高倍变焦、夜景算法、超分辨率处理,传统方案需要 SoC 调度 ISP/NPU,整个链路功耗巨大。当 AI 处理直接发生在 Sensor 侧:ISP 压力下降、NPU 无需介入每一帧变焦处理、持续录制能力、散热表现显著提升。

当然,这不是说传感器内 AI 永远更省电,而是说它在 " 高吞吐、频繁调用、数据搬运占主导 " 的任务上更划算。尤其在视频变焦与实时预览场景中:若每帧都要 SoC 端承担重建与重马赛克,DRAM/ 带宽 / 调度开销会显著上升;传感器端完成一部分重建,相当于 " 把高频任务前移 ",对整机功耗与延迟更友好。这为 XR 设备、长时录制、多镜头同步采集打开了现实路径。

谁将受到影响?

在索尼的宣传文案中,有一句值得深思:" 即使在单目相机上进行高达 4 倍的变焦,也能实现高清图像质量,为移动相机拍摄带来全新的体验价值。"

这一句话对手机产业可能意味着:多摄体系依赖正在松动,光学变焦不再必须靠物理焦段。长期以来,多摄主要是为了解决长焦 vs 超广角视角冲突、光学定焦镜头无法覆盖连续变焦、传感器无法在缩放时维持纹理质量等问题。而 AI 重建 + 大底 + 高像素 = 连续变焦方案替代多摄结构。

因此,产业链层面会可能出现两个变化:第一是镜头数量下降的压力,从 " 三摄 / 四摄标配 " 向 " 二摄 / 三摄 " 回归;第二,模组结构重新排序,主摄的价值进一步上升,次摄的边际价值下降。这会让一些依赖长焦模组出货增长的环节(镜头、模组、VCM 马达、校准服务)面临压力。

(图源:索尼)

除此之外,ISP/ 算法团队与手机品牌影像 " 话语权 " 也可能会发生动摇。如前文所述,传感器集成 AI 意味着算法的一部分从手机端(ISP/NPU)下沉到传感器端。影像权力中心可能从 " 手机算法团队 " 部分回归到 " 传感器厂 + 端侧模型栈 "。

索尼也将这款产品看的很重,因为索尼在新闻稿中提到,为了提高 LYTIA 产品品牌的知名度,从 "LYTIA 901" 开始,所有未来以该品牌推出的产品都将遵循统一的命名格式 "LYTIA(产品编号)"。

结语

从产业演进规律看,每一次 CIS 路线转折都发生在旧路径的边际收益显著下降之时:硬件堆叠越来越贵、算法融合越来越复杂、功耗与体积越来越难以妥协。索尼最新的 LYTIA 901,把 AI 推理电路直接集成到 CMOS Sensor 内部,标志着移动影像从 " 像素竞赛 " 迈入 "AI 原生成像 " 的新阶段。

它撬动的并不是某一颗镜头的市场,而是整个影像系统的工程范式:手机影像正在从 " 多模组堆叠 " 转向 " 单摄计算平台 ",由传感器在采集瞬间完成更多复原与重建,把计算链路前移到最靠近光信号的地方——这正是其效率、延迟与功耗优势的根源。

评论
大家都在看