录像无敌,拍照拉胯?iPhone 16 Pro Max 半年影像测评

文摘   2025-01-26 22:49   广东  

▼ 以下为图文版本
不知道从什么时候开始,提到 iPhone 的影像,很多人第一反应就是“录像无敌,拍照拉胯”。在安卓阵营卷像素、卷大底的时候,iPhone 还是 1200 万像素;在安卓旗舰都用上了两颗潜望长焦之后,去年 iPhone 潜望长焦才「姗姗来迟」。

可能就是苹果这种“挤牙膏”的态度,加上安卓厂商们各种攻占心智的惊喜配置,慢慢形成了对 iPhone 拍照的「固有认知」。那 iPhone 拍照能差到什么程度呢?今天这期视频,我想从影像技术出发,往根儿上刨一刨,看看苹果这些年,到底都干了啥?
 



硬件方面,今年的 iPhone 16 Pro 系列依旧是 4800 万的主摄,1200万的长焦,16 Pro 从去年的 3 倍长焦提升到了和 Max 一样的 5 倍;超广角从 1200 万像素升级到了 4800 万,支持拍摄空间影像。苹果把 iPhone 16 Pro 系列上的这颗主摄称为“融合式”摄像头,那具体融合在哪呢?


传统 CMOS 上比较常见的是 Bayer 排列,每个像素是由 4 个靠在一起的子像素构成,形成一个 2×2 的 RGBG 方阵,然后再通过三种颜色的子像素将 CMOS 感受到的实际光线信息进行编码运算,最终生成数字化的彩色图像文件。


现在旗舰手机上更为常见的 Quad Bayer 排列,是在 Bayer 排列的基础上将每个子像素再拆分为 4 个同样颜色的像素,这样一来,每个完整的像素单元从原来的 2×2 方阵就提升到了 4×4 的方阵。同等面积下,Quad Bayer 排列可以拥有 4 倍于 Bayer 排列的子像素,每个子像素都可以独立采样,在光线充足的情况下可以带来更好的解析力。


但在弱光场景,就有点吃力了,哎,这时候,CMOS 会将靠在一起的 4 个同色像素通过超采样合成一个大像素,以此获得更好的感光能力,这也就是我们常说的像素 4 合 1。



先别惊讶啊,其实这不是什么新技术,早在 2018 年的华为 P20 Pro 上就已经用过了,现在大部分的旗舰产品也都支持像素 4 合 1,可以直接输出原生 4800 万像素或 1200 万像素的照片。但手机厂商通常会默认输出 1200 万像素的照片,这也是为什么厂商们宣传都是 4800 万,实际你用默认模式拍照只有 1200 万像素的原因。





那 iPhone 16 Pro 上原生输出的 2400 万像素照片是怎么来的呢?这种所谓的「像素 2 合 1 」怎么做的?原理上,它和我们前面提到的像素 4 合 1 不同,并不是 CMOS 上的一种像素排列,它只是苹果的一项「计算摄影技术」。


像这种融合算法,业界最出名的当属 Google Pixel。不同的是,Pixel 是纯后期处理的算法,它直接将 1200 万像素的照片扩图成 2400 万像素,这里面有一些是靠算法去“猜”的,所以很多时候没有那么自然。



那 iPhone 是怎么做的呢?你可以简单理解为,当你按下快门,它会先用像素完全不融合的状态拍一张拥有丰富高频细节的 4800 万像素照片,然后再用像素 4 合 1 之后的 1200 万拍一张高宽容度照片,然后将两张照片进行了算法合成,取长补短,最终输出一张既有高频细节也有高宽容度的 2400 万像素照片。


没错,苹果现在玩的就是一套硬件不够软件来凑的套路,那实际表现怎么样呢?我们先到实验室里走一圈。

解析力方面,从左到有分别是 iPhone 16 Pro Max 1200 万、2400 万和 4800 万的 MTF 数值,MTF 是 Modulation Transfer Function 的英文简称,简单来说 MTF 数值的输出结果是一组函数,用来描述光电转换系统处理后的信号跟标版的原始信号比对的结果,理论上解析力数值越高,细节还原能力越强,画面越细腻。



明亮场景下, iPhone 16 Pro Max 三种像素模式的 MTF50 数值是逐渐递增的,2400 万像素的解析力正好介于 1200 万和 4800 万像素之间。从光学的角度,这是一个必然的结果。但要注意的是,iPhone 16 Pro Max 的 2400 万像素成像更多的是计算摄影合成的结果,算法合成能做到接近这样的效果,说实话已经非常牛逼了,我果确实有两把刷子。



那一众「反超苹果」安卓旗舰又是什么水平呢?硬件上苹果肯定是不如一英寸的安卓旗舰的,但如果单看算法的话,1200 万模式大家都没啥差距,换到 2400 万的话, 不管是 MTF50 还是极限解析力的 MTF10,iPhone 都有明显优势。


还有动态范围,我们看光电转换函数 OECF 图中的 DR 值,这个数值越大,动态范围越好。

明亮场景,三种模式的动态范围差距并不明显。换到弱光场景, iPhone 16 Pro Max 的 1200 万和 4800 万的 DR 值分别是 7.53 和 5.99 ,而 2400 万的 DR 值可以达到 7.92 。

从传统光学的理解,相同面积下,像素 4 合 1 的 1200 万的子像素比融合前 4800 万的子像素要大,动态范围就是会有优势。但 iPhone 16 Pro Max 的 2400 万成像在算法帮助下也能做到媲美甚至超越 1200 万的动态范围,这就更多是靠算法来弥补的了。


再来看实拍样张,我们发现 iPhone 16 Pro Max 的 4800 万模式成像也有点反直觉。比如这组照片,大伙觉得哪张更像是 4800 万像素拍的呢?一般支持像素 4 合 1 的镜头,我们可能会右边这张画面更亮的是 1200 万模式拍的。但实际左边才是 iPhone 的 1200 万模式,右边是 4800 万模式,在白天光线充足的场景,iPhone 的 4800 万模式整体出片会泛白,色彩会相对更寡淡,更接近肉眼所见。



但如果你直接在 iPhone 相册中去对比这三种模式,你可能会发现,iPhone 4800 万模式的照片在 HDR 显示中亮度非常高,前后差异特别明显,很容易给你一种 4800 万像素模式不仅绝对解析力强,感光能力也超越 1200 万的错觉,我觉得啊,苹果在这里有点“过度还原”了。





整体测下来,无论是主观的样张还是客观的数据表征,iPhone 16 Pro Max 默认的这个 2400 万模式就是iPhone 的「最优解」,这也算是苹果这么多年来的「优良传统」了,你只需要按下快门,就能得到这台 iPhone 综合素质最好的照片。


除了这个 2400 万像素的模‍式外,iPhone 16 Pro 系列上「独享」的这个新「摄影风格」,也是苹果对「计算摄影」的另一种探索。体验上,这个「摄影风格」不仅支持前期直接预览,在 HEIF 格式下还支持后期调整,我觉得它不像是简单的滤镜模板,反而更像是一个手机自带的调色台。



‍从最近几年 iPhone 影像硬件升级的幅度来看,目前这个相机模组的体积应该是苹果工程师们所能接受的极限了,无论怎么改,都得在这个尺寸下进行才可以。所以从硬件上这几年 iPhone 没有像安卓旗舰那样,为了更大的底更好的长焦,去扩展整个相机模组的体积。有一说一,确实是不如安卓旗舰。


但 iPhone 的影像工程师们也没闲着,算法上还是找了很多突破的,我也在 iPhone 16 Pro Max 的拍照上,看到了一些「阶段性」的成果。但这就够了吗?肯定不够啊。厨子哥,iPhone 17,来个大的吧,我已经等得花儿都谢了。

好了,这期内容就是这些。如果觉得对你有些帮助,欢迎关注点赞收藏转发,这里是 WHYLAB,我是夏然,咱们下期再见。 




WHYLAB
做消费者自己的实验室
 最新文章