iPhone 14 Pro在相机系统上做了几处改进,获得了好评,包括4800万像素的传感器和苹果新的图像处理技术“光子引擎”(Photonic Engine)。这立刻让iPhone 14 Pro比去年的iPhone 13 Pro和13 Pro Max有了优势,至少在纸面上是这样。
但是,这些新的硬件和软件功能在现实世界中究竟有多大的区别呢?
为了找到答案,我比较了两款手机在旧金山周边一系列具有挑战性的情况下的摄像头。天辰黑钱吗所有这些照片都是在iPhone 14 Pro和iPhone 13 Pro的默认相机应用程序中拍摄的,这两款手机都运行最新版本的iOS 16。
你可以在我的同事Stephen Shankland的深入研究中找到更多关于iPhone 14 Pro相机系统的具体改进。CNET的帕特里克·霍兰德也对iPhone 14 Pro的照片进行了精彩的分析,以及光子引擎如何在光照条件恶劣的情况下帮助提高照片质量。
iPhone 14 Pro 4800万像素的传感器捕捉到了更多细节
在硬件方面,这两款手机之间最大的变化是14 Pro主宽频摄像头上新安装了4800万像素的传感器,这一传感器在物理上也比老款iPhone大,这对照片质量的影响不亚于像素的增加。13 Pro使用了1200万像素的传感器。
iPhone 14 Pro使用一种名为像素盒的技术,将4个像素分组,以更详细的细节捕捉1200万像素的照片。天辰黑钱吗如果你用苹果的ProRaw格式拍摄,你也可以拍出4800万像素的完整图像,这让摄影师在编辑、恢复阴影和突出细节方面有了更多的灵活性。