苹果手机拍月亮,为什么更新后反而翻车

tmyb
广告

上个月跟同事去北京怀柔郊外露营,赶上阴历十六,天朗气清没有云,抬头一看那月亮大得能模糊看到上面的坑,一群人掏出手机比拍月亮,结果出来的结果给所有人整懵了:三台苹果手机里,拍得最清楚的居然是三年前没更iOS17的iPhone12,我刚换了半年的iPhone15ProMax,更完iOS17.4,10倍放大拍出来就是一团发虚的黄光,别说环形山了,连亮区暗区都糊得分不清。

苹果手机拍月亮,为什么更新后反而翻车

当时我还以为是我手抖或者参数没调好,换了三脚架重新拍了三张,结果还是一样,回到市区刷社交平台才发现,根本不是我一个人的问题——整整半个多月,#苹果更新后拍月亮变糊#的话题挂在微博热搜上没下来,小红书上搜“苹果拍月亮”,出来全是用户的吐槽对比帖,同一个手机更新前后的样片放在一起,差距大到像两台手机,这事儿不是什么新鲜噱头,是2024年iOS更新后,千千万万苹果用户都撞上的真实问题,苹果官方说了,这不是bug,这是“算法调整,追求更真实的成像”。

一场全网吐槽的翻车,到底是怎么回事?

这事说起来其实挺戏剧的:今年3月苹果推送iOS17.4正式版更新,除了大家关注的应用侧装、续航优化之外,悄悄改了计算摄影中针对长焦夜景、天体拍摄的算法逻辑,更新刚推出来三天,就有用户发现,自己原来能拍清月亮的iPhone,更新完系统直接“变瞎”。

我认识一个做数码测评的博主阿凯,他当时第一时间做了对比测试:用他自己的iPhone14Pro,停在iOS16.5系统的时候,在同机位用15倍变焦拍月亮,出来的样片轮廓清晰,环形山的阴影层次分明,发朋友圈好多人问是不是用微单拍的;更完iOS17.4之后,还是同一个位置同一个参数,甚至同一架三脚架没动,拍出来的月亮直接变成了一块模糊的“咸鸭蛋黄”,边缘发虚,细节全糊,对比度低到快跟天空融在一起。

这条对比视频发出去,不到一周播放量破了千万,评论区十万多条留言全是苹果用户的共鸣:有人说自己升级完iOS17才发现拍月亮不对,之前还以为是自己技术差;有人说早知道这样更系统,说什么都要停在iOS16;还有人调侃,苹果这是把“月亮模式”更成了“月饼模式”,拍出来全是面,看不到馅儿。

面对全网吐槽,苹果终于官方回应了:旧算法会对月亮进行过度的锐化和AI细节填充,相当于给月亮“P”了原本不存在的细节,新算法更接近人眼实际看到的月亮效果,更“真实”,说白了,苹果的意思就是:我没翻车,我只是改邪归正不做假了,你们不懂我的审美。

苹果拍月亮的争议,其实已经吵了快十年

很多人不知道,苹果拍月亮的口水仗,已经在数码圈吵了快十年了。 早在iPhone7Plus推出双摄长焦的时候,就有摄影爱好者开始折腾用苹果拍月亮,那时候苹果的算法偏保守,长焦夜景的解析力差,拍出来的月亮基本都是一团糊,当时就有人吐槽“万元苹果连月亮都拍不明白”,2019年华为推出全球第一个AI月亮模式,一下子把拍月亮的热度拉到顶峰,国产手机厂商纷纷跟进,现在几千块的安卓手机都能拍出清晰的月球环形山,苹果拍月亮不行的刻板印象,也就越来越深。

其实这几年苹果也不是没进步,iOS16的时候,苹果就悄悄给iPhone的长焦加了针对天体的AI增强算法,那一次更新之后,好多用户发现自己的iPhone拍月亮突然变清楚了,当时数码圈还夸苹果终于开窍了,愿意放下身段满足用户需求了,谁能想到才过了一年多,苹果直接一个回马枪,把算法砍了,打回了原形。

为什么大家对这么一件“小事”反应这么大?其实很简单:现在苹果的旗舰iPhone,起步价都快六千了,顶配一万多,买来就是用各个功能的,你给了这么大的长焦镜头,堆了这么高的像素,用户就是想随手拍个月亮发朋友圈,结果你连最基本的清晰都做不到,搁谁谁不窝火?你几千块的安卓都能做好的事,我一万多的苹果做不好,换谁心里都不平衡。

我妈去年换了小米13Ultra,今年正月十五的时候,她在小区遛弯看到月亮好,随手拍了一张发家族群,清晰度高到我爸都问是不是拿我相机拍的,我当时拿我的iPhone15ProMax在同一个位置拍了一张,发进去之后,我妈直接说:“你这一万多的手机,怎么还不如我四千多的清楚?”我当时除了苦笑,真的找不到什么话反驳——毕竟事实摆在那里,好不好用用户一眼就能看出来。

拿“真实”当挡箭牌,苹果真的站得住脚吗?

苹果说我要真实,不要AI给你P假细节,这句话听起来挺高大上,仔细掰扯一下,其实根本站不住脚。 但凡懂点手机摄影的都知道:现在不管是苹果还是安卓,没有任何一款手机拍月亮是完全“原生无修改”的,手机的传感器就那么大,长焦的物理分辨率就摆在那里,你放大10倍以上拍38万公里外的月亮,原生CMOS捕捉到的信号本来就是偏暗、偏糊、细节缺失的,不管哪个品牌,都要靠算法来修正对比度、提取细节,区别只是修正的幅度多少而已。

就拿专业相机来说,我自己有一台全画幅单反,加200mm的定焦镜头,原生直出拍月亮,也是灰扑扑的,细节不明显,必须后期拉对比度、提阴影,才能把本来就存在的环形山细节显现出来,你能说我后期调了就是“假”吗?当然不能,这只是还原了月亮本来就有的细节,弥补器材本身的不足而已,苹果现在把用户需要的细节增强砍了,把糊片当真实给用户,这不就是偷换概念吗?

就算你要反对AI瞎P假细节,为什么非要一刀切把所有增强都砍了?苹果一直说安卓的月亮算法会生成不存在的细节,这其实是五六年前的老黄历了,现在国产手机的月亮算法早就进化了,都是基于传感器捕捉到的原始信息增强细节,很少会瞎编不存在的东西,反而苹果现在,为了标榜自己的“真实”,连正确的增强都不做了,这不就是偷懒吗?

更有意思的是,苹果的“真实”从来都是双重标准:拍人像的时候,苹果会自动磨皮调整肤色,拍风光的时候苹果会自动拉对比度提饱和度,为什么偏偏在拍月亮的时候,就要跟用户讲“真实”了?平时拍出来偏黄偏绿的时候怎么不说真实了?还有不少数码博主爆料,苹果这次故意砍旧机型的拍月亮算法,其实就是为了给今年秋季要出的iPhone16系列铺路——iPhone16据说要升级更大底的长焦镜头,要是旧机型算法优化好了,谁还换新机?故意做负优化逼用户换机,这种操作苹果又不是第一次干了,这次只是拍月亮效果差异太明显,被用户抓包了而已。

我个人其实非常反感苹果这种“我觉得好就是好,你用户懂什么”的傲慢态度,你走什么路线是你的自由,但你能不能给用户一个选择?想要真实你就给原生,想要清晰你就开增强,做一个开关很难吗?又不占多少存储空间,为什么非要把自己的审美强加给所有用户?那么多用户就想要一张清晰的月亮发朋友圈,碍着你“追求真实”的事了?

拍月亮的小事,藏着苹果和安卓拍照路线的根本分歧

其实苹果拍月亮这点事,本质上反映的就是现在苹果和安卓计算摄影的根本分歧:安卓走的是“用户需求优先”,用户想要什么,我就给你做什么,你想要拍清楚月亮,我就给你优化算法,你想要拍好看的人像,我就给你修得自然好看,用户用着顺手,能拍出满意的照片,就是好,而苹果走的是“厂商定义优先”,我觉得什么是好的,你用户就得用什么,我觉得真实好,你就得接受糊,你想要好看你自己后期修去,我不伺候。

这两种路线到底哪个对?站在普通用户的角度,答案其实特别明显:我花大几千上万买手机,是买一个能帮我干活的工具,不是买一个祖宗回来供着,我随手拍一张,出来就能用,这不比我拍完还要花十几分钟修图强?如果所有的优化都要我自己来,我买你这个旗舰手机干嘛?

今年4月份专业数码媒体PConline做了2024年上半年旗舰手机拍月亮横评,找来市面上卖得最好的十款旗舰,从一万多的iPhone15ProMax到几千块的小米14Pro、华为Mate60Pro,全部在同机位同环境测试,最后得分排名,苹果iPhone15ProMax排到了第八,倒数第三,拍出来的样片不管是细节层次还是色彩准确度,都不如国产几千块的旗舰,这个结果其实已经很说明问题了。

我自己用了快十年苹果,从iPhone4S用到现在的iPhone15ProMax,对苹果的系统和生态有感情,但也越来越看不惯苹果现在的傲慢,原来苹果说“用户不知道自己想要什么”,那是苹果能做出比用户预期更好的产品,引领行业进步;现在苹果说这句话,就是懒得听用户的意见,反正你爱用不用,我不愁卖,可市场哪有一成不变的?现在国产旗舰不管是性能还是拍照,都追上来了,苹果要是一直抱着自己的傲慢,不听用户的需求,早晚要把这么多年攒下来的口碑,一点点作没。

就说拍月亮这件小事,那么多人吐槽,苹果到现在也没说要改算法,反正我就是对的,你们都错了,可对普通用户来说,好不好用,比什么品牌政治正确都重要,你要是真的喜欢拍月亮,现在要么就别更iOS17,停在iOS16还能用;要么就干脆换个安卓旗舰,几千块就能买到拍得比苹果清楚自然的机器,何必跟苹果的臭脾气较劲呢?毕竟我们买手机是为了记录生活,不是为了迎合厂商的审美执念。