如果小雷说,有一个手机厂商上了微博热搜,大伙估计不会感到意外。 毕竟现在的手机厂商都比较出名,国内的华米OV只要发布旗舰新机,那几天的机圈必然是腥风血雨,各家粉丝吵得不可开交。 换个角度来看,这代表着手机备受关注,做手机最怕的就是产品无人问津。 但你猜怎么着,今天早上真有一个国内市场没啥声量的手机厂商,上了热搜前十... 它,就是人称韩国小魅族的"星星星"。 图源:微博 三星这品牌是有点特别的,它全球销量常年第一,果子哥都得被压一头。 但来到国内,三星就完全支棱不起来,手机销量、市场份额和粉丝声量,都被华米OV遥遥领先。 连前阵子三星S23系列发布,咱们编辑部都没人愿意去关注。 人家魅族好歹投票没输过呢,反观三星是既不叫好,又不叫卖,国内小众又冷门。 图源:腾讯新闻 正因如此,小雷才特别好奇,三星这次的事儿得闹多大,才能引起机圈热议。 我看了一下,网友们围绕三星手机讨论的,是它的拍摄造假行为。 三星被打假,谁对谁错? 小雷顺着网线,找到了网友吐槽三星的原帖。 只能说这位老哥是有备而来的,他先抛出论点,表示三星手机用【太空变焦】拍出来的月亮图片,都是假的。 图源:Reddit 原因无它,就是成片里的月亮实在太完美,完全超出了手机所能拍摄到的范围。 哪怕是搭载潜望镜头的手机,也不能拍得跟天文望远镜一样清晰吧? 而且,在三星手机变焦拍月亮的过程中,会有一个明显的画质变化。 月亮本来还是一大坨白色,忽然间手机像是有了魔法,把光线压了下来,并完整呈现出一个纹理分明的月球表面。 该网友表示,这显然不符合正常的物理逻辑,多少带点算法"优化"。 图源:MKBHD 但光靠这俩例子,还不足以证实三星那唬人的"太空变焦"造假。 于是乎,一个简单又有效的佐证试验来了。 这位老哥先从网上下载了一个月球高分辨率图片,大概是用专业天文望远镜拍摄的。 图源:Reddit 接着重点来啦。 老哥把这张高清图片压缩成170 * 170分辨率,为了防止被AI恢复,还在此基础上套一个高斯模糊图层。 图源:Reddit 当然啦,为了让咱们看得清楚点,方便作后面的对比,它还制作了一个放大4倍的版本。 严谨,还真就内个严谨。 图源:imgur.com 关键操作来了,他现在要做的,是把那张经过压缩处理的月球模糊图,放到显示器里全屏展示。 接着关闭房间所有灯光,用三星手机对着屏幕,放大100倍拍照。 接下来,就是见证奇迹的时刻! 只见原本分辨率极低,还带着高斯模糊的月球图片,在三星的"太空变焦"算法加持下,逐渐变得清晰可见。 犹如近视患者刚做完激光手术,整个世界都通透了起来。 图源:imgur.com 为了方便大伙对比,小雷把两张月球图拼在一起。 左边是经过该网友高度压缩+高斯模糊的月球图,右边是三星拍摄该图片,经过算法优化的成片。 能看出两张图的月球纹理完全一致,三星也并非瞎P细节。 三星:"我特意给月球添加了完整的细节纹理,这样你才知道,看得是清晰的月亮。" 看到这儿,其实整件事的真相已经出来了。 三星能把一张模糊的月球图,拍得细节满满,就是用算法给月亮补了细节。 这波操作,相当于人类给手机挖了个坑,算法知道这是月球,但它不知道啥时候应该AI补细节,啥时候应该保留原汁原味。 导致一张原本就模糊的图片,被三星强行优化成无码高清图。 好比把一位男生的照片,强行P成女生的样子,改变客观事实,这肯定不对。 由于整个帖子的论点和论据要素齐全,信服力拉满,很快就引起了广大网友的调侃,从海外火到国内。 大伙纷纷调侃,NASA要是把三星手机发射到太空,让它来拍月亮,不比詹姆斯韦伯望远镜好使? 图源:Youtube 当然啦,给月亮做AI算法优化这种事,不仅仅是三星在做。 很多手机厂商都推出了【月亮模式】功能,能让消费者拍出很清晰的月球照片。 各家的原理也大致相同,比如三星是用100张高清月球图像来进行AI训练。 接着用【场景优化器】来识别月球,并填充对应的细节,比如陨石坑和纹理啥的。 之所以能做到,AI月亮和天文望远镜看到的月亮纹理接近。 是因为月球被潮汐锁定了,它永远都是同一面对着地球,咱们看到的月亮,基本只有光影的区别。 图源:星球研究所 在这种固定的场景里,算法是最不容易出错的。 换个角度来说,三星用AI算法补出来的月亮,还真就和原版长一个样。 只是在营销上,三星确实翻车了,当时三星还吹的是"利用多帧合成来增加月球细节",实际上背后还是人工智能在干活。 咱也不得不承认,在手机计算摄影时代,通过人工智能算法,来增强手机拍照的画质,已经是行业通用的做法了。 图源:Google 但怎么说呢,网友们在计算摄影的讨论上,还搞得挺激烈的。 有人说,如果照片是用AI补的细节,那就不是照片了。 也有人说,大多数手机用户只希望能拍得清楚,而并非拍得真实。 那什么才叫正确的计算摄影? 这里先说结论,小雷认为,手机和相机有着明显的光学差距,用计算摄影来提高成像画质是正确的方向。 只要不要算歪来,那就是一张成功的"计算摄影"照片。 如果有看过三星手机超长焦样片的小伙伴,肯定会对它那30倍,乃至100倍的成像清晰度感到惊讶。 说真的,相机得装个焦距足够远的长焦镜头,才能拍成这效果。 而如今在计算摄影的加持下,手机已经能做到超长焦场景下,保持不错的画质了。 图源:Youtube 而在计算摄影这一块,咱们国内的华米OV,都做得比较到位。 vivo X90 Pro+虽然是3.5X长焦镜头,但通过光学超分算法,让10倍的照片也能得到很好的画质。 图源:vivo 其他厂商,华为有XMAGE,谷歌最新的Pixel 7 Pro有30X超分算法。 属于是各有各的大杀招了。 图源:Google 小雷也不云评测了,刚好手里有一台Google Pixel 7 Pro和一台小米12S Ultra。 咱们就来比比,这俩旗舰影像手机的长焦端算法,孰优孰劣。 直接从极限夜景拷打,因为谷歌从10倍才开始触发超分算法,所以咱们直接对比两个机型的10倍表现。 从实际成像来看,无论是纯净度,还是楼栋中间的"粤海"字眼,都是谷歌表现更好。 图源:自制 再来一张30倍的夜景灯牌图。 其实不难发现啊,谷歌这里已经触发了AI"补字"算法了。 那清晰的字体纹理,完全不是手机长焦30倍能拍出来的,还把中英文都还原到位了。 既然没出现事实性错误,又比小米清晰,这个场景自然是谷歌的再次胜利。 图源:自制 但是,小雷要说但是喽。 既然是算法,肯定会有翻车的时候,毕竟咱们拍摄的场景可太复杂了。 算法并不能像拍月球那样,每次都把场景准确还原出来。 比如这张由vivo X90 Pro+拍摄出来的照片,能看出明显的AI补字痕迹。 字体纹理是很清晰,咱们却完全看不出是啥字。 图源:酷安 接着网友又用第三方相机App拍了一张,无AI算法介入的图,这次反而能看清楚文字了。 糊是糊了点,但在这种情况下,符合客观事实,远比看得清晰更重要。 图源:酷安 看到这儿,相信大伙都能Get到小雷前面的结论了。 如果计算摄影,能让当时的场景变得更加清晰,且不出现事实性错误,那肯定是个好东西啊。 但要是算都算歪来,把正确的字涂抹成一坨,那...还不如不算。 当然,以上只是小雷对计算摄影极其浅显的拙见和讨论。 大伙有啥想法,都可以在评论区和小雷交流。