为什么要拍摄4K、6K、8K?为了后期二次构图?
现在越来越多的摄影机可以拍摄4K、甚至6K、8K等素材,那它的意义何在?我们只是为了后期可以二次创作,重新构图吗?
还是说,在超高清、4K屏幕或高K屏上,凑近点,在凑近点看呢?
▊ 那它对我们的影视后期工作来说,意义究竟在哪呢?
首先,我想说的是,除了高分辨率给我们带来的清晰的画面意外,对我们的提升观影“临场感”有极大的帮助。
其实,4K也好、8K也好我们平时是坐在沙发上收看、其次也不会凑近拿放大镜观看,所以极高K的分辨率,对观影分辨率来说直观的影响并不大。但是,国际组织对“最佳观影距离”是有一个明确的标准的。
高清屏幕的最佳观影距离是屏幕高度的3倍,而4K超高清屏幕的最佳观影距离是屏幕高度的1.5倍。也就是说我们的观影视角从原来的32度,增加到了58度。我们都知道人眼双目视野范围为110度,也就是说:越高K的屏幕及素材显示,可以让我们更接近于我们人员的正常双目视角,增强我们的观影“临场感”。
▊ 接下去就要说,高K素材,对后期调色画质的影响的问题了。
在说之前,我们先说说“拜耳排列”。摄影机的CMOS由一个个小的感光像素点组成,每个绿色感光点的四周,分布着2个红点、2个蓝点、4个绿点。也就是说感光元器件上,绿色感光点的数量是其余两种颜色的两倍。
所以有的颜色就需要我们计算机来进行算法上的猜测,比如黄色光线,它由红光和绿色光混合而成,那么通过CMOS的滤光层,红像素点和绿像素点都会点亮,而蓝色像素点则不工作。所以我们可以根据这样的排列规则,猜出进光的颜色为黄色。
那问题来了,假设一个极为细的绿色头发丝,从CMOS上穿过,它该如何显色?
根据“拜耳排列”竖相不是每个像素点都有绿色,只能向边上的绿像素点“借点显示”。所以这样实际显示就会产生这种锯齿状。
(放大以后的像素点锯齿画面)
所以综上所述,当我们把4K的画面,下变换到2K的时候,其实每个像素点都包涵了:R、G、B三种颜色的显色点。这样画面单个显示点的颜色显示就更为准确,实际画面的颜色过渡就更为细腻。这也就是我们前期为什么要尽量“高K”拍摄的原因。
这就解释了,为什么很多人拿类似大疆的无人机拍摄4K,后期2K输出,画面会变的很精细的原因所在。
▊ 以实际拍摄画面为例
(前期2K拍摄,2K输出的画面)
(前期4K拍摄,2K输出的画面)
微信可能存在再次上传的压缩,在监视器中肉眼看区别效果明显。所以我们前期有能力高K拍摄的就尽量高K拍摄。