一文看懂OPPO全链路色彩管理系统&人像视频技术系统

百事数码
2020-12-03 11:31 电脑百事网

虽然是个老生常谈的话题,但科技发展的迅速一直让人惊叹,最明显的例子就是手机的变化。在短短的几十年时间内,手机从一个搬砖一样的笨重“移动电话”变成了现如今生活、工作和娱乐的集大成终端。

手机在如今达到的高度很容易让人们产生误解,认为手机已经“全知全能”,就算继续发展也只能是锦上添花。然而现实是,手机还有很长的路要走,有很多的地方需要完善。这不仅是因为新时代消费者的新需求不断涌现,也是因为在一些非常基本的功能上,手机并没有做到足够好,尤其是安卓机。

不过好消息是,最近手机厂商们对于技术进步非常执着,纷纷在研发领域加大投入。OPPO刚刚发布不久的“全链路色彩管理系统”和“人像视频技术系统”就是手机在完善自我道路上的重要一步。

01 全链路色彩管理系统

首先我们来谈谈OPPO的全链路色彩管理系统。这里的“全链路”指得是采集、运算、编码、存储、解码和显示。这一系列动作的完成其实就是大家在打开手机相机拍照,然后浏览拍出照片的这一过程。

在这一过程中,全链路色彩管理系统会让手机的色彩管理一直保持10bit色深,拍摄时拍的是10bit画面,保存时存在相册里的照片也是10bit照片,显示时屏幕显示的也是10bit画面。

 那什么是10bit?“bit”在这里是色深,色深的高低影响了色彩信息的丰富程度。每一个画面都有大量像素组成,每一个像素都有自己的色彩信息,这样一个画面才有了斑斓的色彩(色彩信息指的是“红绿蓝三原色”,一个像素有多红、有多绿、有多蓝,都由这些信息决定)。每一个像素所拥有的色彩信息越丰富,整个画面的颜色就越精确。

8bit和10bit对比示意(图源:网络)

8bit和10bit对比示意(图源:网络)

在全链路色彩管理系统之前,安卓手机一直都依赖于8bit。8bit意味着每个像素有2的8次方个色彩信息,也就是256个,意味着每一个像素能够展现出256种不同的红色、256种不同的绿色和256种不同的蓝色。10bit则是2的10次方,也就是1024个,每一个像素能展现的三原色分别达到了1024种。

换句话来说,某些颜色8bit显示不出来,但10bit能显示出来,因为10bit对于不同颜色的细分能力更强,所以颜色就更精确。

那么为什么我们需要全链路的10bit色彩管理呢?原因主要有两点,一是现在支持10bit色深的手机屏幕越来越多,二是越来越流行的HDR视频要求至少10bit的色深才能被正确显示。

很多人买手机时会为了更好的屏幕素质而多花钱,但在此前,由于缺乏合适的色彩管理和拍摄10bit画面的能力(大多手机只支持8bit拍摄),安卓设备并不能让10bit屏幕发挥自己应有的能力。说直白点就是用户花的钱有一部分是白花了。

有了全链路色彩管理系统,我们就可以在拍摄时直接拍出10bit的照片和视频,然后存储时完好无损地把10bit精确的色彩信息存下来,最后在支持10bit的高素质屏幕上精美还原真实的色彩。

在中间存储的环节,全链路色彩管理系统利用了“HEIF”格式。相比于传统的JPEG,HEIF不仅能存储8bit以上颜色信息(最高16bit),还能存储透明图层、景深信息,甚至动画和视频,而且体积还比JPEG小。

在显示这一环节,除了能做到10bit图像的在10bit屏幕上的精确呈现,全链路色彩管理系统还能解决sRGB色域图像在DCI-P3色域屏幕上色温偏暖和颜色偏色的问题。要知道现在支持DIC-P3色域的手机屏幕越来越多,所以这一能力影响的用户还是非常多的。

此外,为了让所有人享受到精美的色彩,全链路色彩管理系统还考虑到了色弱人群,通过内置的OPPO色彩补偿系统2.0,帮助用户自行检测自己的色觉程度,然后在色彩显示做出补偿。

全链路色彩管理系统做到了原生安卓做不到的地方,能有OPPO这样的厂商站出来钻研技术,解决这个老问题,对于广大安卓用户来说,可谓是久旱逢甘霖。

02 人像视频技术系统

如果说全链路色彩管理系统解决的是陈年旧病,那么OPPO人像视频技术系统就是对用户新时代新需求的满足。

手机刚刚具备拍照能力时,大家的用法基本就是用相机随手拍照;随后爱美爱展示的年轻人带动了人像拍照这个功能的发展,越来越多的手机支持各种花样的人像模式;到了现在,视频成了在社交平台上更流行的分享载体,所以拍出足够好的人像视频就成了最新的用户痛点。

为了解决这一痛点,OPPO人像视频技术系统具备了两大引擎:感知人像引擎和画质人像引擎,从两个方面优化人像视频拍摄。

感知人像引擎就是让相机在对画面内人像的感知更加敏感,让相机对每一个人像的面部细节作出精确的区分。在成像前,手机需要快速、精确地抓取并区分需要被优化的对象,否则后续的一切优化画面优化都是白搭。

利用AI,感知人像引擎可以99.78%的准确率和25ms的单帧检测耗时抓取需要优化的人像部分。在人像部分之中,对于不同部位,用户又需要不同的画面处理效果。所以感知人像引擎通过人脸区域内的296个关键点来实现具体面部部位和五官的识别,为进一步人像优化做准备。

 在找到需要进行优化的人像区域后,感知人像引擎会从清晰度、肤色、去瑕疵和畸变校正四个方面优化人像成像。日常录视频时,大多数人会经历暗光拍摄、变焦拍摄和手抖造成的画面模糊,这时感知人像引擎的AI超强人像功能就会介入,通过AI让人像变得更清晰。

肤质呈现是人像视频录制的另一个关键点,感知人像引擎具备了AI肤色检测,不仅能实现对皮肤区域更快、更准的检测和识别(比如不会把衣服误认为皮肤),还把检测范围扩大到了脖子和手。

检测到皮肤区域后,人像感知引擎的AI去瑕疵功能就会派上用场,通过AI识别出哪些地方需要被美颜,哪些地方不需要。比如痘痘和眼袋就属于需要被美颜的“后天特征”,痣就属于不需要被美颜处理的“天生特征”。

由于手机镜头物理特性的缘故,拍摄出的画面会出程度不一的畸变现象。对于人像拍摄而言畸变有时会让最终效果大打折扣,所以人像感知引擎还内置了人脸畸变矫正算法,能让画面非人脸区域和人脸区域同时实现畸变校正。结合AI肤色检测和AI去瑕疵,人像感知引擎实现了体验更顺畅、成像更自然的人像视频拍摄系统。

人像视频技术系统的另一部分“画质增强引擎”则更注重于画面整体的画质表现,因为不管录制什么视频,背景的画质都要和主体一样给力才行。

画质增强引擎又包括新一代超级防抖、超级夜景视频和视频多帧HDR。新一代超级防抖会通过手机各个传感器的数据判断手机相机的运动轨迹和姿态,然后根据这些数据,对不同场景的画面使用不同的防抖策略进行防抖。新一代超级防抖达到的效果足以让用户手持手机拍出移动延时摄影。

移动延时摄影指的是在通过延时手法拍摄移动的物体时,相机本身也在移动,这种画面对视频防抖要求极高,所以之前手机只能通过稳定器等额外防抖配件才能实现。有了新一代超级防抖,用户就能手持拍摄移动延时摄影了。

夜景和HDR拍摄是现代用户的另外两个新兴需求。画质增强引擎把超级夜景和多帧HDR带到了视频拍摄之中,能让暗光视频拥有合适的亮度和干净的画面。其中视频多帧HDR功能采用了DOL-HDR算法,这个算法让HDR的多帧曝光间隔时间大幅缩短,更快的曝光有效地改善了画面的“鬼影”现象。

当然,视频多帧HDR同样适用于白天。现在很多手机之所以录视频出来不如拍照片给力,很大程度上都是因为动态范围的不足。OPPO的视频多帧HDR就可以解决这一问题,让视频画面更有层次感,色彩更加精确,曝光控制更好,保留更多画面细节。

在人像感知引擎和画质增强引擎的联手之下,用户能得到的画质水准和拍摄玩法将会更加让人满意。

03 手机行业竞争与进步的新方向

OPPO发布的全链路色彩管理系统是对安卓设备的一个查漏补缺,初步解决了困扰安卓多年的色彩管理问题。这一技术不光对OPPO用户重要,对所有品牌的用户都非常重要。因为OPPO点醒了用户,让用户明白了自己手中手机的短板在哪,这样其它厂商就能跟进,联合起来完善健康的色彩管理生态,让人机交互最重要的一环进一步走向完善。

人像视频技术系统则是OPPO灵敏嗅觉的体现,明确了现在用户的需求。抓紧了人像、视频、夜景和HDR这几方面,让手机相机的更加全面好用。

两个系统一起,给手机行业的竞争与进步提供了新的方向。堆参数、拼硬件的时代已一去不复返,用户现在需要的是更精细化的体验优化。希望在未来几年,我们能看到更多这种精益求精的技术应用,让大家的用机体验更上一层楼。


0
0
热门文章