发表评论|加入收藏|保存到桌面|反馈报错您当前的位置:首页 > 中央电视台 > CCTV11在线直播

hevc是什么格式(hevc是什么格式)

发布时间:2022-06-14 14:00:41   作者:孤独是毒   来源:用户分享   我要投稿

hevc是什么格式(hevc是什么格式)

1、HEVC是High Efficiency Video Coding的缩写,是一种新的视频压缩标准,也就是H.265,用来以替代H.264/C编码标准,2013年1月26号,HEVC正式成为国际标准。

耳机lr代表什么

耳机lr代表什么,L是left,指左边;R是right,指右边,分别是耳机的左右声道,耳机是一对转换单元,它接受媒体播放器或接收器所发出的电讯号,利用贴近耳朵的扬声器将其转化成可以听到的音波。

2、HEVC压缩方案可以使1080P视频内容时的压缩效率提高50%左右,这就意味着视频内容的质量将上升许多,而且可以节省下大量的网络带宽,对于消费者而言,我们可以享受到更高质量的4K视频、3D蓝光、高清电视节目内容。电影、动画片等视频经HEVC视频压缩服务后,手机用户观看在线视频不仅流量耗费大大减少,且下载速度会更快,画质基本不会受到影响,即使在线观看也会更流畅,不会老是卡机。

3、而对于视频运营商而言,运营最大的支出成本就是宽带成本。一旦采用新型视频压缩标准以后,视频的带宽成本将大幅降低,“动画片的带宽成本将降至现有成本的1/3,普通影视作品将降至现有成本的一半”。目前,HEVC 的普及速度还没有那么快,所以很多设备可能无法播放,需要安装解码器或进行格式转。

在升级 iOS 11 之后,iPhone 7 及更新的设备内的照片存储将不再用 JPEG 了,而采用了一种新的图片格式 HEIF(发音同 heef),在 iOS 中对应的文件后缀为 .heic ,其编码用的是 HEVC(这个发不了音,哈哈哈)格式,又称 H.265 (这个就很熟悉了 H.264 的下一代),同时视频也用 HEVC 作为编码器,对应的文件后缀还是 .mov 。

这里要注意他们俩的关系, HEIF 是图片格式,而 HEVC 是编码格式(类似 H.264,VP8),HEIF 是图片容器(类似于视频的 mkv,mp4 后缀),而用 HEVC 进行编码的 HEIF 图片就是后缀为 .heic 的图片,也是苹果主要使用的格式。

这两个都是很新的标准,分别在 2015 和 2013 年才被 ISO 批准。这篇文章主要介绍一下 HEIF 格式和与其他图片格式相比的优劣。

发展史如下:

screenshot

什么是 HEIF?

screenshot

这张图是 WWDC Session 511 的形容 Heif 的一句英文诗,JPEG 很大,但是 HEIF 和小。

HEIF 全称 High Efficiency Image Format (HEIF)。是由 Moving Picture Experts Group 制定的,存储图片和图片序列的格式。

相关的介绍位置这边可以看到 nokiatech.github.io/heif/ ,对的,你没有看错,是 Nokia 的技术人员们制定的。相比 JPEG ,PNG 等传统的图片格式来说, HEIF 可算是相当年轻了,但是这种格式相比 JPEG 等有很多的优点。

压缩比高,在相同的图片质量情况下,平比 JPEG 高两倍。

能增加如图片深度信息,透明通道等辅助图片。(苹果正是通过这个就能实现动态的调整图片的景深)。

depth

支持存放多张图片,类似相册和集合。(实现多重曝光的效果)

screenshot

支持多张图片实现 GIF 和 livePhoto 的动画效果。

无类似 JPEG 的最大像素限制。

支持透明像素。

分块加载机制。

支持缩略图。

在这个 Nokia 网站上可以看到相关的例子。

文件组成

在视频文件中,容器和编码是独立开的,比如 mp4,mkv 等格式是容器,而 H.264,VP8 等是编码。但是图像文件中,像 JPEG 就是混合在一起的(所以它不好用啊,哈哈哈哈),HEIF 就把容器和编码分开了,有用来存放单个或者多个图像的容器。

所以基于不同的编码器,会有不同的文件后缀。

Apple 设备中默认使用的都是 HEVC 的编码的 HEIF 格式。

在 Apple 所编码的 HEIF 的文件组成大致如下图,其 mdat - Media Data 中存放的是 exif 信息,缩略图(320*240),和 HEVC 编码后的图片:

screenshot

HEIF 底层是默认 tiled,就是片状的有 512x512 个,由一个个小的图块,组成一张大图,这一特性有如下的优点:

加速解码

缩放加快(不用加载整张图片)

裁剪加快

HeifTile 和 SystemTile (CATiledLayer 等系统所提供的分块加载)是不一样的,但是两者结合会有很大的提升,所以在加载和处理特大图片时,性能有大幅度的提升。

HEIF 所采用的熵编码也和 JPEG 不一样,JPEG 是用的霍夫曼编码(Huffman),而 HEIF 使用的是基于上下文的自适应二进制算术编码(CABAC),编码的是数据量更小且更快。

兼容性

每当一个新的技术推进至工业化,兼容性无疑是最重要的考量点。像 HEIF 这样的图片格式,并不像 JPEG / PNG 等已经被广泛应用和适配了,估计在 Apple 推出之前,大部分开发者和我一样应该都是不知道的。目前工业化的体系内,对 HEIF 几乎是不兼容,Windows 上无法打开 HEIF 文件,10.13 前的 macOS 也无法打开。苹果在推行这一技术的时候,在内部也是做了很多兼容工作的。

对一般用户

一般情况下,用户是对这个格式无感知的,因为只有在新款支持硬解码的 iOS 手机内部是以 heif & hevc 格式来存储照片和视频的,而在用户通过 Airdrop 或者数据线传送到电脑上的时候,对不兼容的设备会自动转换到 JPEG 的格式。所以也不会影响你使用微信,微博等软件。

不过在苹果内部的 app 中,基本都已经用上了这一技术,如照片,FaceTime 等应用。意味着以后同等储存空间能存放更多的照片和视频,同时 FaceTime 也能节省更多了流量,相同网络情况下,FaceTime 也会更加清晰。

通过在 设置 -> 照片 选项中可以设置传到 MAC 或者 PC 上时保持 HEIF 格式。

screenshot

支持的设备

HEIF 图片:

编码:

硬件:**A10 **及以上芯片 iOS 设备。即只有 iPhone7 及以上是支持 HEIF 的(有双摄像头,才带有深度信息)。

软件:iOS11,运行 macOS 系统的 Mac 设备。

解码:

硬件:A9 及以上芯片 iOS 设备(iPhone6s),配备 6 代及以上 Inter Core 处理(Skylake)。

软件:iOS11 和 macOS 支持软解码,但是 iOS11 锁版本代表最低只支持到 5s

HECV 视频:

视频分为 **8 位 / 10 位 两种模式。基本和图片编解码保持一致,唯一有区别的是 10 **位硬解码要求是 7 代 Intel 处理器。

总结一下,就是升到 iOS 11 之后,你的设备就能解析新格式的图片和视频,软硬解码的区别就是,硬解码会更快并更省电。

对开发者

上层框架 PhotoKit

对用户的几乎无感知切换的前提,肯定是上层 API 没有变化,调整的是最底层的 API,所以一般开发者使用上层的框架时,如 PhotoKIt 是不受影响的,不同格式的图片都抽象为了同一个对象。而且对图片增加滤镜和视频的调整修改,最后都会渲染为 JPEG 和 H.264。在这一级别的 API 是接触不到图片文件格式转换所带来的变化的。

下层框架 Image I/O

Image I/O 中可以直接读写 .heic 文件。 iOS 11 中 Image I/O 能够直接读取 heif 的文件,包括读取 exif,xmp 等信息。

let inputURL = URL(fileURLWithPath:Bundle.main.resourcePath! + "/IMG_0513.HEIC") let source = CGImageSourceCreateWithURL(inputURL as CFURL, nil) let image = CGImageSourceCreateImageAtIndex(source!, 0, nil)

let options = [kCGImageSourceCreateThumbnailFromImageIfAbsent as String: true, kCGImageSourceThumbnailMaxPixelSize as String: 320] as [String: Any] let thumb = CGImageSourceCreateThumbnailAtIndex(source!, 0, options as CFDictionary)

guard let cImage = image else { print("not support heic") return; }

当然也可以选择把 CGImage 写入到 HEIC 格式,虽然这样可以节约更多的存储空间,实际使用的时候还是要注意转换操作。

let url = URL(fileURLWithPath: "/tmp/output.heic") guard let destination = CGImageDestinationCreateWithURL(url as CFURL,FileType.heic as CFString, 1, nil) else{ fatalError("unable to create CGImageDestination") } CGImageDestinationAddImage(imageDestination, image, nil) CGImageDestinationFinalize(imageDestination)

Apple 提供的很多 API ,供开发者检测设备是否支持新的格式。提供了两种推荐的工作场景事例。

社交网络

在社交软件中,涉及到图片分享之类的内容,是无法确定接受者是否能支持新的格式的, Apple 的策略是建议都进行转换到 JPEG 的操作,比如发送邮件,或者通过 extension 分享的时候,传入其他 app 中的时候,都已经进行了转换了。

p2p 场景

在该场景中,设备和设备间的直接连接,首先把接受者的支持格式告知发送者,然后发送者根据兼容的情况,选择 HEIF 或者 JPEG。比如 AirDrop 。

同时诸如 SDWebImage 目前也正在做对 heif 的兼容。

跨平台

大部分的播放器已经支持了 HEVC 即 H.265 的编码器,但是针对 HEIF 的图片兼容性还是相对较差的。 目前有的是 Nokia 提供了一个 C++ 的读写库,通过该库,支持把 HEIF 的图片的解码到 HEVC 的编码数据。

Android 兼容性:

依赖 Nokia 的库,目前只能通过 CPU 软解。

据说 LG 正在研发支持硬解的手机。(raddit)

网页兼容性:

Nokia 提供 JS 库。

Windows 兼容性:

目前也没有能直接打开 HEIF 文件的应用。

对比

常常拿来与 HEVC 来做对比的是 VP9。两者的性能相近,但是 VP9 是开源的,而 HEVC 是需要专利费的( $2 每设备)。 目前暂时没有通过 VP9 进行编码的图片,所以这里主要对比的是 webp 就是通过 VP8 进行编码的图片。 webp WebP目前支持桌面上的Chrome和Opera浏览器,手机支持仅限于原生的Android浏览器、Android系统上的Chrome浏览器、Opera Mini浏览器。

WebP 有损支持

Google Chrome (desktop) 17+ Google Chrome for Android version 25+ Opera 11.10+ Native web browser, Android 4.0+ (ICS) WebP 有损 / 无损 / 透明支持

Google Chrome (desktop) 23+ Google Chrome for Android version 25+ Opera 12.10+ Native web browser, Android 4.2+ (JB-MR1) Pale Moon 26+ WebP 动画支持

Google Chrome (desktop and Android) 32+ Opera 19+

下面是几个关键技术点的对比,可见 HEIF 功能是最强大的。

压缩效率

下面的数据均是官方提出:

Webp 同等质量下,比 JPEG 图像小 25-34%。

JPEG 平均需要比 HEVC 多 139% 的比特率,意味着同等质量下,JPEG 的大小是 HEVC 的 2.39 倍!

把两个的参考标准统一一下:

Webp 比 JPEG 小 25-34% HEVC 比 JPEG 小 58%

但是在我自己的本地的测试中,测试了五组图片。webp 以 80 的质量进行压缩,hevc 以 crf 18 (视觉无损)压缩,同时增加一个 320x240 的缩略图。

自己进行 HEIF 转码的流程是,将图片通过 ffmpeg 编码到 H.265,再通过 Nokia 的库转成 HEIC 文件(Heif)。

//生成主图像编码 ffmpeg -i $1 -crf 18 -preset slower -pix_fmt yuv420p -f hevc bitstream.265 //生成缩略图编码 ffmpeg -i $1 -vf scale=320:240 -crf 28 -preset slower -pix_fmt yuv420p -f hevc bitstream.thumb.265 //调用 Nokia 的工具 ./writerapp config.json

除了一组特大图的表现不一样外,其他几组图片相比, heif 确实比 webp 压缩效率高 10-20%。

毕竟和 HEVC 对标的技术应该是 VP9,所以 heif 能够领先也是情理之中。

解码的消耗测试

主要测试设备是 iPhone 6s Plus 系统 iOS 11,用的解码方法 webp 为 Google 提供的库,hevc 和 jpeg 用的是 CGImageSource 来解码。 测试用图片还是之前的五组图片,同时对 JPEG 进行了一些压缩,测试了 5 组平均值(去一个最高,去一个最低),估计加载的时候存在缓存,所以第一次读图片数据的时候耗时较大。

第一组用第一张 7.7 mb 的 jpeg 压缩后大小 1.1mb jpeg 7.43 2.77 1.46 1.9 2.14 2.00 【占用率 6 %】 hevc 41.0 3.45 3.35 2.62 2.92 2.66 【占用率 6 %】 webp 216.6 216.8 217.5 261.9 195.2 【占用率 21 %】

第二组用第三张 1.8 mb 的 tff,转换成 jpeg 之后大小为** 815 KB。** hevc 58.4 3.1 2.8 1.13 2.65 2.82 2.02 【 2% 】 jpeg 65.3 2.67 2.76 2.73 2.69 2.87 1.34 【 2% 】 webp 130.2 110.9 117.5 114.8 120.9 112.8 124.84 【 12% 】

第三组用的最后一张 243KB PNG ,转换成 JPEG 之后大小为 43 KB。

hevc 47 3.24 2.7 3.21 2.63 1.74 【 1 %】 jpeg 16 6.70 6.97 4.46 7.2 6.76 7.08 【 1% 】 webp 20.7 20.2 12.5 22.0 19.3 19.4 【 2 % 】

测试结果由于硬解码的支持,jpeg 和 hevc 解码速度和 CPU 占用率都比 webp 快和小很多,jpeg 和 hevc 不相伯仲,可见苹果内部对其优化也相当到位,才把它放到 iOS 11 中。

总结

相比 JPEG 来比很强大,毕竟是下一代技术,但是兼容性可想而知,在“最大效率”和“最大兼容”两者中间还是要根据使用场景进行权衡,目前的优势也只有最新的 iPhone 能体验到,但不久的将来可能所有的手机都去支持照片深度,动态照片,更广的色域等。HEVC 也许和推行 H.264 一样,逐渐成为了工业界的标准,但又可能和推行 acc 的处境一样,只是成为了苹果的标准而已,终究还是要看市场的反应了。

大家都知道4K分辨率能带来更清晰的画面,但是除了4K以外,其实还有一个更关键的能明显提升画面质感的好东西——HDR。

我们发现,现在有许多笔记本厂商在最近两年推出了一些屏幕支持HDR功能的笔记本,于是有一些小伙伴私信问我:HDR功能用处大不大,值不值得多掏一些钱买个配备HDR笔记本其实这个问题很值得我们来深度的聊一聊。

下面请让我们先来感受下HDR和常规SDR之间的区别:

这是我通过手机拍摄的一张由联想Yoga16s呈现的HDR画面,截取的是B站UP主“Linksphotograph”拍摄的一段4KHDR对比视频。可以看到左边SDR的整个场景明暗对比度较低,所以画面细节丢失严重,层次感比较平,给人一种朦胧感。

而HDR对比度更高,尤其非常直观的在天空的高光细节上碾压了SDR内容,让整个画面更还原于肉眼所见的场景,整个画面更显通透和立体。感兴趣的小伙伴可用支持HDR显示的设备戳进链接查看该HDR对比视频:【戳我查看】

HDR的效果的确非常出色,但也绝对不是简简单单一个“滤镜”就能解决的事儿。HDR是通过物理方式调用显示器的峰值亮度,让显示器中的画面具有可以更趋近于真实世界的明暗对比。所以想要得到它,还需要硬件设备和软件(内容源)相辅相成。

↑YOGA16s电商宣传页

比如我要想在笔记本电脑上面看HDR,就得挑选如YOGA16s这类支持VESAHDR400以上标准的产品,这样才可以更正确的显示HDR内容。

↑支援VESAHDR400的YOGA16s

另外需要注意,要想在PC端正确播放B站HDR视频,还需执行以下4个步骤:

1.在PC端“显示设置”中开启WindowsHDR功能。

2.在WindowsStore下载HEVC解码器以及“哔哩哔哩动画“软件。

3.在“哔哩哔哩动画”软件设置选项中开启“支持播放和下载HEVC编码视频“。

4.打开拥有“HDR“选项的视频,选择”HDR“画质。

那么知其然也要知其所以然,下面我们就来聊聊HDR内容为什么要比SDR内容看上去更真实。

为什么HDR画面比SDR更真实?

搞明白HDR之前,我先分清SDR和HDR这两个概念。

1.SDR(StandardDynamicRange),标准动态范围

绝大多数人现在用手机、电脑在网页上看到的画面都是以SDR呈现的

2.HDR(HighDynamicRange),高动态范围

HDR是在SDR基础之上,重新定义画面表现力的标准。它的“高动态”主要体现在两方面,一是亮度,二是色彩。

亮度方面:

大家都知道,是“光”照亮了我们现实世界中的场景,让我们能够看到各种不同的物体。并且由于不同光源有不同的亮度,以及被照亮物体的材质也有不同,我们才能够分辨哪个是太阳、哪些是泥土,哪些是木头,哪又是光亮的金属物。

但受技术所限,从古至今都没有一台显示器设备能够100%还原现实世界中的明暗度,尤其是高光,所以聪明的人们就想出了一套“场景亮度压缩方案”,这套方案能够将现实世界的明暗画面按比例压缩,以“正确”的方式放进我们的显示设备当中。

像在CRT时代,SDR就以100尼特标准亮度进行规范,那么显示器中即使出现太阳,其最大亮度也不会超过100尼特。

到了现在的LCD和OLED时代,显示器亮度普遍能达到300尼特以上了,但大家在使用的“场景亮度压缩方案”仍是以SDR作为标准,因此即使当我们将显示器调整到300尼特以后,其画面中最暗部分也会同步变亮,最终导致整体画面看上和现实世界中那样层次感的画面还是有很大的差距。

而如今的HDR则规范最大亮度可达10000尼特(实际上受目前硬件所限,优秀的HDR显示设备最大亮度也仅在1000尼特左右)。这样一来,HDR的亮度区间就明显广于SDR标准,于是HDR显示器也就能显示出更接近于我们在现实世界中用肉眼所见的明暗画面了(虽然仍不能100%还原,但比SDR要好许多了)。

↑图片源:西瓜视频 @赵君日记

那么有时候我们用手机刷抖音(抖音APP现已支持HDR内容的上传和播放)可以看到一些能够让自己感觉“晃瞎眼”的视频,大概率就是HDR内容。

↑不同的色域范围

同理,在色彩方面SDR定义为Rec.709色域空间,甚至67%sRGB这种低色域显示屏也包含于SDR范围之内。而HDR则定义为Rec.2020色域空间,显示器至少也要能满足95%sRGB色域的覆盖,色彩更接近于自然界的颜色。

小结:HDR画面主要体现在亮度和色彩两方面的宽容度比较高,可以呈现比SDR更多的画面细节,让场景更逼真。

注意!并不是说只要是HDR就一定比SDR效果好很多,目前业内在相关领域有话语权的“大佬“们也为HDR硬件设备定义了多个档位的规格和标准,如HDR10等规格和DisplayHDR标准,实际呈现给我们的画面效果好坏也要看具体的HDR规格和标准。

这里我们以DisplayHDR(VESAHDR)为例来看一看。这是一项VESA对硬件设备是否符合HDR观看需求所提出的标准,共分为HDR400到HDR1000等多档认证。

其中HDR1000是VESA最高规格的认证,而HDR400是相对入门的级别。

相比较而言,HDR400认证只要求屏幕亮度达到400尼特,拥有8bit位深显色,95%sRGB色域以上覆盖,故在最终HDR内容的呈现效果上当然不如HDR1000强。

那么我们来看看符合VESA400认证联想YOGA16s的屏幕参数:100%sRGB色域,约500尼特最大亮度,10bit面板,支持120Hz高刷新率和触控。这块屏幕在现有的同价位产品中,算是比较出色的了。

↑YOGA16s覆盖100%sRGB色域

↑YOGA16s最大亮度接近500尼特

所以联想YOGA16s笔记本是否能呈现出不错的HDR效果?我也做了更多相关的测试:

4KHDR影片实拍对比:

这里我选用了一个HEVC编码,HDR10格式的4KHDR视频,通过Windows自带的“电影与电视”软件进行解码播放。

HDR游戏对比

《赛博朋克2077》这类新游戏已经加入了针对HDR屏幕的支持,打开后效果也是肉眼可见的提升,程度不亚于第一次看到光线追踪特效时带来我们的感觉。

相比较而言,即使是标准较低的VESAHDR400,HDR的优势仍是肉眼可见的。

但还别高兴得太早,因为还有下一条问题在等着我们:

有了HDR硬件设备之后所有画面就都是HDR了吗?

答案是:NO。

开篇我们说过,HDR是需要硬件和软件(内容源)相辅相成的,所以也需要游戏和电影本身的支持。例如电影若是使用SDR规格进行创作的,那么用再好的HDR屏幕也只能显示出SDR的效果。

目前国内“爱优腾”流媒体平台所推的“4KHDR”很多都只是SDR转化,甚至直接套“滤镜”而来,效果一言难尽。

那我拿到HDR笔记本以后都能做些什么?

1.看HDR视频。

虽然我们可以在Bilibili平台上用手机观看HDR内容,但遗憾的是PC网页端未做兼容适配……

↑网页端bilibili最高可选4K超清

↑移动端bilibili可开启“HDR真彩“

前文也提到过,Windows系统想要在B站看HDR视频的话,需要在Store上下载“哔哩哔哩动画”,方法不再赘述。

2 .创作HDR内容

以短视频为例,现在B站和抖音都支持HDR格式的视频上传了,因此我们就可以通过手机或电脑来制作HDR视频,把“次世代”的画面分享给更多人。

那么我这里分享一条利用YOGA16s制作HDR视频的方法给大家:

首先,我这里选取的编辑软件为“PremierePro2022”,该版本软件对于HDR视频素材的导入、编辑和导出都有大幅优化。

其次,我们要获取一段无损的HDR视频素材,然后在PR中新建项目,将视频拖进来。

这时候我们会发现监视器上的HDR视频发灰,这里需要我们更改PR的首选项设置,将“常规”页卡中的“显示颜色管理”和“超宽动态范围监控”选项进行勾选,保存后监视器内画面的色彩就正确了。

需要注意的是,“显示颜色管理”选项需要有GPU进行加速,否则无法开启,刚好YOGA16s提供了RTX3050独立显卡,因此可以帮助我们利用PremierePro2022来正确剪辑HDR内容。

那么在剪辑过程中我们可能还会发现监视器的视频有高光过曝的情况:

那么这时候需要检查下电脑是否开启“HDR”功能了。例如,当我把YOGA16s的WindowsHDR选项开启后,监视器中过曝的画面就恢复正常了。

↑开启WindowsHDR后,监视器画面恢复正常

随后我们就可以去正确的剪辑HDR内容了。

最后在导出HDR视频的时候还需留意,我们要将视频格式定为“HEVC(H.265),并在下面将配置文件选为“主配置10”;“导出色彩空间”设置为Rec2100PQ或Rec2100HLG(视HDR内容源而定);勾选“以最大深度渲染”和“包含HDR10元数据”。至此,我们已经完成了一段自己制作的HDR视频。

我们发现,剪辑出来的视频和我们在监视器中所见的画面一致,故证明上述编剪HDR视频的过程是正确的。

↑上:监视器画面,下:最终输出的HDR视频画面

那么感兴趣的小伙伴不妨也来试一试,将HDR视频上传到B站去给小伙伴们看一看吧!

小Tips:iPhone拍摄的HDR视频若直接导入进PC会被转码成SDR格式,想要无损导入iPhoneHDR视频可以看这个UP主的视频:iPhone12系列拍摄的HDR视频如何无损上传B站_哔哩哔哩_bilibili

3 .体验HDR游戏。

《赛博朋克2077》这类游戏毕竟还是比较吃配置的,至少需要一个RTX独显才能流畅运行,那么如果你手头的HDR笔记本没有这么高的配置,也就少了一个能够体验HDR乐趣的渠道。

总结:

HDR是一项非常必要的功能,我认为是未来显示器应该具备的基本素质,但目前是否需要HDR功能,仍需看具体使用场景。如果影音娱乐较多且有固定的HDR内容源,或者需要搞HDR内容创作,那么笔记本上的HDR就很有用。如果只是买笔记本用来Office、远程会议,那么HDR就要酌情考虑了,如果和SDR产品差价不大,还是非常推荐大家选购具备HDR认证的产品。

那么回到笔记本来看,如今越来越多PC厂商愿意在屏幕上下更多功夫,从硬件方面打通HDR和用户之间的壁垒。YOGA16s是HDR在PC短普及的一个良好的开始,它符合VESAHDR400认证,能够让用户体验到从SDR跨越到HDR的不同。至于HDR究竟能不能很快普及大众,剩下的就要看内容提供商的诚意了。

提示:本文所有内容仅供娱乐参考,仅代表作者本人观点、个人爱好分析,不作为任何投资依据,不承担法律责任。本站不对信息的真实性、准确性负责。