微创pph治疗痔疮:视频技术研究进展 - xiulitang291的日志 - 网易博客

来源:百度文库 编辑:偶看新闻 时间:2024/05/09 15:54:38

视频技术研究进展

1900年,TELEVISION单词诞生

1925年,第一台黑白电视机诞生

1950年,第一台彩色电视机诞生

1958年,我国开始电视广播

1988年,H.261标准颁布

1991年,MPEG-1标准颁布

2002年,AVS制定工作开始

2002年,数字电视走入家庭

2003年,H.264标准颁布

2007年,HD电视走向市场

2008年,MVC标准定稿

... ...

视频技术发展历程马上就要进入百年了,在这几十年的发展当中,我们所做的工作无非是沧海一粟,我们所经历的却是如此之多。

1、        视频采集:
视频采集技术又包括光电传感器技术、A/D技术等。
2、        视频编辑:
视频编辑技术又包括非线性编辑技术、视频特技技术、视频存储技术等。
3、        视频编/解码:
视频编/解码技术又包括运动搜索与预测技术、变换编码技术、熵编码技术等。
4、        视频传输:
视频传输技术又包括有线传输技术、无线传输技术、卫星传输技术等。
5、        视频播出与再现:
视频播出与再现技术又包括高清显示技术、立体显示技术、低功耗显示技术等。
6、        视频应用:
   视频应用技术又包括模式识别、VR技术、交互电视技术等。
【交互式多视点视频研究】
问题描述:传统的视频、电视,用户在进行观看时,如果需要进行场景、视角切换,是不能自行操控的,必须由电台导播、节目编辑来控制。因此,用户缺乏自主性。多视点视频系统将向用户同时提供多个角度的视频,由用户自主选择其喜爱的视角进行观看。
多视点视频系统由相机采集模块、采集数据后处理模块、视频编码模块、传输与控制模块、解码绘制显示模块、交互模块等构成。与传统视频技术所不同的是,它的数据量极为庞大,非现有技术和设备所能承受。

【研究现状】
关于多视点的研究,从上世纪80年代开始就有相关的讨论,只是在2000年之前统共能给找到的论文不超过10篇。自2002年开始,关于多视点的研究便蓬勃发展起来。2002年~2007年,关于多视点的研究主要集中在压缩编码方案的设计上,同时,基于现有技术而搭建的多视点视频原型系统也开始涌现。自2007年开始,研究重点开始转向客户端虚拟视点绘制技术、显示技术、深度/视差求取技术的研究。特别是近年,随着编码环节的问题已经淡化,关于“编码端应该给解码端提供什么数据”这样的问题已经摆上台面。
未来的5~10年里,到底还有什么问题需要进一步关注,这个谁也说不好。处于研究的角度,所有问题都值得关注。但是出于时髦的角度,没有人能给让自己永远处于时代的浪尖。HHI、GIST、ETRI、MERL、NAGOYA、清华大学等研究单位相对处于第一集团,特别是HHI在多视点研究领域中的地位,就跟巴黎在时装界的地位一样,成了时髦的风向标。国内研究所、大学的研究各占山头、缺乏合作以及对问题的深入理解,很多人凭感觉走路,最终在国际舞台贻笑大方,在国内舞台渐渐销声匿迹,都是缺乏合作远见的结果。

【我的见解】
1、国内需团结(MISSION IMPOSSIBLE)
2、多视点视频的采集系统,许多难题还没解决
3、解码复杂度太高,绘制复杂度更加无法承受,现在在多核(18核)条件下的最高解码帧率还不到15帧,如果加上绘制,那客户宁愿去看PPLIVE
4、太多问题没解决了,我估计要慢慢写,能写上100条       【3DTV技术研究】
问题描述:3DTV给人带来一种前所未有的视觉感受,可以让人在观看节目时有身临其境的感觉。总的来说,3DTV包括多通道视频及深度数据获取,2D to 3D 转换,3D数据编码,虚拟视点绘制及三维立体显示等几部分。目前,显示方面已经取得了突破性进展,深度数据的获取、2D to 3D转换及3D数据编码是目前研究的重点及难点。

【研究现状】
关于3DTV的研究,我从国内外有哪些研究所或者公司在做这方面来简单介绍一下吧。
    国外:韩国有ETRI、三星、GIST等,日本有JVC、nagoya、SONY、NEC、Panasonic等,德国有HHI、newsight等,另外还有philips、nokia等都在这方面开展了研究。其中,philips在三维显示方面申请的专利是最多的,也已推出了相关产品。
    国内:国内的话,有清华、上海大学、南京大学、西电、宁波大学等都开展了相应研究,其中清华大学刚刚申请了一个这方面的863项目。国内的SuperD公司推出了自主研发的3D显示器,最近在深圳成立了研发基地。

【我的见解】
1、深度数据的获取目前还是一个难点
2、由于3D需要大分辨率图象,用264来做大分辨率的3D实时压缩,目前难度还是很大。
3、3D数据对于现在的网络来说,还是有相当大的压力
4、显示器价格偏贵,而且偏离正视区域后,效果下降比较明显。(补充一点,最近Philips关闭了他的显示器业务,我这里不发表任何意见)

 

【SVC技术研究】
问题描述:可分级视频编码(Scalable video coding,SVC)是一种应对传输系统的异构性和终端的多样性的解决方案。其特点是一个SVC码流按照一定的规则可以丢弃其中的一部分,剩余的子码流仍然可以解码,只是尺寸、质量、帧率会有所下降。因此当传输带宽不足时,可以通过网关给码流瘦身,或者在终端处根据终端的处理能力提取相应的子码流解码。相当于一个码流包含了若干同样内容但不同版本的子码流。
SVC的核心话题就是层间预测、网络友好性等,H.264 SVC对此有了突破成果。目前研究的重点是SVC和信道编码的联合,SVC如何放进实际应用中,更广泛的SVC(比特深度、色度格式等)。

【研究现状】
SVC是视频领域一个古老的话题,但此前始终停留在文献的层面而没有走入实用。原因在于两方面,一是之前SVC过于复杂,基本做不到实用化的效果,二是传统的视频系统用不着SVC,因为传输信道稳定,终端无一例外都是SDTV。随着07年JVT推出H.264 SVC扩展部分,再加上无线网络、ip网络逐渐进入视频系统,SVC走向市场应用的可能性空前高涨。
SVC研究最牛的还就是Wiegand、Schwarz等引领的HHI了。研究的方向一方面是面向应用,Wiegand近一年发了数篇论文阐述SVC和信道编码的联合,为基于SVC的IPTV铺路;另一方面phase2的SVC也是研究的热点,包括8/10/12bit,420/422/444等的分级,以及FGS(fine grain scalability)。
应用方面我不是特别熟悉,接触的有限。但随着标准的推出,国内外公司都在着手在搞codec,应该不久就能有实用化的codec面世。
说SVC不得不提一下wavelet的SVC。在很长的时间里,wavelet被认为是SVC当仁不让的技术,但发展至现在渐落下风。原因是多方面的,包括H.264/SVC具有与已经大获成功的H.264/AVC兼容的特性,wavelet SVC的压缩效率等等。wavelet SVC较为前沿的应该是微软亚洲研究院的Vidwav了(05年已停)。


【我的见解】
1、编码的复杂度还是高,逐层做RDO压缩效率并没有宣传的高,cross-layer的RDO太复杂
2、IPTV将会是SVC最好的试验田
3、phase2的H.264/SVC还有搞头,。但个人并不看好FGS,逐比特的分级好看而不实用。

 

FVV,FTV等都是3DTV的其中一个组成部分
FVV和FTV的基本含义类似,只不过由不同的人在不同的时候依据不同的技术所提出。FVV出现在HHI的论文里(作者一下想不起来了),依据的是DEPTH技术进行虚拟视点绘制。FTV是TANIMOTO提出的,依据的是光线空间技术。这两种VIDEO的提出基础都是在2D显示技术,希望通过在2D显示环境中提供各种视点的方式,而让用户达到身临其境的感觉,即3D视觉的其中一种体现形式。
通过上面的描述,不难体会3DTV的含义以及范畴。3DTV是指更加广泛的3D视觉视频技术,除了在2D显示环境中进行显示(如FVV,FTV),更加希望提供全3D的视觉感受。而我们知道,3D也分了很多种。最简单和传统的就是大家看的3D电影,用户戴着眼镜看电影,头部的移动并不能带来视角的变化。现在我们希望的是,除了实现像3D电影这样的立体效果之余,用户头部的左右移动,脚步的前后移动均能带来与之对应的3D视觉场景变化,且与日常生活无异,同时最好是不需要戴眼镜的!这个难度有点大,我预计未来30年内要实现是有难度的。