2007-12-26

【转】从菜鸟出发!征服高清详细评测全攻略(四)

第18页:AVIVO HD与PUREVIDEO HD技术对比介绍(上)
第19页:AVIVO HD与PUREVIDEO HD技术对比介绍(下)
第20页:解码器,分离器以及DXVA的概念
第21页:PowerDVD开启硬解设置指南
第22页:终极解码以及完美解码设置指南(上)
第23页:终极解码以及完美解码设置指南(下)
第24页:KMPlayer播放器设置指南(上)
第25页:KMPlayer播放器设置指南(下)
第26页:KMPlayer播放器设置H.264硬解指南
第27页:KMPlayer播放器设置VC-1硬解指南
第28页:KMPlayer播放器设置MPEG2硬解指南
第29页:如何确认自己已经打开硬加速(上)
第30页:如何确认自己已经打开硬加速(下)


第18页:AVIVO HD与PUREVIDEO HD技术对比介绍(上)
  新一代编码H.264/VC-1的编解码方案流程主要包括如下5个部分:精密运动估计与帧内估计(Estimation)、变换(Transform)及逆变换、量化(Quantization)及逆量化、环路滤波器(Loop Filter)、熵解码(Entropy Coding)。下图则是H.264编码流程图


  AMD上代Radeon X1000显卡硬件支持ATI AVIVO技术, 针对H.264和VC-1编码的视频,由CPU处理器负责Bitstream Processing(码流处理)和Entropy Decode(熵解码),由Shader着色单元来硬件加速Frequency Transform(频率转换)、Pixel Prediction(像素预测)和Deblocking(环内解块滤波)过程。因此,不能称上纯硬件解码。



第19页:AVIVO HD与PUREVIDEO HD技术对比介绍(下)
  可以看出,AMD上一代的高清视频硬件解码技术并不完美,到了HD 2000系列,Radeon HD 2600系列(RV630),Radeon HD 2400系列(RV610)图形芯片当中集成专门的UVD硬件单元(通用视频解码器),完全负责硬件加速处理Bitstream Processing(码流处理)和Entropy Decode(熵解码),由Shader着色单元来硬件加速Frequency Transform(频率转换)、Pixel Prediction(像素预测)和Deblocking(环内解块滤波)过程,即Avivo HD。
    NVIDIA早在GeForce 6时代就开始引入HD视频解决方法-PureVideo,实现硬件加速,其实其原理就是通过驱动利用可编程GPU的空闲运算能力对编码进行加速,实际上这并非完整的硬件解码,有相当一大部分是GPU通过软件来完成,但不论如何很大程度的分担了CPU的压力。 并且在画质上也有一定的改观。
前代的PureVideo的硬件组成部分只有一个VP(视频处理器,Video Processcor),并且这个VP的处理能力以及性能还是比较低下。到了G84,NVIDIA在GPU里不仅重新设计了一个功能更强强大的新的视频处理器,并且增加了一个熵解码处理器引擎,NVIDIA称为BSP ENGINE(Bitstream Processcor ENGINE)。新的视频处理器(NEW VP或者是VP2)可以对MPEG-2,VC-1,H.264进行实时解码,包含了最近比较流行的第三代视频编码。而Bitstream Processcor ENGINE则主要针对H264的CABAC/CAVLC这两种熵编码进行解码。

  前面说过H.264标准采用的熵解码有两种:一种是基于内容的自适应变长编码(CAVLC)与统一的变长编码(CAVLC)结合;另一种是基于内容的自适应二进制算术编码(CABAC),也就是主要档次。CAVLC与CABAC根据相临块的情况进行当前块的编码,以达到更好的编码效率。CABAC比CAVLC压缩效率高,但要复杂一些,对硬件要求会更高一些。 CABAC (CAVLC 也同样)是一个不会损伤画面的无损编码,但是会降低编码和解码的速度。

  初步看之下PUREVIDEO HD以用AVIVO HD都拥有了完整的硬件解码功能,事实上则不然,两家在对视频编码的支持上有一些出入。首先就是两家视频加速技术对MPEG2的并非全硬件解码,相当多的一部分交给了CPU去软解压,这一点上相信没有多少人会有异议,毕竟MPEG2本身对硬件损耗就非常低,再通过部分硬件解码,其CPU占用率已经降得相当低的一个地步,这在我们后面的测试中也得到证实。而在对相当损费资源的H.264编码时,两家也采用了统一的态度,完全的硬件解码,彻底解放CPU瓶颈,这使得H.264在两家新显卡上解码不再是问题。
  另外,对于VC-1,ATI/AMD和NVIDIA的态度就有所差异了。ATI/AMD认为,VC-1作为和H.264新一代HDTV标准编码,同时又有比较高的CPU占用率,所以仍然采用与H.264一样的全程VC-1解码(这也就是为何2600xt集成如此多晶体管的一个原因);而NVIDIA则认为,VC-1尽管占用比较高,但进行部分解码之后,低端CPU仍然能胜任解码工作,并且随着CPU主频的提升,这一状况会得到缓解。另外NVIDIA同时也认为,现在主流CPU即使软解也才70%的CPU占用,再加上PUREVIDEO HD分担一部分后则仅有40%左右的占用,在不进行其它大型任务的情况下,与0%CPU占用没有任何区别。这一点上是仁者见仁智者见智,按照笔者个人看法,所有硬解码在未来都会给软解码所代替,而现在笔者即使是在解码CABAC 40m码率的片源时使用采用软解码,就为了保证画质以及可以随心换解码器;另外一方面,有总比没有好,哪天笔者要是没了3.6G的Conroe,使用一颗Athlon64 3000+时,带有全程解码VC-1以及H264的AVIVO HD显然会更好一些。



第20页:解码器,分离器以及DXVA的概念

  我们介绍一下解码器,分离器以及DXVA的概念解码器的功能就是对视频或者音频进行解压缩。我们知道不论是原始的视频或者是原始的音频,数据都是十分惊人和庞大的,所以我们要用编码器对其进行压缩,这样才有利于传输和存储。在播放时我们就要需要还原成画面或者声音,这就需要解压,也就是解码。

  其中视频解码器比较复杂:视频压缩技术就像我们之前所说有很多种,每一种里又有不少官方的,第三方的解码器,各种解码器功能,画面,速度都有差异,不过一般分为两种解码器:硬件解码器和软件解码器。硬件解码器就是利用解码器所带的驱动接口和硬件本身连接上,利用硬件所带的功能对视频进行解码,这样可以降低对CPU的负荷,从而实现流畅播放以及提升CPU多任务的能力。软件解码器就是除了硬件解码器之外的所有解码器,其最大特征就是利用CPU通用处理的功能,对其进行软件解码。软件解码虽然耗费CPU,但是可以修改,升级,在CPU资源充足的情况下是最好的选择。

  分离器的功能就是把封装在一起的视频以及音频还原出来。之前我们谈过有不少的封装,每一种封装必须对应一种分离器,才能正确的把视频和音频分离出来以供解码器解码。分离器也有很多种,一般情况下非标准的封装格式在正规的播放器里都没有相应的分离器,比如MKV。而分离器比较出名的有月光分离器,haali等。

  DXVA(也称DirectX VA)全称就是DirectX Video Acceleration(硬件视频加速接口)。DXVA是一个由微软和图形芯片厂商联合定义的一个硬件接口规范。如果一种显卡芯片在硬件上支持DXVA规范,并不代表它就实现了DXVA里面定义的所有功能。不过有一点可以肯定的是:对于DXVA定义的每一项功能,符合DXVA规范的显示芯片驱动程序一定会告诉系统,这项功能在它的硬件里实现了还是没有实现——这是DXVA规范强制性要求的。这样做的好处是应用程序不需要自己花费时间和精力去测试显卡有没有实现某项功能。同样的,如果一种解码器支持DXVA规范,也不代表它就能利用DXVA规范里面所有的功能组合,它可以选择自己有能力支持的,或者想要支持的那些功能的组合,而其他功能组合也许就放弃了。此外,如果某种显示芯片虽然通过驱动表示支持某种功能,但解码器认为该芯片对这个功能的支持是不稳定的,容易导致系统崩溃或错误,那么解码器也可以放弃使用该芯片的这种功能。

  按照DXVA规范,硬件解码加速有3种级别
1、MC加速(运动补偿,也就前文提到Pixel Prediction)
2、IDCT加速(前文提到的Frequency Transform) + MC加速
3、VLD加速(前文提到的熵解码) + IDCT加速 + MC加速+(deblocking fliter环内解块滤波)
  除了比较老的显卡(例如Geforce3)才支持MC加速之外,现在GF6/7,X1000系列第二级,而GF 8600/8500支持H.264第三级加速,以及HD2000系列支持VC-1/H.264第三级加速,当然,这也需要解码器支持才能被调用。当播放器或者解码器显示DXVA(也称DirectX VA)时也代表着硬件加速已经被开启。

第21页:PowerDVD开启硬解设置指南


  在所有所有的播放软件器,设置最为简单,又能直接开启硬件解码的软件,只能是PowerDVD了。可以说PowerDVD是目前最好的软件解压CD/DVD/HDTV播放工具,同时它自带了HDTV硬件加速的编码,使得调用极其简单。


  如果您使用的是NVIDIA的显卡并且带有PUREVIDEO技术,那么它会有一个PUREVIDEO HD的标志显示出来。

  PowerDVD分别可以对H.264,VC-1,MPEG2,X264,XVID,DVIX等格式进行解压。也就是说基本上主流的DVD/DVDrip,HDTV/HDrip都可以解码,并且在显卡有硬解功能时无需任何设置即可开启硬解。

以下信息代表DXVA硬件加速启用。


  PowerDVD无疑是强大的而且方便的,非常适合菜鸟使用硬解看中文片,即使是软解,它也能最为迅速的找到正解的解码器,不会出现画面,音频不正确的情况,而这一切都是无需设置的。对了,为何要说中文片呢,因为除了您外语特别好的情况下,PowerDVD是没有办法外挂字幕的,这也是该软件的一大遗憾,许多人正是因为如此抛弃了PowerDVD,而仅仅使用它所附带的解码器配合其它播放器。

  PowerDVD的缺点不仅如此,由于不可配置,其分离器比较少,就连AVI这种老得不行了的封装分离得都有些问题,当然,这和现在HDTV的AVI封装了dts多音轨可能有些关系。

  其它方面,尽管PowerDVD是靠播放DVD起家,但是如果碰到了HDDVD的同样为MPEG-2 PS封装的EVO文件,PowerDVD一样无法对其分离。PowerDVD优点:无需设置,有众多同时存在不同级加速的解码器即开即用,十分方便,是购买HDDVD/BD碟最佳播放器。
  PowerDVD缺点:PowerDVD对网上下载的Remux非TS封装片源都无法正常分离,如果碰到HDrip的MKV格式更是无可奈何。最为气愤的是无法挂任何字幕。注意:PowerDVD一定要优先于其它播放器安装。如果PowerDVD工作不正常,有可能是解码器/分离器混乱,重装一般可以解决问题。

第22页:终极解码以及完美解码设置指南(上)


  终极解码以及完美解码其实说白了就是一个软件大集合,其中时下最热门的包括了播放器,解码器,以及分离器。由于终极解码或者完美解码的设置十分霸道,并且自由度不算高,所以我们可以把终极解码或者完美解码当成一个解码器以及分离器的软件包来安装。也就是说只使用它附带的解码器或者分离器,甚至是播放器,但不使用它自带的设置器,而是使用设置最为细致的KMPlayer。




第23页:终极解码以及完美解码设置指南(下)

  在这里和大家说明一下,不论是安装了终极解码或者完美解码后,其装在系统里的解码器和分离器是由当前设置所决定,比如您现在想使用NVIDIA VIDEO Decoder,而您就需要将相应的选择调至NVIDIA VIDEO Decoder选项并且应用之后,它才会调 出NVIDIA VIDEO Decoder的安装。


  同样的,需要调出什么样的解码器,或者分离器,直接在终极解码或者完美解码设置,它就会被安装上了。可以看出已经可以使用KMPlayer搜索到NVIDIA VIDEO Decoder这个解码器了,这在之前并没有。

  另外一点需要大家注意,一般情况下最好不要用终极解码或者完美解码对KMPlayer设置,我们的理由是KMPlyaer的设置功能更为强大。不过终极解码或者完美解码设置的优先级较高,也十分霸道,在设置了KMPlayer的选项之后,再用KMPlayer设置基本无效,所以我们推荐这样设置:在另外安装KMPlayer或者是已经有KMPlayer绿色免安装版的同时,我们在终极解码或者完美解码里调用这个选项:



  这样做我们就可以把终极解码或者完美解码的默认播放器设置为Media Player Classic,不仅不会对KMPlayer造成直接影响,又提供了解码器/分离器的同时,还能多了一个Media Player Classic次选播放器,一举三得。



第24页:KMPlayer播放器设置指南(上)

  首先,我要推荐一下KMPlayer播放器,根据我了解仍然有不少朋友使用MYMPC,暴风影音以及风雷影音,大多数人总是认为这些软件更为简单。

  其实则不然,KMPlayer默认的设置一样可以对各种格式的影音文件播放,并且它拥有众多的快捷键,可以对显示大小,长宽比例,色彩随意控制,最重要它的分离器比较优秀,即是是对RMVB/RM快进或者后退时,几乎没有任何后滞和延迟,这是一般播放器无法做到的。来自韩国的影音全能播放器KMPlayer,与Mplayer一样从linux平台移植而来的Kmplayer(简称KMP)几乎可以播放您系统上所有的影音文件。通过各种插件扩展KMP可以支持层出不穷的新格式。这个播放器最大好处就是自由度非常高,怎么设置都成,甚至可以根据不同的流媒体格式设置不同的分离器,根据不同的编码格式设置不同的解码器,这也是我们高清播放里最为需要一个功能。

  不过它的缺点也是显而易见的,这也就是我们之前为何要去不停的重复声明PowerDVD简单易懂,那是因为相对KMPlayer而言简直太轻松了-----KMPlayer实在设置太复杂了。

  我们在这一步步的教会大家如何去设置KMPlayer,并且告诉它每一步的含义。

  首先进入KMPlayer的参数选项内部 ,我们要做的第一件事是让解码器以及分离器的设置无条件使用。


图片不清。请点击查看

  在选择外部视频解码器时,原先是除了默认的由libcodec.dll处理之外没有其它的可以调用,所以我们要使用用户自定义解码器来搜索当前系统存在的所有解码器。


图片不清。请点击查看

第25页:KMPlayer播放器设置指南(下)


  之后我们也要定义一下分离器的使用,只有正确的分离才有能解码,这一步更为重要,其搜索和管理外部分离器方法和解码器一样,这里就不重复了。

  另外,现在时下比较流行的Haali分离器,可以很好对MPEG2-TS MPEG-PS和MKV等封装分离,强烈推荐使用。但是Haali分离器是在分离器选项里找不到的,而KMPlayer则专门有一处可以管理什么封装使用Haali分离器。


图片不清点击打开查看



  如何判定你现在在KMPlayer里用的是何种分离器,何种解码呢?按下Tab键之后可以查看当前视频播放的OSC信息,但因为Haali分离器并不在KMPlayer支持的列表之内,所以它未被显示,如上述方法,我们可以在桌面右下角的栏里看到它。
下面我们将开始介绍如何设置能在KMPlayer中针对各个编码打开硬解

第26页:KMPlayer播放器设置H.264硬解指南


  H.264解码设置相对比较容易,其要求是之前要一定要安装上PowerDVD 7.X的H.264解码器,具体步骤请进上面介绍。

  另外分离器尽量不要用内置的分离器,有时候调用nero分离器或者内置的分离器,即使解码器能正常使用,但却开不了硬件加速。

  选择外部视频解码器,如果之前没有调入外部解码器或者是搜索过外部解码器的话都是系统默认,所以我们先要搜索外部解码器。搜索外部解码器这一步骤会将所有外部解码器搜索出来然后在相应的编码格式里选对应的解码器,H.264的直接使用PowerDVD的H.264解码器可以直接开启硬件加速。然后点右边的C,就可以进去对解码器进行调节。USE DxVA的选项勾上即打开硬件加速。



  完美解码的话设置相对简单,只要H.264这一项选中Cyberlink(DxVA)即可。当然分离器最好还是选择Haali。此外,有必要介绍一下CoreAVC这个软解H.264的软件,它是公认H.264画面以及设置比较都优秀的解码器,尽管它只是软件运算,但是拥有比FFSHADOW更低的CPU占用率,成为了软解解码器的首选。


第27页:KMPlayer播放器设置VC-1硬解指南

  VC-1/WMV HD的情况比较复杂,首先KMPlayer要选用比较新版的,自从2.9.3.1288之后开始增加对VC-1/WMV HD选项,令KMP硬解VC-1不再是梦想。
不过首先我们要确定的是要安装了WMP11,或者WMP11里自带的解码器wmfdist-11.exe这个文件。这个解码器安装了之后,就可以在KMP里调用。

  不过在KMP里是无法对WMVideo解码器进行设置的,我们得利用一个设置程序WMV PowerToy.exe对WMVideo解码器进行设置。
  详细设置如下,即可开启VC-1加速。在最后一项是关于画质的,开启强力deblocking以及柔化色块会加重一些系统负担,但对画面有利,建议机器好的朋友这样设置。



值得注意的是,终极解码并没有为VC-1提供任何设置,所以也无法设置。


第28页:KMPlayer播放器设置MPEG2硬解指南

  MPEG2的硬解则仁者见仁智者见智,可以说哪怕是很老的显卡都支持MPEG2加速(只要符合DXVA标准),但是大多数人的CPU都可以流畅的软解MPEG2,所以是否需要硬解就要看大家的喜好了。
  MPEG2的硬解比较有趣,不管是NVIDIA的显卡还是ATI或者是INTEL的显卡,都需要调用NVIDIA Video Decoder。
KMP的设置一如往常。




  右键打开其属性后显示其内容。

  完美解码的设置还是一如往常的方便,不过要注意的是要选择NVIDIA,而不要选择NVIDIA(VPP),因为选中了NVIDIA(VPP)之后会对DVD片源进行实时IVTC渲染,画面质量会提高一个档次,不过同时也会失去硬件加速,这点一定要注意。


第29页:如何确认自己已经打开硬加速(上)

  不同软件有不同的检测方法,不过不管如何开启硬件加速最大的好处就是降低CPU占有率,所以我们可以直接在CPU占用率里查看,对于有着明显效果的,一眼就能看出来了,如下图。我们使用Perfmon查看量化的CPU查用率,比Windows任务管理器查看更加直观。



第30页:如何确认自己已经打开硬加速(下)

  在KMP里稍微复杂一些,首先要打开右键——滤镜——高级播放信息。

  在确保硬件加速被开启的过程中,我们第一步要检查的就是解码器是否被正确调用。
  我们看到这里会显示所有几乎我们想要的信息。首先是各滤镜的调用信息,然后还有视频/音频解码器信息。


  解码器被正确调用之后,并且对解码器的设置也正确之后,就会出现DXVA的字样,代表显卡硬件加速已经打开。不论是何片源,只要DXVA出现就代表硬件解码被打开。



2007-12-25

【转】从菜鸟出发!征服高清详细评测全攻略(三)

第11页:碗好还是锅大?封装格式详解-AVI
第12页:碗好还是锅大?封装格式详解-TS
第13页:碗好还是锅大?封装格式详解-MKV
第14页:什么是HTPC
第15页:HDMI重要性一:DVI根本无法替代。
第16页:HDMI重要性二:防止灰阶信号丢失
第17页:HDMI重要性三:相对于DVI的改进和升级




第11页:碗好还是锅大?封装格式详解-AVI

  所谓封装格式就是将已经编码压缩好的视频轨和音频轨按照一定的格式放到一个文件中,也就是说仅仅是一个外壳,或者大家把它当成一个放视频轨和音频轨的文件夹也可以。说得通俗点,视频轨相当于饭,而音频轨相当于菜,封装格式就是一个碗,或者一个锅,用来盛放饭菜的容器。有的人可能觉得奇怪,容器,不就能盛放饭菜就行了么,用一个碗就可以了,何必制定出这么多的格式以及规范呢?其实不然,试想一下,有的菜,例如排骨,比较大,碗放不下,得换锅。有的饭比较烫,也不能放在塑料的容器里,当然个人喜好也有一定关系。所以容器的选择,基本在于,其对视频/音频兼容性,以及适合范围。这下大家应该明白了,很多人一直把封装格式当成前面介绍的视频编码,而这两者之间没有必然的直接联系。
  AVI容器-成熟的老技术AVI是微软1992年推出用于对抗苹果Quicktime的技术,尽管国际学术界公认AVI已经属于被淘汰的技术,但是由于windows的通用性,和简单易懂的开发API,还在被广泛使用。

  AVI的文件结构、分为头部, 主体和索引三部分. 主体中图像数据和声音数据是交互存放的。从尾部的索引可以索引跳到自己想放的位置。AVI本身只是提供了这么一个框架,内部的图像数据和声音顺据格式可以是任意的编码形式。因为索引放在了文件尾部,所以在播internet流媒体时已属力不从心。很简单的例子,从网络上下载的片子,如果没有下载完成,是很难正常播放出来。


  另外一个问题是AVI对高码率VBR音频文件支持不好。VBR全称是Variable BitRate,就是动态比特率,可以根据当前的需要定义不同的比特率,避免了浪费,并且提高了利用率。随之问题也就来了,因为容器里的图像和声音是分开的,所以播放时需要一个图像和声音的同步过程,如果CBR音轨的话因为码率是定值,同步不成为问题,可是VBR音轨是不断的在变换,而AVI没有时间戳去让VBR音轨和图像同步,这样就会产生图像声音不同步的问题。后来VirtualDub提出了一种新的方法扩充了AVI对VBR音频的兼容,但是在高码率时会产生丢失数据的问题,从而导致有损音效,这一点问题到现在都没有比较完美的解决方法。并且更加令人遗憾的是,对TrueHD, DTS-HD等音效更是完全不能支持。




第12页:碗好还是锅大?封装格式详解-TS

  前面介绍过HDDVD以及BD之争,尽管两家在编码上都统一采用MPEG2/VC-1/H.264,可在封装格式上又有所分岐。DVD论坛官方所认可的HDDVD使用的是PS封装,即Program Stream(程序流),这和之前DVD所采用的MPEG2 Program Stream封装是一样的,PS流的后缀名是VOB以及EVO等。

  而BD在没有DVD论坛官方认证的情况下,自然不能PS封装,而是使用了MPEG2的另一封装TS封装,即Transport Stream(传输流),TS流的后缀名为TS。它们都是MPEG2系统部分的两个不同的语法结构,而在现在仅仅在作为封装使用。TS流对于PS流来说更易传输,不过由于其性质,也更易出错,所以在以前一般存储方面都是使用PS流,当然现在随着容错/纠错技术的提高,TS的适用范围越来越广。现在网上大多流传以TS封装的HDTV remux版,PS封装只能在HDDVD原版才看到,所以我们来着重分析一下TS封装格式。
  电视节目是你任何时候打开电视机都能解码(收看)的,所以,MPEG2-TS格式的特点就是要求从视频流的任一片段开始都是可以独立解码的。从结构上来说,TS是由头文件和主体所组成的,扩充过的TS流还包括时间戳。这样不管是什么格式的VBR音轨,都很容易通过时间戳来同步图像。当然,对新的声音格式来说,需要新的分离器,解码器来实现解码。目前在不断改进开发中。 TS不像AVI,从诞生那天起,就考虑到了网络播放,所以很快成为了世界标准并广泛应用于电视台数字播放,手机等各个领域。

第13页:碗好还是锅大?封装格式详解-MKV

  除了REMUX版本之外(Remux的意思是无损的提取出HD-DVD 和 BluRay-DVD里面的视频数据和音频数据,封装到我们熟悉的TS或者AVI文件中),有不少HDRIP(重新编码,即有损压缩过之后的片)使用的封装格式一般是AVI,MKV和MOV。AVI封装自然不需要介绍了,MOV是Quicktime封装,这一封装和AVI几乎是同一时代的,缺陷也不少,现在很少有人使用。而使用MKV是Matroska的简称,它是一种新的多媒体封装格式,比较常见的搭配是X264+MKV。

  MKV封装十分新颖,而且也非常开放,它对比AVI的优势体现在以下几点:1:可变帧率:这需要编码的配合,试想一下在回放变化比较慢(比如说静物)时以比较低的FPS来代替,可以节省不少资源。

2:错误检测以及修复:这无疑提供了纠错和容错性,在网络传输的今天尤为需要。

3:软字幕:经常看DVDrip以及HDrip的朋友了解到,字幕一般都是以其它文件形式存在,在MKV里它可以内嵌在封装里,但不会和视频混淆,也可以多字幕随意选择。这样在传输保存时比较方便。

4:流式传输:这和TS流的原因基本一致,通过时间戳来管理视频以及音频的同步问题,做到即下即看。

5:菜单:交互式的操作使得MKV更加人性化。

6:强大的兼容性:MKV最大的特点就是能容纳多种不同类型编码的视频、音频及字幕流,即使是非常封闭的RealMedia及QuickTime也被它包括进去了,堪称万能的媒体容器。
7:开放性和跨平台性:Matroska使用的是一种开放的架构,拥有众多的先进特性,并且能跨平台使用。

  不过Matroska相对于以上我们介绍的缺点也是显而易见的,它没有深厚的背景可以依托,这决定了它不可能在商业领域里有所作为。不过从DVDrip里我们看到并非标准才是唯一,真正先进的技术在标准化商业化的道路上碰到很多非技术壁垒,而在网上而言,根本不存在这样那样的顾虑,所以MKV可以网上快速流行起来。不过MKV的缺点也是显而易见的,分离器方面比较好的仅有HAALI分离器,再加上民间标准的缘故,我们很难在PC以外的地方能见到它的存在。


第14页:什么是HTPC 什么是HTPC

  HTPC是Home Theater Personal Computer的英文缩写,就是“家庭影院个人电脑”的意思。简单地说,它就是一部特别注重多媒体功能的个人电脑。

  HTPC与普通PC的主要区别就在于,它并不是以追求高性能为惟一目标,它应该是外观,性能、噪音,功耗4者平衡的产物。HTPC应该是摆在客厅上,作为家庭数码影音的中心。放在客厅上的东西,如同电视,DVD机,音响,功放一样,它必须有可人的外观,谁也不愿意在典雅的客厅上看到一个丑陋的机箱。它不能太大,不论是美感上,还是从节省空间上来看,这都非常重要,一个如铁牛一般的机箱是很刹风景的。在性能上我们并没有多大要求,但尽量使用双核CPU,或者是带硬件加速的显卡,这样既然是面对高码率的H.264时一样从容不迫,并且在编码时(录制电视节目)双核也能发挥其效用。

  硬盘是一个非常关键的因素,个人认为320G为起始点,越大越好。功能方面,板卡选择上尽量多带些接口,1394和SPDIF IN/OUT都需要,显卡方面要有DVI/HDMI,S-VIDEO/色差。光存储方面以DVD刻录机为佳。噪音是一个非常重要的因素,毕竟谁都不愿意在欣赏影音的同时还享用噪声,所以选用一些低噪音的板卡,以及低噪音的硬盘和光驱尤为重要。板卡比较理想的是被动散热 ,而有风扇哪怕是低转速,在长时间运行之后同样会发出一些冒名的噪音,如果不及时清理或者更换问题根本得不到解决,而被动散热则完全没有此类问题。

  功耗也是HTPC非常在乎的一个因素,首先从节能上考虑,家庭影院的应用就可能会长时间的开机,功耗小则代表节约电费。而HTPC有机箱大小也有限制,尤其是一些准系统在使用Micro ATX的还只能使用半高显卡,这样体积可想而知,散热成了很大的问题,如果大功耗的配件有可能无法散热,所以尽量以低功耗为主。



第15页:HDMI重要性一:DVI根本无法替代。

  首先应该大多数人都知道DVI与HDMI最大的特征都是数字的,正因为如此,有不少人单纯的认为,HDMI只是带了音频功能的DVI,两者在视频上是一模一样。其实这完全是错的。如果仅仅是这样的话,咱们自己就可以把音频线以及DVI数据线绑在一起,而不用这么多厂家耗费了这么大力气,消耗这么多时间去制定这个标准了:)
HDMI 的数据传输示意图(T.M.D.S ) :

DVI规范的数据传输示意图 (T.M.D.S):







  从上面我们可以看出,HDMI以及DVI都是采用的数字T.M.D.S信号联接。都采用了数字信号的好处就是在转换无损并且比较方便,但并不代表兼容,就像RAR和ZIP这两种压缩格式互相转换很容易,并且无损,但是它们之间采用的格式,数据存储方式完全不同,很简单的例子就是只针对ZIP设计的软件就没有办法读取RAR包,例如WINZIP。

  HDMI 规范中规定CEA EDID数据传输的第一个时序扩展段中要包含VSDB 信号。就是HDMI Vendor Specific Data Block (HDMIVSDB) . 这是一个 EIA/CEA-861B Vendor Specific Data 数据块。包含一个 24 位的 IEEE Registration Identifier 0x000C03, 一个 HDMI 批准、许可的数据值。为了测定接收端是否HDMI 设备,HDMI 源设备需要检测接收端设备的EDID 数据传输扩展时序中,是否存在这个 VSDB 数据块( 由 HDMI 设备制造厂商根据协议制定并提供的)。任何一个HDMI设备都会自动响应一个HDMI VSDB ,这是一个合理长度的数据表述 , 含及IEEE 注册、登记的标识符:0x000C03,只要HDMI 源设备接到这个标示符相关数据的响应,就将接收端设备认定为HDMI 设备。否则, HDMI 规范指定:任何接收端设备在 E-EDID 数据传输时不回传包含 这个HDMI VSDB ,即合理长度的HDMI 数据标识符(IEEE Registration Identifier )的响应。就会被认为所联接的是 DVI 设备。

  因此HDMI在CEA EDID数据传输时,会包含一个VSDB 信号,而此数据块里面包含着验证,测定接收端是否也是HDMI设备的数据值。当验证对方也是HDMI端时,将会以HDMI标准格式来发送信号;而验证对方为DVI设备时,会用DVI规范的数值形式去发送视频数据,而无音频数据 。

HDMI 联接时所必需的识别码:

  从这一点上来说,HDMI是完全向下兼容DVI,也就是发送端为HDMI接口时,和发送端为DVI接口在接收端都是DVI接口的情况下,两者都采用的是DVI数据传输协议,在这一点上是一模一样的。

  而DVI能否转换HDMI呢?事实上市面上早已出现了不少DVI和HDMI互转的转接头和转接线。由于我们之前提过,HDMI在传输的开头会有一个验证过程用以分辨是否是HDMI设备才确定信号采用何种规范,而DVI根本是没有这一步骤的,所以DVI不论接驳什么接口什么线,传输的仍然是DVI规范的信号。那这些转接头是如何运作的呢?

  HDMI转DVI自然不用说了,HDMI可以完全向下兼容DVI。而DVI转HDMI呢。实际上由于都是通过T.M.D.S数字信号传输,所以遵循相同的电气规格,基本上转接头/转接线只是把物理信号引角转换一下,传输的依然是DVI的信号。这样子的话,对于电脑显示器或者部分平板数字电视来说也无所谓,因为这些设备是可以直接接入DVI信号,而如果碰到一些早期的HDMI接口的电视以及录放设备,会产生一些兼容性问题,比如说无法正确显示其内容-黑屏等等。

  现在大部分电视在接入DVI信号时仍会存在大大小小一些问题,比如说边角不对应,画面无法最大化,画面闪烁,不能实现点对点,无法识别信号等兼容性问题,只不过有一些问题可以通过在PC端的细微调整就可以解决,而另一些则没有办法解决。而在换成了HDMI的显卡之后,只要符合了HDMI 1.2标准的电视都可以正确的和电脑连接。

  总结我们以上所述,在信号传输格式上,HDMI可以完好兼容DVI,而DVI接口转换HDMI需要接入设备对DVI传输信号的支持,从这一点上来说,HDMI才是完美的接口。

  关于DVI接口的详细信息:

  DVI 的定义:
  DVI-A : 就是与 VGA 规范一样的 包括 RGBHV 信号线的模拟接口,RGB 是什么不用赘述了吧, HV 分别是水平 和 垂直 扫描的 行同步 与 场同步信号。VGA 接口规范同样提供 RGBHV , 所以 DVI-A 就是兼容 VGA 接口的。  

  DVI-D : Silicon Image、Intel、Compaq、IBM、HP、NEC、Fujitsu等公司共同组成数字显示工作组(Digital Display Working Group,DDWG)制定。数字信号由Silicon Image的 发送器按照TMDS协议编码后通过TMDS通道发送给接收器(一般也是 Silicon Image 的芯片)再解码。
  根据DVI标准,一条TMDS通道可以达到165MHz的工作频率和10-bit接口,也就是可以提供1.65Gbps的带宽,这足以应付1920*1080/60Hz的显示要求。另外,为了扩充兼容性,DVI还可以使用第二条TMDS通道,这样其带宽将会高过2Gbps。DVI-D 才是 真正的数字信号传输。DVI-A 只是换汤不换药的定义而已。其实就是 VGA 接口标准。

  DVI-I 是整合了上述 DVI-A 以及 DVI-D 的接口的总称。具体在接口插座管脚定义上有明显的区分。也就是说:看看 DVI 的接口管脚就知道个大概了。概述:DVI-A ( A= Analog ) 是模拟信号接口只能去接 DVI-A 或者 VGA 接口的信号。DVI-D ( D= Digital ) 是数字信号接口只能去接 DVI-D 接口的信号。DVI-I ( I = A+D = Integrated ) 含及上述两个接口在管脚定义上有明显的区分,当 DVI-I 接 VGA 时, 就是 起到了 DVI-A 的作用 ;当 DVI-I 接 DVI-D时, 只起了 DVI-D 的作用。



第16页:HDMI重要性二:防止灰阶信号丢失

  我们上篇讲的仅仅只是电气信号规格,而这里我们要谈到的传输的具体内容-灰阶信号。哪怕平台电视可以接入DVI信号并且识别,但只要它没有针对PC的灰阶信号进行转换,那么既然画面一切正常显示,但是我们看到的画面的亮度和暗部细节仍然 会严重失真 。



  这是怎么回事? HDMI与DVI虽然遵循相同的电气规格,采用T.M.D.S的数字信号传输,但最大的不同之处就是,DVI是PC上的规范,而HDMI的用途大多在家电领域。应用领域的有所不同也会导致规范有所不同,PC一般采用了Full Range的RGB灰阶,灰阶数值范围是0至255;而对于家电这些消费类电子采用的RGB灰阶都是Limited Range,数值范围是16至235,16-235其实是对模拟电视格式的延续。DVI转HDMI在没有灰阶处理的平板电视上会直接导致13%的灰阶信号丢失。


  而HDMI处理的即可为色差讯号的Limited Range也可以是RPG的Full Range,一般发送端都会自适应。13%的灰阶信号丢失正常情况,暗部高光细节清晰可见






第17页:HDMI重要性三:相对于DVI的改进和升级

  为何笔者要把相对DVI的改进和升级放在最后面来说呢?因为这些升级的特性,在现阶段并非是必要的,换句话说,缺了也没有多大事,至少不会像前面两节里的直接影响正常使用。

  话题转正,继续谈HDMI的改进之处 。

  1:HDMI可以同时传输数字式无损的音频和视频,而DVI只支持视频输出。PC上实现HDMI同时输出音频视频,通过两种方式
    一:内部连接,显示芯片与音频芯片同在一片PCB上,声卡直接通过PCB上的走线将信号传输给显卡,再整合成HDMI信号输出。这样的例子包括了集成显卡,如MCP68,还有一些显卡集成了音频处理芯片,如R600。
    二:外部连接。显示芯片和声卡芯片不在同一片PCB上,通过外部连线连接。一般来说是声卡直接采用SPIDF OUT来连接显卡,但也有专用的HDMI音频连接线,现在越来越多的主板以及声卡在采用(如下图)。




  HDMI能在传输1080P视频信号的同时,还能以192kHz的采样频率传送8声道的音频信号,而这一切只在一条连线中即可完成!据统计,一条HDMI连线可以取代10~20条模拟传输线,大大简化线材部局。

  2:HDMI可以使用3条TMDS通道来传输视频和音频,而DVI只有两条。正常情况下,一条TMDS通道可以达到165MHz的工作频率和10-bit接口,也就是可以提供1.65Gbps的带宽,这样来算DVI有3.3Gbps的带宽,而HDMI近5Gbps的带宽。在HDMI 1.3被制定出来之后TMDS的165MH频率提升至340MHz,提升幅度约为 2 倍,这样HDMI可以提供10Gbps的恐怖带宽,并且也可采用双连接规格,以更进一步加大带宽、达到680MHz。这对于未来而言是十分有发展潜力的。


  3:现有的HDMI 1.1及1.2版和DVI仅能支持到24bit色深,1.3版HDMI接口则是大幅扩充至30-bit、36-bit以及48-bit(RGB或YCbCr),具有输出一亿色以上的能力,并大幅增加对比的阶层。同时HDMI 1.3标准可以支持新一代的〝xvYCC〞color space,号称具有目前color space规格的1.8倍颜色讯号输出能力。HDMI LLC董事长Leslie Chard表示,ATi和nVIDIA可以轻松地在GPU当中集成新的规范,索尼PS3已经支持“Deep Color"。事实上,蓝光和HD-DVD规范都支持“Deep Color",但是双方都还没有宣布支持HDMI 1.3


  4:传输距离 :在不影响画质的情况下,HDMI的传输距离可达到15米,而DVI小于8米。这对于PC而言用处不大,但对于家电而言,放宽了线的限制将大大减轻布线难度。用光纤传输,在线材两端加入了光信号转换器的HDMI信号线可达100米。

2007-12-24

【转】从菜鸟出发!征服高清详细评测全攻略(二)


第6页:压缩是关键-HDTV编码发展历程



第7页:H.264也是MPEG4?它们之间的差别?


第8页:VC-1-微软的霸权主义


第9页:各编码详细规格对比


第10页:最终用户爱好哪种编码?

第6页:压缩是关键-HDTV编码发展历程

  既然已经从DVD进展到HDDVD/BD,我们看到不仅仅是存储介质容量的增大,同时视频压缩技术在这几年也得到了飞速的增长。我们可以这样计算一下,存储容量增加了5~10倍,而视频压缩技术如果也能提升2~3倍,那么我们在清晰度上将会得到10~30倍的飞跃!

  而视频压缩技术的进步,则要得益于DVD、HDTV、卫星电视、高清 (HD) 机顶盒、因特网视频流、数码相机与 HD 摄像机、视频光盘库 (video jukebox)、高端显示器(LCD、等离子显示器、DLP)以及个人摄像机等娱乐应用视频压缩是所有令人振奋的、新型视频产品的重要动力。压缩-解压(编解码)算法可以实现数字视频的存储与传输。

  我们来看原始视频的要求,标准清晰度的 NTSC 视频的数字化一般是每秒 30 帧速率,采用 4:2:2 YcrCb 及 720,其要求超过 165Mbps 的数据速率。保存 90 分钟的视频需要 110GB 空间,或者说超过标准 DVD-R 存储容量的 25 倍。这样的要求显然既然是现在庞大的硬盘容量都无法满足,何况更多瓶颈是来自于网络下载那可怜的速度。所以视频压缩是普及视频的必然趋势,不过视频压缩技术的种类也是非常多。如何选择视频压缩技术,成为内容提供商以及终端用户的最大难题。因为这里面涉及的问题比较多,不管是内容提供商还是终端用户,都会关心其画面质量/码率的压缩比。

  而在内容提供商方面,还得关心专利权益金的费用,这一点虽然和我们用户没有支持关心,但这往往是决定我们最终用户所能使用到视频压缩技术的最重要的一点。另外,最终用户关心的是编/解码器的成本,这包括了占用系统内存, CPU占用率,系统功耗等,毕竟在编/解码时所耗费的成本都得由最终用户直接买单。
  在视频编解码技术定义方面有两大标准机构。国际电信联盟 (ITU) 致力于电信应用,已经开发了用于低比特率视频电话的 H.26x 标准,其中包括 H.261、H.262、H.263 与 H.264;国际标准化组织 (ISO) 主要针对消费类应用,已经针对运动图像压缩定义了 MPEG 标准。MPEG 标准包括 MPEG1、MPEG2 与 MPEG4。

  ITUMPEG 标准的发展历程除了 ITU 与 ISO 开发的行业标准以外,还出现了几种专用于因特网流媒体应用、广受欢迎的专有解决方案,其中包括 Real Networks Real Video (RV10)、Microsoft Windows Media Video 9 (WMV9) 系列、ON2 VP6 以及 Nancy。由于这些格式在内容中得到了广泛应用,因此专有编解码技术可以成为业界标准。2003 年 9 月,微软公司向电影与电视工程师学会 (SMPTE) 提议在该机构的支持下实现 WMV9 位流与语法的标准化。该提议得到了采纳,现在 WMV9 已经被 SMPTE 作为 VC-1 实现标准化。


第7页:H.264也是MPEG4?它们之间的差别?

  在这里说一下为何H.264又被人称为MPEG4-AVC,MPEG系列的标准归属于ISO/IEC,但另一方面以制订国际通讯标准为主的机构:ITU-T,在完成H.263(针对视频会议之用的串流视频标准)后展开了更先进的H.264制订,且新制订是与ISO/IEC机构连手合作,由两机构共同成立一个名为JVT(Joint Video Team)的联合工作小组,以MPEG-4技术为基础进行更适于视频会议(Video Conference)运用的衍生发展,也因为是联合制订,因此在ITU-T方面称为H.264,在ISO/IEC的MPEG方面就称为MPEG-4 Part 10(第10部分,也叫ISO/IEC 14496-10),MPEG-4 Part 10的另一个代称是MPEG-4 AVC(Advanced Video Coding,先进视频编码),多个名称其实是一个意思,即H.264=MPEG-4 Part 10=ISO/IEC 14496-10=MPEG-4 AVC
  那么,H.264到底与MPEG-4有何差别呢?更准确地说MPEG-4 Part 10与MPEG-4 Part 2有何差别?为何需要再订制出MPEG-4 Part 10呢?直接沿用MPEG-4 Part 2难道不行?

  虽然MPEG-4已针对Internet传送而设计,提供比MPEG-2更高的视频压缩效率,更灵活与弹性变化的播放取样率,但就视频会议而言总希望有更进一步的压缩,所以才需要出现了H.264。
  到底H.264好在哪?先让我们将MPEG-2、MPEG-4(MPEG-4 Part 2)、H.264(MPEG-4 AVCMPEG-4 Part 10)三者进行分辨率表现与所用带宽的比较,无论MPEG-2、MPEG-4、H.264,三者都能达1920×1080i(非交错)的高清晰度(High Definition,HD)、24fps(每秒更新24张画面)的影像画质,但传输带宽上MPEG-2需要12~20Mbps,相对的H.264只要7~8Mbps,而MPEG-4则介于两者间,更直接地说,若把MPEG-2的带宽用作基准的100%,MPEG-4要达相同效果只需要60%带宽,H.264更是低至40%,约为原MPEG-2的1/2~1/3。

  值得一提的是H.264标准采用的熵解码有两种:一种是基于内容的自适应变长编码(CAVLC)与统一的变长编码 (CAVLC)结合;另一种是基于内容的自适应二进制算术编码(CABAC)。CAVLCCABAC根据相临块的情况进行当前块的编码,以达到更好的编码效率。CABACCAVLC压缩效率高,在相当画质的情况下可以节省 20%左右的带宽,但要复杂一些。
第8页:VC-1-微软的霸权主义

  为何MPEG-4的不能提供如此高的压缩比呢?这一方面是近几年压缩技术提升的结果,更为重要的,其实是最近几年视频/系统处理器得到了高速发展,其处理能力也得到很大提升,这样可以使用更高的压缩比而无需担心系统负荷过重。而VC-1(VC指Video Codec)的诞生则源于Windows Media,它是提供网上音乐与视频预订服务与视频流的主要格式。
  微软公司于 2002 年推出了 Windows Media Video 9 系列编解码器,实现了视频压缩效率的显著提高。WMV9 另外还作为 VC-1 在 SMPTE 中实现了标准化。当然了,VC-1纯粹是一种视频压缩算法,并没有WMV中数字版权管理、元数据、播放列表和用户接口这些元素。与 H.264 类似,它包含许多高级编码工具,不过种类有所不同。除了支持半象素双线性插值之外,WMV9 的 ME 还允许 1/4 象素双立方。环内解块滤波器(deblockking fliter)开与否展示,

上图为关,

  下图为开。可明显看出上图色块非常严重,而下图则过渡得十分平滑。经过滤波处理,减少了块效应,而图像的质量基本不受影响,因此主观质量大大改善。如果不滤波,同样的主观质量,需要多出5%~10%的码率。上下图说明了块滤波器的效果,由此可见H.264/VC-1在视频压缩方面有独到的技术(MPEG4 PART2采用后期解块滤波器)



第9页:各编码详细规格对比



  在权益金方面,MPEG2由于非常成熟,所以费用收得也是最少的,趋向于无成本。这也是至今为何不少BD/HDDVD仍然采用古老的MPEG2,当然了,这和MPEG2对系统硬件要求较低也有一定关系。而MPEG4最初的授权预案中,如果电视内容的营运商要以MPEG-4格式来播放节目,则每分钟要支付0.000333美元,或者是以每年每个收视用户收取0.25美元,这无疑对MPEG4的推广造成了很大的阻力。此方案一出,Apple、On2等业内厂商立即提出异议,甚至Apple原订在QuickTime中内建MPEG-4的支持性,也因为授权异议而延缓发布日期。


  H.264的授权费用相对比较合理,因为H.264晚于MPEG-4问世,且两者定位接近,既然如此,H.264只好在授权费上降低定位,期盼以较宽厚的授权方式争取被采用,而这正是对了运营商的胃口,当初许多运营商对MPEG-4的授权深表反感,之后也都热烈拥护H.264。


  而VC-1的授权费用初使来看,和H.264不相上下。但是碍于Microsoft一贯的推行策略,VC-1的授权来源仅只一家,授权价格与方式调整,以及后续版本的改进方向,都由微软一手掌握,无人能左右,尽管现在价格比较宽松,但天知道微软哪时一个不乐意调高了价格,这也是众多运营商所最为担心的一件事。

第10页:最终用户爱好哪种编码?

  接下来就是我们最终用户最为关心编/解码所耗费的系统负担了,当然这在我们之后会有更为详细的测试。MPEG2自然是要求最为宽松的视频编码,不仅如此,拜DVD成熟多年之赐,早先以及现有的主流硬件都能多多少少提供MPEG2硬件加速的能力。MPEG4虽然到至今没有比较针对的视频加速硬件诞生,但自身比较低的硬件损耗才是原因之一。

  而H.264主要档次是要求最为苛刻的视频技术,再加上最近越来越高的码率与1080P的结合,其对硬件的损耗已经达到了新的颠峰。而基本档次则提供了一个相对折中的方法,对硬件损耗次之。VC-1还是得益于Microsoft多年来层积的功力,在略强于H.264 CALVC基本档次的画质上,而对硬件资源要求却还能再降低一些。综合来看,VC-1是最有益于最终用户的编码,它在拥有非常好的画质的同时,对硬件要求相对而言比较低。

  笔者去网上论坛瞎逛时,看到这样的一个投票,有关于是否有必要将H.264/VC-1重新编码为MPEG2的帖子,结果超过半数的人是支持态度。论画质以及压缩比,MPEG2固然不及VC1/H.264,但是其对硬件要求比较低,已经使得大多数用户放弃画质/压缩比,选择MPEG2。当然了,这仅仅是一个年初2月时的投票,现在由于新一代显卡都具备 了视频加速功能,这一情况已经得到了有效的缓解,相信在不久的将来,没有人再为解码HDTV而发愁了。下面是各视频压缩技术对独立编/解码器的频率要求,

  此表格很好的量化表示了各视频压缩技术的硬件要求在视频专用加速解码器方面,PC上最近的显卡,PUREVIDEO HD以及AVIVO HD都能支持H.264的完全解码,而VC-1方面,PUREVIDEO HD只能支持动态补偿以及DEBLOCK的解码,对于VLC流处理以及逆变换还是只能交给CPU去作。

  另外,在网上的片源,一些HDRIP(HDTV重新编码封装)的片源多数采用X264,X264是基于H.264的开源编码解码器,在具有H.264的高压缩比的同时也对硬件提出了更高的要求,不过由于其码率一般比较低,所以对系统的负担很难得以直接体现。另外有一小部分是采用MPEG4-XVID来压缩,不过XVID很难做到在保证画质,FPS以及分辨率的情况下把容量控制在1张D5的容量(4.3G)。

  最后,让我们来权衡全部因素,看一下所有HDTV主流视频加速技术的概念分析,毫无疑问,H.264以及VC-1很有可能成为以后的主流,当然了,我国自主研发的AVS也会将和H.264,VC-1同台竞技,到时候鹿死谁手,还真不好说。


2007-12-15

【转】从菜鸟出发!征服高清详细评测全攻略(一)

第1页:目录

第2页:高清发展历史与现状
第3页:高清概念初级快速入门-名词解释
第4页:永不妥协的两大蓝光阵营(上)
第5页:永不妥协的两大蓝光阵营(下)


第一页 .

  这是一个“高清”的时代,客观地说电视已渗透到数亿个中国家庭,成为社会存在的基本内容之一。甚至和衣食住行一样,成为人们不可或缺的生活要素。 电视也是第一个涉及高清的范围,也是高清主要涉及的领域。但高清的范围可远远不只是一个HDTV就能解释得清楚的,它分别包括了高清DV、高清电脑、高清投影机、高清视频、高清影碟(蓝光和HD-DVD)乃至PS3、Xbox 360等高清游戏机,或许今后我们会碰过更多关于高清的定义以及名词。


  今年,是高清发展迅猛的一年,我们不仅看见高清在传统领域里取得一定的进展,甚至触角已经伸到了PC行业。正因为现在高清播放机由于下一代蓝光存储阵营并未统一而无法得到发展,市面上少有的几个高清播放机要么是就是因为价格太高,要么就是小厂作坊DIY的产品,再加上成片片源十分稀少,现在担任高清播放器的重任只能落入PC的身上。PC由于有通用处理器CPU的原因,只要性能够强,有输入端(网络片源),有输出端(HDTV,大尺寸显示器),就可以实现一个兼职高清播放器的功能。不过高清视频并不是一个好相与的角色,尤其是1080P以及现在动则20mbps码率的片源,使得现在哪怕是最牛B的Core 2 Duo都无法胜任。一直以来,mpeg的解码工作都是由显卡来完成,当高清来时,显卡厂商又看到无限的商机,分别在自己新一代的显卡里集成了视频解码器,大大分担了CPU的负担,使之在PC上可以完全胜任HDTV播放器的工作。我们的介绍也是由此开始。请选择您所喜欢的章节,或者按照顺序一步步了解高清。


第二页.高清发展历史与现状


  客观地说,电视已渗透到数亿个中国家庭,成为社会存在的基本内容之一。甚至和衣食住行一样,成为人们不可或缺的生活要素。

  记得前几年,到处在吵作关于数字/数码电视的概念,这是最早DTV的初型。采用digital(数码)作为传输/存储的格式,而放弃传统模拟的方式,是随着PC发展起来的新技术,已经影响到了传统家电的领域。数字传输/存储的最大优势并非可以做得更清晰,存储内容更大,事实上传统模拟现有的高端技术仍然是现在数字无法超载的;而是在传输中,存储中可以做到无损--这一点可以从PC上的文件复制上看出,如果没有特殊情况,文件不论copy过多少次,都和最原始的文件是一模一样的。而模拟信号,哪怕再清晰,在采用失真小的翻录10次之后,结果也是惨不忍睹的。也就是数字信号的最大的优势,就是可以做到无失真。正是因为有无失真的基础下出现,高清才得以诞生和延续-HDTV(High Definition Television)的定义是高清晰数字电视输出技术。

  尽管高清是现在最IN的名词,可要追寻起来要到1970年。高清的发展历史也是一部“三国”史,经历了日本,欧洲以及美国的纷乱之争。日本以及欧洲尽管高清的研究得最早,但是当时的计算机发展以及周边发展还处于起步阶段,所以只能使用模拟技术。这也是他们的高清技术的致命弱点。这一状况直到美国意识到了高清技术在未来的长远战略价值,在1996年利用其自身的高科技技术和数字基础,美国FFC通过ATSC数字电视标准成为美国国家标准,1998年播出的第一个数字式HDTV节目,则代表HDTV的真正意义的诞生,也奠定美国的HDTV领头羊的地位。在美国确定了数字化的道路之后,对于日本的高清几乎是毁灭性的打击。不过所幸的是日本也意识了数字的优势,在于之后的研究方向也调转到了数字了,从此,高清标准在数字的基础下建立了.而我国全面进行高清时代是在CCTV开设高清频道为代表。

第三页 .高清概念初级快速入门-名词解释


  不过还有不少朋友对于高清的概念模糊不清,笔者在这里就简单介绍一下。HDTV(High Definition Television)是高清晰数字电视输出技术,中文简称高清,可提供相对于传统模拟电视技术更高清晰度图象质量。

  HDTV的高清晰主要表现在它支持1280×720,1920×1080,分别有720p,1080I/1080P之分。720/1080指的是分辨率1280×720与1920×1080,那I和P分别是什么意思呢?I代表interlace,隔行扫描是Progressive,逐行扫描。720P与1080I的带宽是一样的,在清晰度自然是1080I高一些,但在动态画面表现得更流畅的则是720P。而1080P则兼顾了清晰度以及动态表现的要求,也就是大家所说的FULL HD,但它也是对码率,存储空间要求最高的格式。
  说到了数字,那么我们肯定得以容量来计算,每部片的时间长短不一,大小也一样,可是如果用总容量除以时间,就得出一个可比的变量-码率。码率以及时间决定了一部片的总容量,同时码率对编/解码处理器也会提相应的要求。一般来说,码率越高,画面就越清晰锐利,也越流畅,但是对存储容量以及编/解码的要求更加苛刻。HDTV除了有码率上的不同之外,还有编码格式的不同,现在主流视频的主要有MPEG2,MPEG4,H.264(MPEG4 AVC),VC-1(AVC-1)/WMV9HD等。

  不同的格式的压缩比以及表现都有各有差别,我们下面会有专门的介绍,如今网上常见的就仅有三个,MPEG2,H.264,VC-1。音频编码格式主要是AC3、DTS和EAC3,最近AAC有异军突起的意思。由于现在不少片源都是源自于网上下载,这些片源一般都是重新封装的过的,其目的是为了更好的存储以及传输,再加上许多厂商极立推广自己的封装格式,现在网上有非常多的封装格式,如AVI, TS,MKV,这些封装格式就是容器,而视频编码和音频编码就相当是于是菜和饭,如何装下这些饭菜,用的碗和锅也有一定要求。这在下面我们会有专门介绍。说完了高清的软件/规格部分,我们来介绍一下硬件部分。

  从DVD+/-W格式开始,两大阵营就打得不可开交,最后也没有谁能征服谁,于是战火就延续到了蓝光标准之争。为何要叫蓝光,新一代光盘属于蓝光光盘的范畴,其核心技术,取代DVD红色激光存储技术的蓝色激光,从而实现更高的容量。Blu-Ray Disk是蓝光盘,是DVD的下一代的标准之一,主导者为索尼与东芝,以索尼、松下、飞利浦为核心,又得到先锋、日立、三星、LG等巨头的鼎力支持。存储原理为沟槽记录方式,采用传统的沟槽进行记录,然而通过更加先进的抖颤寻址实现了对更大容量的存储与数据管理,目前已经达到惊世骇俗的100GB。与传统的CD或是DVD存储形式相比,BD光盘显然带来更好的反射率与存储密度,这是其实现容量突破的关键。 与蓝光相对的是HD-DVD阵营,原本东芝已经加入蓝光阵营,然而利益的分配以及相关技术特性诱使东芝断然退出该组织,转而联合NEC开发Advanced Optical Disk,并且得到DVD-Forum的鼎力支持,改名为HD DVD。由于蓝光DVD和当前的DVD格式不兼容,直接加大了厂商过渡到蓝光DVD生产环境的成本投入,因此大大延迟了蓝光成为下一代DVD标准的进程。不过另外一位DVD论坛的主要成员东芝则带来了一款和蓝光完全不兼容的新技术AOD(Advanced Optical Disk)光盘。 由东芝和NEC联合推出的AOD技术相比于蓝色激光最大的优势就在于能够兼容当前的DVD,并且在生产难度方面也要比蓝光DVD的生产难度低得多。

  HDMI:HDMI的英文全称是“High Definition Multimedia”,中文的意思是高清晰度多媒体接口。HDMI接口可以提供高达5Gbps的数据传输带宽,可以传送无压缩的音频信号及高分辨率视频信号。同时无需在信号传送前进行数/模或者模/数转换,可以保证最高质量的影音信号传送。HDMI在针脚上和DVI兼容,只是采用了不同的封装,但其结构仍然有许多不同之处

  HDCP的全称是High-bandwidth Digital Content Protection,也就是“高带宽数字内容保护”。简单的说,HDCP就是要将通过DVI接口传递的数字信号进行加密,多媒体内容的发出端(电脑、DVD、机顶盒等)与接受端(显示器、电视机、投影机等)之间加上一道保护。这样一层保护主要并不是用来防止通过数字信号进行不合法的复制,而是将数字信号内容进行加密,使得不合法的复制无法无法得到准确的内容、满意的效果。 HDMI和DVI都可以拥有HDCP功能,当然这取决于发送端和接收端的设备。
 


第四页. 永不妥协的两大蓝光阵营(上)

  我们现在所使用的主流光存储DVD早在1996年就确立了标准。DVD-VIDEO的影片分辨率为720x480(NTSC制式)或720x576(PAL制式),属于标清视频(Standard-Definition,SD,标准清晰度)几年前看来或许画质很好,但时代已经变了,现在是高清晰视频(High-Definition,HD,标准清晰度)和大屏幕电视的时代,一旦领教过高清晰影视的效果,没有人会再对标清视频感到满意。

  现在DVD的尴尬处境几乎就像当年的CD,如左图所示,我们可以看出存储媒体的容量、视频流数据量和视频存储时间三者的关系。单面单层DVD的容量上限接近5GB,从VHS视频、低清晰度视频到标准清晰度视频,DVD碟片可以存储的视频时间从7小时,下降到2小时左右(一般DVD影片多在4Mbps-6Mbps),再下降到了1小时(标准清晰度视频的最高规格),而如果用来存储20Mbps-30Mbps的高清晰视频,DVD碟片只能存下约20-30分钟,加上DVD过慢的传输速度,如此一来,DVD已经显现出落伍的态势了。




  而新一代光磁存储体的需求日益增加,电影行业 首当其冲,电影行业对下一代光磁存储体提出了以下要求。
  
  1、民用规格和个人电脑规格必须统一,
  2、必须具备完善的著作权保护技术,
  3、必须拥有足够的容量,制造成本必须控制在与现有DVD相同的水平。不得使用专用盘盒。
  4、能实现高画质,分辨率应达到1920×1080,具备多种长宽比等功能。
  5、可实现多声道音频等功能。
  6、可播放DVD影碟及以前的标准音频格式。
  7、具有与互联网的协作功能。可实现对话型操作。
  8、可与现行DVD共用创作工具。
  9、确保可靠性,如确保同一规格光盘的播放兼容性。


  新一代光磁存储体产生了两位候选人,也就是HD-DVD和BLU-RAY DISC。HD-DVD阵营以东芝为首,包括微软、NEC、三洋、英特尔等厂商和环球影业等电影公司,BLU-RAY DISC阵营以索尼和松下为首,包括先锋、飞利浦、苹果、三菱、三星、夏普、先锋、LG等厂商和福克斯、沃尔特迪斯尼等电影公司。BLU-RAY DISC使用了波长更短的蓝色激光(Blue laser,或Blue Ray),这也是其名称“蓝光”的由来,BLU-RAY使用的蓝色激光波长为405nm,大大减少了凹槽长度和道间距,从而能够记录下比DVD更多出数倍的数据。HD-DVD同样使用了波长为405nm的蓝色激光,但是,HD-DVD的道间距为0.40μm,大于BLU-RAY DISC的0.32μm,因此同样情况下HD-DVD记录的数据容量便不及BLU-RAY DISC多,同为单面单层盘片的情况下,一张蓝光光盘容量为25GB,而一张HD-DVD光盘容量为15GB。



第5页:永不妥协的两大蓝光阵营(下)
  蓝光光盘的物理规格和CD/DVD光盘几乎完全相同,直径仍然和CD、DVD同样为120mm,厚度也同样是1.2mm,中央圆孔等其它数据也完全相同。目前已公布单面单层、单面双层两种规格。单面单层蓝光光盘的容量为25GB(实际上是有23.3GB、25GB、27GB三种),单面双层蓝光光盘的容量为50GB。速度方面,BLU-RAY DISC的1倍速读取和写入速度均定义为36MB/s,目前已经有4倍速的可写入式蓝光驱动器,说其读取和写入速度高达144 MB/s,如此高的速度,才能满足即时播放高清晰视频和玩高清晰游戏的要求,相比之下,CD-ROM的1倍速为150KB/s,52X CD-ROM速度仅为7.62MB/s,DVD-ROM的1倍速为1.32MB/s,16X DVD-ROM速度仅为21.12MB/s,面对高清晰视频可以说是先天不足。BLU-RAY DISC有着雄心勃勃的计划,单面4层和单面8层的蓝光光盘及相应的驱动器已在开发之中,单面4层的蓝光光盘容量将达到100GB,而单面8层的蓝光光盘容量更是可以达到200GB。BLU-RAY DISC的速度未来也会提升到6X,以及更高。
  目前HD-DVD光盘可以分为三大类,一类是HD-DVD规格,包括:单面单层和单面双层的3X DVD-ROM,这种实际上是改良的DVD光盘,顾名思义,它是DVD的“三倍增强版”,其容量和DVD-ROM同样,有一种单面单层的容量是4.7GB,另有一种单面双层的容量是8.5GB,其它三种可以看作是全新的HD-DVD,包括单面单层的HD15,容量为15GB,单面双层的HD30,容量为30GB,单面三层的HD45,容量为45GB,这些HD-DVD的命名规则也和DVD如出一辙。另一类是HD-DVD和SD-DVD混合规格,一种是单层HD-DVD+单层SD-DVD,光盘为双面,容量为15GB+4.7GB=19.7GB,一种是单层HD-DVD+双层SD-DVD,光盘为双面,容量为15GB+8.5GB=23.5GB,一种是双层HD-DVD+单层SD-DVD,光盘为双面,容量为30GB+4.7GB=34.7GB,一种是双层HD-DVD+双层SD-DVD,光盘为双面,容量为30GB+8.5GB=38.5GB。最后一类是HD-DVD和SD-DVD双规格,目前只有一种单面单层的,是在单面单层盘片上一层是HD-DVD,一层是SD-DVD,容量是15GB+4.7GB=19.7GB。更高容量、更多层数的HD-DVD目前也在开发中,预计单层容量也可以达到20GB或更高
  目前看来,BD占有影业支持、影片发行量等方面的优势,以及PS3带来的软件发行优势,技术和技术储备上较之HDDVD也更加先进。
  HDDVD则占有生产线配置、硬件设备成本、复制成本、软硬件综合成本等方面的优势。所以现在看来BD占上风,但BD和HDDVD尚未进入大量普及阶段,目前二者的软硬件销量可以说都是非常低,要成为主流还需要比较长的时间,因此现在短期内还不能确定其成败。谁能首先把播放器价格下降到突破消费者心理线,以及争取到更多内容提供商的支持,将是最重要胜负的关键。这两大标准谁优谁劣很难用两三句说清,尽管有两个竞争的阵营带来技术的更新以及价格降低,但是对于最终用户而言,繁杂的标准使得兼容更难以实现,以现在的形势来看,有可能最终用户会可能根据自己的需求为不同的阵营买一到两份单。






2007-12-08

IBM用光信号连接CPU的多核心

  IBM目前正在研究一项新的技术,据称这项技术将能够让一颗处理器中的多个核心使用光信号相连接,而不是传统的电信号。
  该装置被称之为硅Mach-Zehnder型电光调制器,把电信号转换为脉冲光信号。这项技术的技术重点是,IBM的电光调制器比当今其他实验室使用的调制器小100倍。IBM最终的目标是把这个调制器整合至芯片当中。
  以下的图片解释了这个电光调制器的工作原理。黄色小点代表电脉冲,当电脉冲到达调制器之后,该调制器会不断的放出光脉冲以对应电脉冲。



  上个世纪90年代初,数家公司曾聚集在一起拿出自己的技术,以实现将电信号转换为光信号的过程。这些公司包括,Intel、Primarion、Luxtera、IBM。事实上当初这样做的目的是为了解决电子信号的热辐射问题。(目前有关这方面的研究称之为硅光子学与光电子学)
何时把装备了光电子电路的芯片推向市场仍是一个悬而未决的问题。但是目前的这些原型产品表明,这项研究正在朝向良好的方向发展。


2007-11-24

科学与信仰

点击查看清晰图片....

人类在谷歌搜索中扮演的角色

  哈哈,这篇写于2007年6月的文章中的内容包含了不少有趣的新动向,我部分赞同原作者的观点,也希望自己的多年之后还能再看到这篇文章!
发表者:GoogleChinaBlog翻译自 Matt Cutts 个人博客

Randy Stross 为纽约时报写了一个有趣的文章,从人文的角度谈论搜索的问题,而我今天也想要谈谈人(或者说人工或人类)在谷歌搜索中所扮演的角色。

关于这篇博客,你将看到的不是一条免责声明,而是两个。哈哈!免责声明读一赠一。我的免责声明是:
— 这个帖子上完全是我个人的观点(这是我原来一贯的免责条款)
— 我真的十分缺乏睡眠。我上周末去了 Foo Camp,这是我第一去那里,因此我熬通晓直到昨天早上 4 点,和别人交谈,而且发现狼人游戏像毒品一样容易上瘾。言归正传,让我们从一个问题开始。(哈哈!这是赠送的。)

搜索的未来是什么?

我见过一些显而易见的答案。举例来说,谷歌将会继续在搜索的国际化方面加倍努力,力求在日文、德文、阿拉伯文或挪威文搜索上做得像英语一样好。但是,长期目标呢?未来的搜索 -

— 个性化?
— 全新的用户界面?
— 能够从语义角度上理解询问或文件?
— 社会化搜索?(我把它定义为"通过人的力量来改良搜索")
— 整合搜索?(引进非html来源的文件如图像、视频、专利等等)
— 一个上述所有特征的组合,抑或是一种完全不同东西?

谷歌花费了许多时间思考搜索的未来,当然其他人也在思考这个问题。让我们从这样一个领域 ,即社会化搜索入手,进行一番深入的探究吧。

社会化搜索:人的能量如果你向一个普通技术人员询问有关谷歌的问题,他会告诉你,我们使用大量的计算机和算法语言。的确,纽约时报文章的标题就是《人类的介入有可能撬开谷歌的铁钳》。但是(请注意,这是我个人之见),把谷歌单纯当作冷冰冰的算法语言和计算机而没有人类的空间,这是不对的。下面,我举几个例子,证明过去很多年来人在谷歌内部所扮演的角色:

— 网页排名在实质上是与人们在网上建立的超级链接有关。创造链接的那些人也帮助谷歌形成关于网页重要程度的看法;
— 谷歌资讯考察各式各样的新闻来源;数以千计新闻站点的编辑人员所做出的决定恰恰帮助谷歌评估特定新闻故事是否重要;
— 早在 2001 年,谷歌就在工具条上引进了投票按钮。它们看起来像快乐或愁苦的小脸,让普通人将赞成或反对的选票发送给谷歌;
— 谷歌已经允许用户从谷歌提供的结果中删除他们不喜欢的部分;
— 五年多时间里,我们允许用户向谷歌举报作弊网站。几年来我们一直在说,谷歌保留对作弊网站采取人工干预的权力。(举例来说,如果某人输入了自己的姓名,却得到了离题万里的色情结果)

当然,谷歌搜索工程师也不是每天早晨来到谷歌后,整天坐在那里什么事情也不干,而把一切都交给计算机代劳。相反,谷歌研究员和工程师花费整天的时间希望能够获取更加深刻的观察,以指引我们创造下一代搜索。我相信,谷歌搜索的工作方式向来是实用主义的:如果某种方式能改善我们的搜索质量,我们一定会虚心接纳。

我听到你说:"但是 Matt,你现在这么说,难道不是因为 Sproose、Mahalo、iRazoo、Bessed 等人力搜索公司最近见诸报端了吗?"实际上,并非如此。我想,我谈论类似的事物已经有很长一段时间。举例来说,我去年接受了 John Battelle 的一次专访(请加链接),你可以通篇阅读我关于人在搜索中所扮演角色的思考(十分冗长),也可以在这里读几段我曾经说过的话:

我认为,谷歌应该对几乎任何能够改善搜索质量的方式敞开胸怀。让我们跃上 50,000 英尺的高空俯瞰。当聪明人思考谷歌时,他们想的是算法语言,而算法语言的确是谷歌的一个重要组成部份。但算法语言并不是魔法;它们不能像雅典娜从宙斯的脑袋里蹦出来那样在计算机上自动生成。算法语言是由人编写的。人们必须确定算法语言的起点和输入的信息。而且通常情况下,那些信息输入在某些方面也是以人类的贡献为基础的。

因此我认为太多人过分强调"谷歌的算法"这一事实。所谓"一叶障目,不见森林"。在我看来,谷歌追求所有可扩展的有力方法,即便这些方法需要人工干预。使用来自人工劳动的贡献本身并没有什么与生俱来的错误 - 必须记住,这样的数据也是有局限性的。

我相信,自从PageRank发明以后,谷歌已经开始考虑该如何以各种不同方式释放人的能量了。我有资格这样说,因为 5 年多以前,我是如此重视运用社会反馈,以致于亲自编写了有关谷歌工具条投票按钮的 Windows 代码。

2007 年 6 月 26 日更新:尽管这篇博客是我的个人见解,但我从谷歌的其他同事处证实,谷歌的确正打算利用人们的反馈来改善搜索质量。在最近的欧洲媒体日活动上,一名来自《卫报》的记者向 Marissa Mayer 提出了这个话题:

Marissa 说:随着互联网的发展,搜索的需要也在增长。起先,雅虎等网站以目录形式手工罗列网站。现在,既然网络充斥着各种信息,是否又出现了人工干预的必要呢?我是指上周新闻报道中提到的 Mahalo.com 人力搜索引擎。

我预期她会说"不",但她没有。

"眼下网络是如此之大,污染如此之严重,的确需要更加复杂的方法才能对它进行搜索了,"她说。

"直到今天,我们还在依赖自动化,但是我相信未来将会两者共用,梳理自动化和人工智能之间的关系。"

这是其中一个例证。 另一个例证来自 Jason Calacanis,他详细记录了在Foo Camp 的一次会议,碰巧 Larry Page 也参加了:

Larry 说,搜索就是发现内容…,而维基百科发现了一个更好的方法来组织信息。他似乎很喜欢这种同时使用人力、流程和机器的模型。

所以这是另一项证据,表明谷歌正敞开胸怀,寻求可扩展的方法来利用人的力量。

原文链接:
http://www.mattcutts.com/blog/the-role-of-humans-in-google-search/

AltaVista: A brief history of the AltaVista search engine

AltaVista, which means "a view from above", was one of the first search engines to achieve major success in the late 1990's. Unfortunately it lost significant market share from its peak years now remains a minor search engine using search index results from Yahoo.

In the spring of 1995, scientists at Digital Equipment Corporation's Research lab in Palo Alto, CA, introduced a new computer system - the Alpha 8400 TurboLaser - which was capable of running database software much faster than competing systems. Using this powerful tool, they devised a way to store every word of every page on the entire Internet in a fast, searchable index.

In order to showcase this technology, a team led by Louis Monier, who was a computer scientist with DEC's Western Research Lab, conceived a full text search engine of the entire web. By August 1995 the new search engine conducted its first full scale crawl of the web, which bought back about ten million pages. In the autumn, DEC decided to move AltaVista beyond the labs and offer it as a public service on the web, to highlight DEC's internet businesses. The company tested the search engine internally for two months, allowing 10,000 employees to put the system through its paces.

On December 15th, 1995, less than six months after the start of the project, AltaVista opened to the public, with an index of 16 million documents. It was an immediate success, with more than 300,000 searchers using the engine on its first day. By the end of 1996 AltaVista was handling 19 million requests per day. AltaVista quickly became a favorite of both casual searchers and information professionals.

It became one of the leading search tools on the web, but started to go into decline with the advent of Google and also changes in the business direction of its owning company. Compaq acquired DEC at the start of 1998 for $9.6 billion and a year later, spun off the search engine as The AltaVista Company, when it was intended to go public during the dot com boom. However, in June 1999, CMGI - an Internet investment company who at the time owned 20% of Lycos - agreed to acquire 83 percent of AltaVista.

AltaVista underwent a relaunch at the end of 2002 and offered a range of search functionality, including image and multimedia search options, plus Babel Fish, the web's first Internet machine translation service that can translate words, phrases or entire Web sites to and from English, Spanish, French, German, Portuguese, Italian and Russian.

In a surprise move, Overture purchased AltaVista in February 2003 for a knockdown price of $140m, compared to its valuation of $2.3bn three years previously. Consequently, when Yahoo purchased Overture at the end of 2003, AltaVista was part of the package and, sadly, is now just a clone of Yahoo, using the same search index and very basic, large font, interface.

谈 Page Rank – Google 的民主表决式网页排名技术

转自GoogleChinaBlog  发表者: 吴军, Google 工程师

  大家可能听说过,Google 革命性的发明是它名为 “Page Rank” 的网页排名算法,这项技术彻底解决了搜索结果排序的问题。其实最先试图给互联网上的众多网站排序的并不是 Google。Yahoo!公司最初第一个用目录分类的方式让用户通过互联网检索信息,但由于当时计算机容量和速度的限制,当时的 Yahoo!和同时代的其它搜索引擎都存在一个共同的问题: 收录的网页太少,而且只能对网页中常见内容相关的实际用词进行索引。那时,用户很难找到很相关信息。我记得 1999 年以前查找一篇论文,要换好几个搜索引擎。后来 DEC 公司开发了AltaVista 搜索引擎,只用一台 ALPHA 服务器,却收录了比以往引擎都多的网页,而且对里面的每个词进行索引。AltaVista 虽然让用户搜索到大量结果,但大部分结果却与查询不太相关,有时找想看的网页需要翻好几页。所以最初的 AltaVista 在一定程度上解决了覆盖率的问题,但不能很好地对结果进行排序。
  Google 的 “Page Rank” (网页排名)是怎么回事呢?其实简单说就是民主表决。打个比方,假如我们要找李开复博士,有一百个人举手说自己是李开复。那么谁是真的呢?也许有好几个真的,但即使如此谁又是大家真正想找的呢?:-) 如果大家都说在 Google 公司的那个是真的,那么他就是真的。
  在互联网上,如果一个网页被很多其它网页所链接,说明它受到普遍的承认和信赖,那么它的排名就高。这就是 Page Rank 的核心思想。 当然 Google 的 Page Rank 算法实际上要复杂得多。比如说,对来自不同网页的链接对待不同,本身网页排名高的链接更可靠,于是给这些链接予较大的权重。Page Rank 考虑了这个因素,可是现在问题又来了,计算搜索结果的网页排名过程中需要用到网页本身的排名,这不成了先有鸡还是先有蛋的问题了吗?
  Google 的两个创始人拉里•佩奇 (Larry Page )和谢尔盖•布林 (Sergey Brin) 把这个问题变成了一个二维矩阵相乘的问题,并且用迭代的方法解决了这个问题。他们先假定所有网页的排名是相同的,并且根据这个初始值,算出各个网页的第一次迭代排名,然后再根据第一次迭代排名算出第二次的排名。他们两人从理论上证明了不论初始值如何选取,这种算法都保证了网页排名的估计值能收敛到他们的真实值。值得一提的事,这种算法是完全没有任何人工干预的。
  理论问题解决了,又遇到实际问题。因为互联网上网页的数量是巨大的,上面提到的二维矩阵从理论上讲有网页数目平方之多个元素。如果我们假定有十亿个网页,那么这个矩阵 就有一百亿亿个元素。这样大的矩阵相乘,计算量是非常大的。拉里和谢尔盖两人利用稀疏矩阵计算的技巧,大大的简化了计算量,并实现了这个网页排名算法。今天 Google 的工程师把这个算法移植到并行的计算机中,进一步缩短了计算时间,使网页更新的周期比以前短了许多。
  我来 Google 后,拉里 (Larry) 在和我们几个新员工座谈时,讲起他当年和谢尔盖(Sergey) 是怎么想到网页排名算法的。他说:"当时我们觉得整个互联网就像一张大的图 (Graph),每个网站就像一个节点,而每个网页的链接就像一个弧。我想,互联网可以用一个图或者矩阵描述,我也许可以用这个发现做个博士论文。" 他和谢尔盖就这样发明了 Page Rank 的算法。
  网页排名的高明之处在于它把整个互联网当作了一个整体对待。它无意识中符合了系统论的观点。相比之下,以前的信息检索大多把每一个网页当作独立的个体对待,很多人当初只注意了网页内容和查询语句的相关性,忽略了网页之间的关系。
  今天,Google 搜索引擎比最初复杂、完善了许多。但是网页排名在 Google 所有算法中依然是至关重要的。在学术界, 这个算法被公认为是文献检索中最大的贡献之一,并且被很多大学引入了信息检索课程 (Information Retrieval) 的教程。

How to rip a DVD: A Tutorial

Posted in Computers & Technology, Movies, Law, P2P by Elliott Back on December 26th, 2005. I change the Step 2 in case of it's more suit to our perpose what's to rip chapter from our disk.


Ripping a DVD to xvid or divx avi is really quite easy, if you have the right tools. You’ll first need to download DVD decrypter and auto gordian knot (autogk). DVD decrypter allows you to rip the raw DVD video and audio data off of your disk drive, decrypt the CSS protection, and finally remove any other protection schemes, such as Macrovision. AutoGK is a package of codecs and a GUI interface that will take the raw DVD data through an AV processing pipeline to produce a single windows video file.

Step 1: RIP

Put in a DVD and launch DVD Decrypter. Choose IFO (Information File) mode:

Now make sure you’ve selected a destination for your files:

Now you need to find which program chain to rip (PGC). Pick the one that’s the longest, or in the case of a TV dvd, the episode you want to rip:

Everything’s set up. Just click the green arrow and wait about twenty minutes, after which you will have a set of files which look like this:

VTS_01_0.IFO
VTS_01_PGC_07 - Stream Information.txt
VTS_01_PGC_07_1.VOB

The whole ripping process shouldn’t take more than 5 minutes.




Step 2: ENCODE

I rewrite this step on my own way in case of it can more suit our perpose.If you want to read the original contents.Please browse the author's blog:Elliott C. Back

It's convenient to change the chapter into another format.

I use WinAVI 8.0 to change it into an Avi file which is encode by Xvid MPEG-4 Codec,My perpose is to change a MTV into a 320*240 movie file in case of my cellphone can play it well.You know,I can'tse a computer in my dorm.

By the way.I found it's also have a good looked quility on 320/240 even if your file with only 110Kbps.

So let's begin,Open the WinAVI 8.0.and you'll find a friendly Window click the avi bottom,then select your file.

In the detail setting window you can use some default setting to change your movies.

but we need some special setting,click the Advance bottom you can see some detail setting .Just select what you need. and then ,start change!

Step 3: WATCH

You’re done. Delete all the non .avi files and enjoy the fruits of your ripping.

2007-11-15

Distributed Computing: An Introduction

By Leon Erlanger
Original Link:http://www.extremetech.com/article2/0%2C1697%2C11769%2C00.asp

You can define distributed computing many different ways. Various vendors have created and marketed distributed computing systems for years, and have developed numerous initiatives and architectures to permit distributed processing of data and objects across a network of connected systems.

One flavor of distributed computing has received a lot of attention lately, and it will be a primary focus of this story--an environment where you can harness idle CPU cycles and storage space of tens, hundreds, or thousands of networked systems to work together on a particularly processing-intensive problem. The growth of such processing models has been limited, however, due to a lack of compelling applications and by bandwidth bottlenecks, combined with significant security, management, and standardization challenges. But the last year has seen a new interest in the idea as the technology has ridden the coattails of the peer-to-peer craze started by Napster. A number of new vendors have appeared to take advantage of the nascent market; including heavy hitters like Intel, Microsoft, Sun, and Compaq that have validated the importance of the concept. Also, an innovative worldwide distributed computing project whose goal is to find intelligent life in the universe--SETI@Home--has captured the imaginations, and desktop processing cycles of millions of users and desktops.

Increasing desktop CPU power and communications bandwidth have also helped to make distributed computing a more practical idea. The numbers of real applications are still somewhat limited, and the challenges--particularly standardization--are still significant. But there's a new energy in the market, as well as some actual paying customers, so it's about time to take a look at where distributed processing fits and how it works.




Distributed vs Grid Computing

There are actually two similar trends moving in tandem--distributed computing and grid computing. Depending on how you look at the market, the two either overlap, or distributed computing is a subset of grid computing. Grid Computing got its name because it strives for an ideal scenario in which the CPU cycles and storage of millions of systems across a worldwide network function as a flexible, readily accessible pool that could be harnessed by anyone who needs it, similar to the way power companies and their users share the electrical grid.

Sun defines a computational grid as "a hardware and software infrastructure that provides dependable, consistent, pervasive, and inexpensive access to computational capabilities." Grid computing can encompass desktop PCs, but more often than not its focus is on more powerful workstations, servers, and even mainframes and supercomputers working on problems involving huge datasets that can run for days. And grid computing leans more to dedicated systems, than systems primarily used for other tasks.

Large-scale distributed computing of the variety we are covering usually refers to a similar concept, but is more geared to pooling the resources of hundreds or thousands of networked end-user PCs, which individually are more limited in their memory and processing power, and whose primary purpose is not distributed computing, but rather serving their user. As we mentioned above, there are various levels and types of distributed computing architectures, and both Grid and distributed computing don't have to be implemented on a massive scale. They can be limited to CPUs among a group of users, a department, several departments inside a corporate firewall, or a few trusted partners across the firewall.

How It Works

In most cases today, a distributed computing architecture consists of very lightweight software agents installed on a number of client systems, and one or more dedicated distributed computing management servers. There may also be requesting clients with software that allows them to submit jobs along with lists of their required resources.

An agent running on a processing client detects when the system is idle, notifies the management server that the system is available for processing, and usually requests an application package. The client then receives an application package from the server and runs the software when it has spare CPU cycles, and sends the results back to the server. The application may run as a screen saver, or simply in the background, without impacting normal use of the computer. If the user of the client system needs to run his own applications at any time, control is immediately returned, and processing of the distributed application package ends. This must be essentially instantaneous, as any delay in returning control will probably be unacceptable to the user.


Distributed Computing Management Server
The servers have several roles. They take distributed computing requests and divide their large processing tasks into smaller tasks that can run on individual desktop systems (though sometimes this is done by a requesting system). They send application packages and some client management software to the idle client machines that request them. They monitor the status of the jobs being run by the clients. After the client machines run those packages, they assemble the results sent back by the client and structure them for presentation, usually with the help of a database.

If the server doesn't hear from a processing client for a certain period of time, possibly because the user has disconnected his system and gone on a business trip, or simply because he's using his system heavily for long periods, it may send the same application package to another idle system. Alternatively, it may have already sent out the package to several systems at once, assuming that one or more sets of results will be returned quickly. The server is also likely to manage any security, policy, or other management functions as necessary, including handling dialup users whose connections and IP addresses are inconsistent.

Obviously the complexity of a distributed computing architecture increases with the size and type of environment. A larger environment that includes multiple departments, partners, or participants across the Web requires complex resource identification, policy management, authentication, encryption, and secure sandboxing functionality. Resource identification is necessary to define the level of processing power, memory, and storage each system can contribute.

Policy management is used to varying degrees in different types of distributed computing environments. Administrators or others with rights can define which jobs and users get access to which systems, and who gets priority in various situations based on rank, deadlines, and the perceived importance of each project. Obviously, robust authentication, encryption, and sandboxing are necessary to prevent unauthorized access to systems and data within distributed systems that are meant to be inaccessible.

If you take the ideal of a distributed worldwide grid to the extreme, it requires standards and protocols for dynamic discovery and interaction of resources in diverse network environments and among different distributed computing architectures. Most distributed computing solutions also include toolkits, libraries, and API's for porting third party applications to work with their platform, or for creating distributed computing applications from scratch.







What About Peer-to-Peer Features?







Though distributed computing has recently been subsumed by the peer-to-peer craze, the structure described above is not really one of peer-to-peer communication, as the clients don't necessarily talk to each other. Current vendors of distributed computing solutions include Entropia, Data Synapse, Sun, Parabon, Avaki, and United Devices. Sun's open source GridEngine platform is more geared to larger systems, while the others are focusing on PCs, with Data Synapse somewhere in the middle. In the case of the http://setiathome.ssl.berkeley.edu/ project, Entropia, and most other vendors, the structure is a typical hub and spoke with the server at the hub. Data is delivered back to the server by each client as a batch job. In the case of DataSynapse's LiveCluster, however, client PCs can work in parallel with other client PCs and share results with each other in 20ms long bursts. The advantage of LiveCluster's architecture is that applications can be divided into tasks that have mutual dependencies and require interprocess communications, while those running on Entropia cannot. But while Entropia and other platforms can work very well across an Internet of modem connected PCs, DataSynapse's LiveCluster makes more sense on a corporate network or among broadband users across the Net.

The Poor Man's Supercomputer
The advantages of this type of architecture for the right kinds of applications are impressive. The most obvious is the ability to provide access to supercomputer level processing power or better for a fraction of the cost of a typical supercomputer.
SETI@Home's Web site FAQ points out that the most powerful computer, IBM's ASCI White, is rated at 12 TeraFLOPS and costs $110 million, while SETI@home currently gets about 15 TeraFLOPs and has cost about $500K so far. Further savings comes from the fact that distributed computing doesn't require all the pricey electrical power, environmental controls, and extra infrastructure that a supercomputer requires. And while supercomputing applications are written in specialized languages like mpC, distributed applications can be written in C, C++, etc.
The performance improvement over typical enterprise servers for appropriate applications can be phenomenal. In a case study that Intel did of a commercial and retail banking organization running Data Synapse's LiveCluster platform, computation time for a series of complex interest rate swap modeling tasks was reduced from 15 hours on a dedicated cluster of four workstations to 30 minutes on a grid of around 100 desktop computers. Processing 200 trades on a dedicated system took 44 minutes, but only 33 seconds on a grid of 100 PCs. According to the company using the technology, the performance improvement running various simulations allowed them to react much more swiftly to market fluctuations (but we have to wonder if that's a good thing…).




Scalability is also a great advantage of distributed computing. Though they provide massive processing power, super computers are typically not very scalable once they're installed. A distributed computing installation is infinitely scalable--simply add more systems to the environment. In a corporate distributed computing setting, systems might be added within or beyond the corporate firewall.
A byproduct of distributed computing is more efficient use of existing system resources. Estimates by various analysts have indicated that up to 90 percent of the CPU cycles on a company's client systems are not used. Even servers and other systems spread across multiple departments are typically used inefficiently, with some applications starved for server power while elsewhere in the organization server power is grossly underutilized. And server and workstation obsolescence can be staved off considerably longer by allocating certain applications to a grid of client machines or servers. This leads to the inevitable Total Cost of Ownership, Total Benefit of Ownership, and ROI discussions. Another byproduct, instead of throwing away obsolete desktop PCs and servers, an organization can dedicate them to distributed computing tasks.

Distributed Computing Application Characteristics

Obviously not all applications are suitable for distributed computing. The closer an application gets to running in real time, the less appropriate it is. Even processing tasks that normally take an hour are two may not derive much benefit if the communications among distributed systems and the constantly changing availability of processing clients becomes a bottleneck. Instead you should think in terms of tasks that take hours, days, weeks, and months. Generally the most appropriate applications, according to Entropia, consist of "loosely coupled, non-sequential tasks in batch processes with a high compute-to-data ratio." The high compute to data ratio goes hand-in-hand with a high compute-to-communications ratio, as you don't want to bog down the network by sending large amounts of data to each client, though in some cases you can do so during off hours. Programs with large databases that can be easily parsed for distribution are very appropriate.

Clearly, any application with individual tasks that need access to huge data sets will be more appropriate for larger systems than individual PCs. If terabytes of data are involved, a supercomputer makes sense as communications can take place across the system's very high speed backplane without bogging down the network. Server and other dedicated system clusters will be more appropriate for other slightly less data intensive applications. For a distributed application using numerous PCs, the required data should fit very comfortably in the PC's memory, with lots of room to spare.


Taking this further, United Devices recommends that the application should have the capability to fully exploit "coarse-grained parallelism," meaning it should be possible to partition the application into independent tasks or processes that can be computed concurrently. For most solutions there should not be any need for communication between the tasks except at task boundaries, though Data Synapse allows some interprocess communications. The tasks and small blocks of data should be such that they can be processed effectively on a modern PC and report results that, when combined with other PC's results, produce coherent output. And the individual tasks should be small enough to produce a result on these systems within a few hours to a few days.

Types of Distributed Computing Applications
Beyond the very popular poster child SETI@Home application, the following scenarios are examples of other types of application tasks that can be set up to take advantage of distributed computing.
A query search against a huge database that can be split across lots of desktops, with the submitted query running concurrently against each fragment on each desktop.
Complex modeling and simulation techniques that increase the accuracy of results by increasing the number of random trials would also be appropriate, as trials could be run concurrently on many desktops, and combined to achieve greater statistical significance (this is a common method used in various types of financial risk analysis).
Exhaustive search techniques that require searching through a huge number of results to find solutions to a problem also make sense. Drug screening is a prime example.
Many of today's vendors, particularly Entropia and United Devices, are aiming squarely at the life sciences market, which has a sudden need for massive computing power. As a result of sequencing the human genome, the number of identifiable biological targets for today's drugs is expected to increase from about 500 to about 10,000. Pharmaceutical firms have repositories of millions of different molecules and compounds, some of which may have characteristics that make them appropriate for inhibiting newly found proteins. The process of matching all these "ligands" to their appropriate targets is an ideal task for distributed computing, and the quicker it's done, the quicker and greater the benefits will be. Another related application is the recent trend of generating new types of drugs solely on computers.
Complex financial modeling, weather forecasting, and geophysical exploration are on the radar screens of these vendors, as well as car crash and other complex simulations.
To enhance their public relations efforts and demonstrate the effectiveness of their platforms, most of the distributed computing vendors have set up philanthropic computing projects that recruit CPU cycles across the Internet. Parabon's Compute-Against-Cancer harnesses an army of systems to track patient responses to chemotherapy, while Entropia's FightAidsAtHome project evaluates prospective targets for drug discovery. And of course, the SETI@home project has attracted millions of PCs to work on analyzing data from the Arecibo radio telescope for signatures that indicate extraterrestrial intelligence. There are also higher end grid projects, including those run by the US National Science Foundation, NASA, and as well as the European Data Grid, Particle Physics Data Grid, the Network for Earthquake Simulation Grid, and Grid Physics Network that plan to aid their research communities. And IBM has announced that it will help to create a life sciences grid in North Carolina to be used for genomic research.



Porting Applications
The major distributed computing platforms generally have two methods of porting applications, depending on the level of integration needed by the user, and whether the user has access to the source code of the application that needs to be distributed. Most of the vendors have software development kits (SDK's) that can be used to wrap existing applications with their platform without cracking the existing .exe file. The only other task is determining the complexity of pre- and post-processing functions. Entropia in particular boasts that it offers "binary integration," which can integrate applications into the platform without the user having to access the source code.
Other vendors, including Data Synapse, and United Devices, however offer API's of varying complexity that require access to the source code, but provide tight integration and access by the application to the all the security, management, and other features of the platforms. Most of these vendors offer several libraries of proven distributed computing paradigms. Data Synapse comes with C++ and Java software developer kit support. United Devices uses a POSIX compliant C/C++ API. Integrating the application can take anywhere from half a day to months depending on how much optimization is needed. Some vendors also allow access to their own in-house grids for testing by application developers.







Companies and Organizations to Watch

Avaki Corporation
Cambridge, MA Corporate Headquarters
One Memorial Drive
Cambridge, MA 02142
617-374-2500
http://www.avaki.com/
Makes Avaki 2.0, grid computing software for mixed platform environments and global grid configurations. Includes a PKI based security infrastructure for grids spanning multiple companies, locations, and domains.

The DataGrid
Dissemination Office:
CNR-CED
Piazzale Aldo Moro 7
00145 Roma (Italy)
+39 06 49933205
http://www.eu-datagrid.org/
A project funded by the European Union and led by CERN and five other partners whose goal is to set up computing grids that can analyse data from scientific exploration across the continent. The project hopes to develop scalable software solutions and testbeds that can handle thousands of users and tens of thousands of grid connected systems from multiple research institutions.

DataSynapse Inc.
632 Broadway
5th Floor
New York, NY 10012-2614
212-842-8842
http://www.datasynapse.com/
Makes LiveCluster, distributed computing software middleware aimed at the financial services and energy markets. Currently mostly for use inside the firewall. Includes the ability for interprocess communications among distributed application packages.

Distributed.Net
http://www.distributed.net/
Founded in 1997, Distributed.Net was one of the first non-profit distributed computing organizations and the first to create a distributed computing network on the Internet. Distributed.net was highly successful in using distributed computing to take on cryptographic challenges sponsored by RSA Labs and CS Communication & Systems.

Entropia, Inc.
10145 Pacific Heights Blvd., Suite 800
San Diego, CA 92121 USA
858-623-2840
http://www.entropia.com/
Makes the Entropia distributed computing platform aimed at the life sciences market. Currently mostly for use inside the firewall. Boasts binary integration, which lets you integrate your applications using any language without having to access the application's source code. Recently integrated its software with The Globus Toolkit.

Global Grid Forum
http://www.gridforum.org/
A standards organization composed of over 200 companies working to devise and promote standards, best practices, and integrated platforms for grid computing.

The Globus Project
http://www.globus.org/
A research and development project consisting of members of the Argonne National Laboratory, the University of Southern California's Information Science Institute, NASA, and others focused on enabling the application of Grid concepts to scientific and engineering computing. The team has produced the Globus Toolkit, an open source set of middleware services and software libraries for constructing grids and grid applications. The ToolKit includes software for security, information infrastructure, resource management, data management, communication, fault detection, and portability.

Grid Physics Network
http://www.griphyn.org/
The Grid Physics Network (GriPhyN) is a team of experimental physicists and IT researchers from the University of Florida, University of Chicago, Argonne National Laboratory and about a dozen other research centers working to implement the first worldwide Petabyte-scale computational and data grid for physics and other scientific research. The project is funded by the National Science Foundation.

IBM
International Business Machines Corporation
New Orchard Road
Armonk, NY 10504.
914-499-1900
IBM is heavily involved in setting up over 50 computational grids across the planet using IBM infrastructure for cancer research and other initiatives. IBM was selected in August by a consortium of four U.S. research centers to help create the "world's most powerful grid," which when completed in 2003 will supposedly be capable of processing 13.6 trillion calculations per second. IBM also markets the IBM Globus ToolKit, a version of the ToolKit for its servers running AIX and Linux.

Intel
Corporation2200 Mission College Blvd.
Santa Clara, California 95052-8119408-765-8080
http://www.intel.com/
Intel is the principal founder of the Peer-To-Peer Working Group and recently announced the Peer-to-Peer Accelerator Kit for Microsoft.NET, middleware based on the Microsoft.NET platform that provides building blocks for the development of peer-to-peer applications and includes support for location independence, encryption and availability. The technology, source code, demo applications, and documentation will be made available on Microsoft's gotdotnet (www.gotdotnet.com) website. The download will be free. The target release date is early December. Also partners with United Devices on the Intel-United Devices Cancer Research Project, which enlists Internet users in a distributed computing grid for cancer research.

NASA Advanced SuperComputing Division (NAS)
NAS Systems Division Office
NASA Ames Research Center
Moffet Field, CA 94035
650-604-4502
http://www.nas.nasa.gov/
NASA's NAS Division is leading a joint effort among leaders within government, academia, and industry to build and test NASA's Information Power Grid (lPG), a grid of high performance computers, data storage devices, scientific instruments, and advanced user interfaces that will help NASA scientists collaborate with these other institutions to "solve important problems facing the world in the 21st century."

Network for Earthquake Engineering Simulation Grid (NEESgrid)
www.neesgrid.org/
In August 2001, the National Science Foundation awarded $10 million to a consortium of institutions led by the National Center for Supercomputing Applications (NCSA) at the University of Illinois at Urbana-Champaign to build the NEESgrid, which will link earthquake engineering research sites across the country in a national grid, provide data storage facilities and repositories, and offer remote access to research tools.

Parabon Computation
3930 Walnut Street, Suite 100
Fairfax, VA 22030-4738
703-460-4100
http://www.parabon.com/
Makes Frontier server software and Pioneer client software, a distributed computing platform that supposedly can span enterprises or the Internet. Also runs the Compute Against Cancer, a distributed computing grid for non-profit cancer organizations.

Particle Physics Data Grid (PPDG)
http://www.ppdg.net/
A collaboration of the Argonne National Laboratory, Brookhaven National Laboratory, Caltech, and others to develop, acquire and deliver the tools for a national computing grid for current and future high-energy and nuclear physics experiments.

Peer-to-Peer Working Group
5440 SW Westgate Drive, Suite 217
Portland, OR 97221
503-291-2572
http://www.peer-to-peerwg.org/
A standards group founded by Intel and composed of over 30 companies with the goal of developing best practices that enable interoperability among peer-to-peer applications.

Platform Computing
3760 14th Ave
Markham, Ontario L3R 3T7
Canada
905-948-8448
http://www.platform.com/
Makes a number of enterprise distributed and grid computing products, including Platform LSF Active Cluster for distributed computing across Windows desktops, Platform LSF for distributed computing across mixed environments of UNIX, Linux, Macintosh and Windows servers, desktops, supercomputers, and clusters. Also offers a number of products for distributed computing management and analysis, and its own commercial distribution of the Globus Toolkit. Targets computer and industrial manufacturing, life sciences, government, and financial services markets.

SETI@Home
http://setiathome.ssl.berkeley.edu/
A worldwide distributed computing grid based at the University of California at Berkeley that allows users connected to the Internet to donate their PC's spare CPU cycles to the exploration of extraterrestrial life in the universe. Its task is to sort through the 1.4 billion potential signals picked up by the Arecibo telescope to find signals that repeat. Users receive approximately 350K or data at a time and the client software runs as a screensaver.

Sun Microsystems Inc.
901 San Antonio Road
Palo Alto, CA 94303
USA
650-960-1300
http://www.sun.com/Sun is involved in several grid and peer-to-peer products and initiatives including its open source Grid Engine platform for setting up departmental and campus computing grids (with the eventual goal of a global grid platform) and its JXTA (short for juxtapose) set of protocols and building blocks for developing peer-to-peer applications.

United Devices, Inc.
12675 Research, Bldg A
Austin, Texas 78759
512-331-6016
http://www.ud.com/
Makes the MetaProcessor distributed computing platform aimed at life sciences, geosciences, and industrial design and engineering markets and currently focused inside the firewall. Also partners with Intel on the Intel-United Devices Cancer Research Project, which enlists Internet users in a distributed computing grid for cancer research.