6至12岁儿童体重标准:未来网络世界十二件大事( 服务器,电能,虚拟化,消耗,能源,短文,电费,IT.预...)

来源:百度文库 编辑:偶看新闻 时间:2024/04/17 07:34:37

组图:未来网络世界的十二件大事

2007.09.04  来自:TechTarget      共有评论(0)条 发表评论   [收藏到我的网摘]

在以下的12篇短文中,IDG集团InfoWorld网站的资深专栏作家和博客们对短期的技术发展趋势进行了十分有趣的预测。能源效率是绿色IT整体概念下的关键概念之一,对于眼睁睁看着电力和冷却成本迅速飞涨的数据中心的经营者来说,其重要性是不言而喻的。
让架构师真正成为SOA实施领航者 it
采访webMethods公司SOA市场营销部副总裁 关于SOA教育的问题,以及除了IT因素外,SOA教
gocom.biz.csdn.net/
Solaris 10,全球企业的首选平台 it
超过680万的用户采用Solaris 10操作系统 包括IT决策者、系统管理员和开发人员应用Solar
sun.csdn.net/solaris
免费下载硬盘加密软件 服务器
ProtectDrive可有效保护存储在笔记本 工作站及服务器硬盘中的全部数据
cn.safenet-inc.com/p...

在以下的12篇短文中,IDG集团InfoWorld网站的资深专栏作家和博客们对短期的技术发展趋势进行了十分有趣的预测。所谓一叶落而知秋,这是他们确定网络业“下一件大事”的方法。由于他们都是各自领域的专家,所以他们对明天的突破性技术的预测完全立足在今天在发生什么的基础上。即便如此,其中的一些预测也有可能会出现偏差。本来嘛,技术预测就是这样一种非常有趣的方式。

  绿色IT

  改组虚拟服务器 优化能源效率

  今天的数据中心在浪费着大量的电能。但如果企业能够随时根据需要,动态地组装虚拟服务器农场,不就可以只消耗应该消耗的电能了吗?

  能源效率是绿色IT整体概念下的关键概念之一,对于眼睁睁看着电力和冷却成本迅速飞涨的数据中心的经营者来说,其重要性是不言而喻的。

  就我们目前所看到的进展而言,我预计,绿色IT的下一件大事将是我称之为动态服务器农场的技术,它将综合电源管理、系统管理Web服务以及虚拟化等技术于一身。

  这里最棘手的难题是,能源管理是硬件级的。不过我们看到,目前正在涌现出不少的系统管理工具。比如惠普最近就在其Systems Insight Manager硬件管理平台上新增了一项能耗封顶(power-capping)功能。该功能可以让管理者去控制每一台服务器最多可以消耗多少电能。VMware也有类似的计划,可以将能源管理性能与其服务器虚拟化产品相结合。

  于是我们就可以让单台服务器只消耗它所做工作应该消耗的能源。我们只在需要用到某台服务器的时候才唤醒它,一旦不使用就让它恢复睡眠状态。

  如果奥尔巴尼(纽约州首府)的电费太贵,那为何不将数据中心设在印度的班加罗尔或者中国的上海,或者世界上任何一个电费最低的地方呢?

  这是一个野心勃勃的绿色IT远景,但如果你真的在考虑它,就会发现很多技术细节其实早就有了。技术专家经常会把数据视为IT的命根子,但也别因此就让它“烧掉”你的设备和能源。

存储

  基于互联网的存储才能满足未来的存储需求

  存储仍然是需要加以管理的事情,有一些迹象指明了做出重大改进的方向。

  尽管存储厂商一再许诺,但是可管理的存储其实是越来越难,而不是越来越简单。存储厂商们夸口说,他们的智能应用可以将存储管理简化到让穴居人都能掌握的地步;工具无须人工帮助就可以发现相邻的设备和服务器,然后便可以自动地配置这些设备。可惜,正像很多销售花招一样,这些宣传伎俩只有一部分是真实的。

  即便是存储厂商们炒作很热的iSCSI SAN的简单性也很难具体实施。对新手来说,iSCSI over FC的简单易学似乎都到了不必学习任何交换机和网络设备就能上手的程度。但实际上,设置iSCSI主机和目标设备共同工作所需的技巧和管理LAN的技巧绝不可同日而语。更糟的是,大多数存储管理套件都完全忽略了iSCSI。而一些新出现的技术,比如FCoE(FC over Ethernet)更是给本就混乱不堪的存储管理增加了更多的复杂度。

  那么,客户们究竟该如何应对越来越大的存储容量和成本效率之间的冲突呢?对很多人来说,SaaS(存储作为服务)将是一个答案:CIO们不用再为存储设备和维护而被厂商敲竹杠了,他们会发现,其实租用存储空间更为方便。

  我们预计,SaaS可能会因为有更快、更廉价的带宽而迅猛增长。随后,其他厂商就会跟进,从而使基于互联网的存储服务达到前所未有的规模,有效地削弱市场垄断企业,如EMC、HP和IBM等的地位。

  SaaS将让存储变得更便宜,并具有更细的颗粒度,你只须为你用到的存储容量付钱,不必再为冗余的容量付钱了。最重要的是,它可以让客户部署这样一些先进的技术,这些技术所需的存储成本如果以别的方式投资肯定会被企业否决。

  数据库

  将更大规模的数据纳入更小的空间

  数据库正在急速膨胀成应用系统中巨大的组成部分,吞噬着系统的性能。因此,下一件大事就是新的数据压缩技术

  数据库所面临的主要问题之一是空间危机。当单一数据库逐步膨胀为PB容量时,要查询到适当的存储内容就会越来越困难。每个数据表的容量正在迅速膨胀,数百万行的数据表正在膨胀为数十亿行的大规模数据表。事实上,我们很快就会看到数百亿行的数据表。

  如何存储此类新的大规模数据表是空间危机的第一个问题。如何访问如此规模的数据表则是第二个问题。虽说磁盘容量的成本越来越低,但是在PB量级要努力发挥出数据库的性能可能需要数千个磁盘。第三个问题是,还需要额外的空间来备份所有这些数据。

  这就是我为什么认为数据库的下一个大成就将是更好、更有效率的压缩算法,以及与数据表结构有关的技术。目前所使用的压缩技术既没有普及,也没有足够高的性能以适应DSS(决策支持系统)或OLTP(在线事务处理系统)的严酷需求。

  未来的数据库将会要求高性能的压缩技术,这将会是一种突破性的技术。

  中间件

  跨越面向服务领域的共享行为

  新的中间件将会揭示一些方法或服务请求,就好像整个应用基础设施就运行在一个庞大的本地系统上一样。

中间件正在从原先只处理一地到另一地的信息移动的软件,逐渐演变成今天新兴的面向服务领域中更为复杂和有用的工具,换句话说,就是从面向信息的中间件演变成面向服务的中间件。

  不过,向面向服务中间件的迁移实际上都在处理功能性行为,此类行为是在各系统间共享的。换句话说,和只共享信息相反,中间件可以让远程方法或服务请求的交叉引用变得更为便利,就像它们在本地系统一样。很自然地,数据会受到这些方法的制约,正如我们用传统的对象数据一样,利用这些方法便可以控制对数据的访问。

  那么,它到底新在哪儿呢?如果只是用这样的中间件来做集成服务器、消息代理,或者可实现服务的排队系统(例如ESB等),那么关注点仍然是在信息的交换而非服务上。今天,面向信息中间件正在SOA架构中用于面向服务的目的,并且取得了一定的成功。而在支持服务导向需求的推动下,对行为共享的重点关注将会从本质上改变中间件的构建和部署。

  安全

  我们到底需要隐私保护还是安全?

  没有什么技术魔弹能够解决企业安全方面持续不断的危机。这一问题的答案只能是政治上的,而且会有很长的路要走。

  在未来的5到10年间,安全将会仍然处在目前这种可怜的或者说糟糕的状态中。下一件大事就是还有漫长的路要走,而且主要是出于文化的而非技术的原因。

  到目前为止,我可以肯定地说,厂商介绍给你的每一种新的安全产品都会悲惨地失败。无论我们采取怎样的防范措施,部署怎样的安全产品,心怀恶意的人总能畅通无阻。

  我们需要解决这样的现实问题:普遍存在的匿名制。

  对终端用户的身份认证、生物检测等手段最终将会得到大规模普及使用。生物检测和双因素解决方案将在未来5年内成为企业安全环境的标准。

  隐私保护者们会反对把缺省的认证置入每一块芯片中。不过企业和政府所许诺的好处(“我们可以帮助你定位你们的孩子所处的位置,如果他们遭到了绑架的话”)可能会让消费者容忍这种对个人隐私的侵犯。不希望被“芯片化”的隐私保护者们可能会因此而使用他们自己的互联网版本。

  在无处不在的认证所保障的安全的互联网上,恶意的黑客将很难逃脱被捕获的命运。由更安全的检查和认证机制所提供的安全保护会让恶意黑客们的攻击变得更为困难,从而无利可图。作为牺牲隐私的交换条件,未来的在线体验将最终成为安全的体验。

  网络

  光纤比端点更为智能

  当交换机、路由器和服务器随着处理能力的增强而日渐强壮时,钟摆将会荡回到网络本身的智能上。

 

  互联网的构建虽然只有不多的几条规则,不过其中一条是“网络可以愚蠢,端点必须聪明。”它的意思是说,网络的设计就是不必让其知道它自己在传输什么,至于一致性检查和分组处理则交给服务器与客户机去做。这种体系结构自TCP/IP出现以来的大约30年间一直运转得很好。而在未来的30年内,它将会发生巨大的变革。

  从前,以太网集线器可以说是最简单的网络设备,只能保障最低限度的安全。路由器则只能在有限的硬件上运行非常有限的代码,那个时候,要想对数据包进行深层检测,作为管道的网络恐怕连想都不敢想。

  但是后来,网络逐渐变得智能起来。QoS、防火墙、三层交换机都在提升安全,提升本地和远程网络的速度。如今,固化存储、低功耗、高速CPU的迅猛发展确实正在改变着游戏的规则。现在已经可能对每一个数据包进行检查,并且做出智能化的决定,决定某个包是否应该发出,或者向哪个方向发出——而所有这一切都是以线速进行的。

  下一步:网络将会变得比客户机更为智能。交换机和路由器正在获得越来越高的智能和速度。越来越多原本由服务器承担的任务将会转移到网络中,转移到核心交换机上去。桌面系统将会消失,只留下带有以太网接口的监视器。而服务器将会回归到主机,只提供存储和虚拟机管理的功能。

  离岸外包

  还是近岸好

  印度和中国的外包业目前正在感受到一定程度的竞争压力,这都得归功于加拿大和拉美的近岸外包业的迅猛增长。

  离岸外包业的下一件大事就是近岸外包。这也得到了很多一直在跟踪外包业增长现象的专家们的一致同意。

Gartner的外包分析师Linda Cohen的研究结果表明,越来越多的企业会倾向于对其外包业务维持较短距离的约束和控制。Cohen观察到,“距离越远,很多业务就愈发地难以控制。”

  一家企业之所以要把一些业务外包到像印度和中国这样遥远的地方,是为了能够在劳动力成本上实现套利,然而,这种套利行为却因为远距离外包需要更严格的监督、质量控制和语言翻译而被抵消掉了。Cohen说:“外包需要大量的相互交流以及高层的接触”。

  而在另一方面,利用近岸外包,企业除了同样能以较低的成本获得天才的人力资源以外,还不用处理因距离遥远带来的很多问题,这还没有算上增减合同以及掌控业务进程所需要的长途旅行费用。

  而且,由于美国政府威胁要堵塞移民政策和H-1B签证方面出现的漏洞,所以,微软等公司已经开始筹划相应的应对策略,在一些比美国的移民政策更自由的国家设立近岸研发中心。比如说,就在7月份,微软宣布在加拿大建立了一家研发中心。

  微软毫不讳言它为什么要开设加拿大研发中心的原因。来自微软的一份官方声明称:“温哥华是多民族聚居的一个全球门户,而且也很靠近微软的美国总部,微软可以在此处招募并留住因受到美国移民政策影响的高技术人才。”

  换句话说,由于加拿大对于从事高科技工作的临时工作签证持自由开明的政策,所以微软可以从全球各地招募一流的软件工程师来此工作,而且可以将他们安排在距离美国边境只有30多英里的地方居住。

  下一站将是拉丁美洲。虽说哥斯达黎加还不是下一个热门地点,不过Cohen说,已经有很多企业正在拉丁美洲寻找高级软件人才扎堆的地方。毕竟,这里比起印度和中国来,在时区上要近得多。

  开放源码

  通过重新组合实施创新

  开放源码再创未来的舞台已经搭好,借助于覆盖面越来越广的软件中的最佳源代码,开源社区将会制作出全新的解决方案。

  如今,软件业的运营模式不再是编写软件,而是实现软件的功能以及服务。这才是开源运动真正的目的所在。

  到目前为止,开源运动在研发软件的时候一直是在模仿商业化的软件产品。而我们很快就会看到,开源运动将会创建出完全不同的解决方案。开放源码的巨大自由之一就是有能力只采用我们需要的代码,然后将它们重新组合成新的应用,从而加速软件创新,缩短产品上市的周期。

  我们将会看到的第一个变化就是服务器通用操作系统的逐渐淡化。当我们只需要数据库服务器、应用服务器或者Web服务器时,我们将不再需要其他累赘无用的操作系统组件,以及它们可能带来的安全隐患。Linux是一个伟大的操作系统,也是操作系统各类组件的巨大宝库。

  开放源码允许后来者根据需要,利用Linux的某些部分和其他开源项目,按照新的方式进行组合,从而提供新的功能。一些企业已经开始走上设计可配置Linux的道路,以便能够结合其他的软件组件创建出符合特定用途的解决方案。开放源码可以让我们超越软件认证的陈腐传统,创建出能够满足不同需要的、真正意义上的集成化解决方案。

  开源许可制度也在推动这种创新模式,市场将会最终摈弃阻碍创新的专利许可模式。创新的自由才是一切自由中最伟大的自由。

应用开发

  互联网应用的新面孔

  将最佳的传统桌面应用和Web应用相互融合,富互联网应用正在占领一切可以占领的阵地。

  应用开发领域正在被一条巨大的鸿沟所分裂,众多厂商正在努力地想填平这一鸿沟。在鸿沟的一边是Web应用,而另一边则是桌面应用。处于两者之间的则是RIA(富互联网应用),它已经吸引了众多开发人员的注意。

  桌面应用作出了迅速反应,复杂的用户接口越做越漂亮,并且充分地利用到了本地计算机的一切资源。然而,从另一面看,这些应用需要安装程序,需要升级,还可能出现不兼容问题。

  经典的Web应用无须安装,随时升级,而且可以百分百的兼容。不过从另一面看,它们似乎反应迟钝,界面粗糙,而且可能会因为服务器的负载以及网络连接问题而陷入死循环。

  RIA则试图综合桌面与Web应用的优势,摈弃各自的弱点。RIA试图把大量用户界面放置在客户机上,以便使其反应敏捷,同时让界面能够根据需要做得复杂美观一些。RIA虽然通常也需要安装,但也只是安装一个运行时间引擎,容量不大,而且能自动升级。

  RIA可以把资源配置到最适合的场所。如果说应用的整体可扩展性是一个基本问题,那么RIA的设计者则会尽可能充分利用客户机的CPU性能。另一方面,如果某个应用经常需要用到数据库,那么很多应用行为将会在服务器上运行。

  很多RIA都能适应时断时续的网络连接。如果某个应用需要数据库资源,那么当本地电脑与互联网的连接中断时,该应用就会切换到一个本地数据库。一旦互联网连接重新建立,该应用则会让本地数据库与中心数据库实现同步。

  我当然不认为,RIA会在一眨眼间就接管整个世界。不过我认为,在填平桌面和Web应用的鸿沟方面,RIA将会发挥越来越重要的作用,最终可能会有某种技术出现,完全统一桌面应用和Web应用。未来五年之内,它就将出现。

处理器

  将芯片分割成多个虚拟内核

  大而强有力的CPU正处在衰落之中。实际的发展趋势是分了又分的虚拟多核,每一个虚核负责一个线程。

  目前由x86 CPU所采用的处理器发展方式——即将尽可能多的处理器内核与闪存放入一块芯片——将会在超过某个临界点之后无法再提升性能。增加更多、更大、更耗能的处理器内核对于服务器来说并不是最佳方式,因为这需要花费更多的时间,增加更大的管理工作负荷。

  在未来几年内,我相信AMD、IBM、Intel和Sun都会关注目前由Sun的UltraSPARC T2(Niagara 2)所体现出的这样一个目标:通过Sun称之为CMT(芯片多线程)的技术实现处理能力的最大化。

  虽然走向多线程还需要数年时间,但是Intel和AMD都将朝着这个方向前进。所有的CPU厂商都会朝着这个方向发展。因为与处理器内核必须连接缓存、内存、I/O不同,硬件多线程可以分割内核所提供的总的资源。因此,能够最好地适应虚拟化的要求。而且与要求系统软件必须知道CPU能否支持多个虚拟分区的虚拟化扩展不同,芯片多线程不需要增加任何东西,无论是已经编进操作系统的多线程支持,还是处理多个分离处理器的虚拟化解决方案,它都不需要。

  最终,服务器吞吐量的最大化将来自与软件无关的硬件多线程。

  商业模式

  随需付费好处多多

  在未来数年之内,购买软件有没有可能像手机订阅服务一样简便呢?有可能。

商业模式中的下一件大事就是订阅服务,无论对于IT厂商还是其未来十年的客户来说都是如此。你以前肯定听说过一两件此类事情,但现在,真正的转向已经来临。

  我们首先回顾一下简短的历史:在过去十年间,传统的商业模式早已覆盖了全球经济的每个角落。但是互联网让买家有了更多的控制权和更高的透明度,也让竞争愈发公平。在IT业,套装软件正在面临来自服务(咨询服务捆绑软件)和开源(技术支持加免费软件)的强大挑战。

  其次,高速互联网降低了部署和集成软件的可变成本。在这方面,Salesforce.com证明了SaaS(软件运营服务)的可行性。同时,客户们对于传统的软件许可费用和部署成本的不断增长也愈发不满,因为这种做法一方面让厂商能够锁定用户,另一方面又可以让它们尽可能多地榨取客户的钱财。而订阅计划则有较低的更换厂商的成本,可以让厂商承担更多的责任,提供持续的增长价值。

  那么,这其中的转向是什么呢?订阅将变得更为复杂和专业化。现今听起来很简单的订阅服务将会被切成很多部分,以满足每一种可能想象到的需求和细分市场。

  即便订阅会变得跟软件许可协议一样复杂,但它依然会更透明——企业能够准确地从按需菜单中知道自己需要花多少钱。

  高性能计算

  超级计算机无处不在

  根据摩尔定律,成本的迅速下降将会创建新的应用,让高性能计算成为普及的性能。

  超级计算机并非只适用于情报与核工业。事实上,超级计算机将会在你的企业中发挥越来越重要的作用。

  政府、大型科研与工程设计机构使用超级计算机(也称HPC,即高性能计算)已有数十年,解决了很多描述物理世界的复杂方程。

  超级计算机甚至能够在一辆新车的原型设计尚未制作之前就能很好地预测其是否能被市场所接受。

  HPC同样能够让各种类型的企业获得实际的好处,能够让大多数传统企业采用它来完成其核心业务。举例来说,制造业就正在利用HPC计算模塑成型的零件的最优流变条件,以避免成本高昂的试塑和错误。运输企业利用HPC计算最有效率的运输路径,以节省时间和燃料等等。

  用商品化处理器而非定制处理器构建超级计算机的想法十年前就有了,而且已经积累起了一个庞大的经验知识库,利用此知识库,我们就可以利用普通的零部件构造超级计算机。这样构造出来的超级计算机,价格区间的伸缩性很强。比如用构建100颗处理器的超级计算机的相同技术,现在也可以为任何个人构建价格只有1万美元的超级计算机。HP和Dell如今也在网上销售可预配置的超级计算机。

  在不远的将来,全球最大的计算机就有可能为你的杂货连锁店提供服务,就像它们先前为政府和跨国企业提供服务一样。