加入收藏 | 设为首页 | 会员中心 | 我要投稿 源码网 (https://www.900php.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 大数据 > 正文

数据中心升级需掌握的存储网络基础架构技术趋势

发布时间:2021-07-19 21:44:04 所属栏目:大数据 来源:互联网
导读:副标题#e# 以下是对于目前数据中心中,光纤、以太网、光纤通道以太网以及InfiniBand数据存储网络基础架构发展情况的一个简介: 光纤通道 在长期光纤通道技术的路线图中提及了64Gbps速率,而在去年也确实已经有采用32Gbps和16Gbps速率的产品开始发售。不过分

    主流的交换机供应商自2009年开始在光纤交换机中支持FCoE技术,不过去年Cisco在MDS9500系列多层导向器(8端口模式)和Nexus7000(32端口模式)中推出了多跳的,交换机到交换机的功能以及对FCoE的支持。同样在去年,Brocade在其固定端口的VDX交换机中推出多跳的FCoE,不过其还没有开始在模块化的导向器级别的交换机中支持多跳的FCoE技术。

 

    CNA的发货有多种形式,包括适配卡、刀片服务器的中间板以及母板上集成的LAN(cLOM)。

 

    Gartner的Ruth说这一市场将保持停滞,直至诸如EMC和NetApp之类的存储厂商在其系统中推出更为全面的FCoE功能。

 

    FMI的Flanders说FCoE看上去非常有意思,不过经过了大规模的评估,其认为该技术相较于目前的FC SAN没有更为明显的优势。FMI同样使用iSCSI技术超过五年,不过Flanders计划逐步取消这种技术,因为其在性能和可靠性方面较光纤通道技术相去甚远。

 

    “其并没有如预期般产生巨大的市场拉动力,”Taneja集团的Taneja谈及FCoE时说,“获取这只是存储专业人士保守的心态所致。FCoE或许更适合于那些需要统一信道的全新项目。”

 

    ESG的Laliberte则关注VMware对FCoE的认证是否会带动更大的需求产生,他认为这是一个里程碑,证明了网络附加存储(NAS)和iSCSI融合的趋势。VMware在2010之前都只支持光纤存储,他说。

 

    InfiniBand

 

    低延迟的InfiniBand仍主要用于服务器和服务器之间的互联,尤其是在高性能计算(HPC)和金融交易应用之中。不过该技术也开始应用于后端存储上。

 

    Brian Sparks是Mellanox技术公司的资深市场总监,其宣称远程直接内存访问(RDMA)技术逐步在存储中开始采用,该技术允许无须处理器干预的服务器和服务器之间的数据直接迁移。根据Sparks的观点,使用InfiniBand的数据存储供应商已经有DataDirect网络公司,EMC(Isilon产品线),IBM(XIV产品线),NetApp(LSI的Engenio产品线)以及Oracle公司的(ZFS、Exadata、Exalogic和Exalytics产品线)。

 

    Mellanox是领先的InfiniBand供应商在去年开始支持14数据比率(FDR)56Gbps的InfiniBand适配器、交换机和线缆,Sparks说。

 

    之前第二大InfiniBand交换机供应商QLogic在今年早期将其TrueScale InfiniBand产品线卖给了Intel公司。Qlogic将其解释为公司希望致力于融合网络、企业级以太网以及SAN产品;而Intel则将此表现为其对HPC社区的承诺,以及全光纤架构的愿景,希望以此在2018年达到每秒1018的运算速率。

数据中心升级需掌握的存储网络基础架构技术趋势

(编辑:源码网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读