英特尔人工智能:为工作而生的工具
随着人工智能的发展,模型越来越复杂,对内存的需求也越来越大。支持深度学习的未来,意味着要克服阻碍我们前进的内存障碍。当前的解决方案无法利用所有可用的计算机,就像缺乏汽油的发动机一样。正因为如此,数据科学家和研究人员越来越认识到,需要有专门为深度学习训练和推理而设计的硅芯片。打破这种内存障碍推动我们使用采纳英特尔Nervana神经网络处理器的全新方法,该处理器是专门为支持深度学习而设计和构建的。 英特尔Nervana NNP 将内存放在第一位,它采用了大量高带宽内存和 SRAM,更接近实际进行计算的位置。这意味着可以在芯片上存储更多的模型参数,以显著节省功耗并提升性能。它支持大多数深度学习基元,同时让核心硬件组件尽可能高效,确保没有任何额外项(例如图形)会从深度学习应用中窃取内存。此外,英特尔Nervana NNP 的高速片内和片外互连支持大规模双向数据传输,这样可以在多个机箱之间连接多个处理器,以充当一个更大的高效芯片来容纳更大的模型,以获得更深入的洞察。 英特尔与 Lake Crest 软件开发车辆 (SDV) 方面的主要客户合作,进行 NNP 开发、测试和反馈。当我们准备在 2019 年发售我们的第一个商业产品时,以上都被纳入进来。随着人工智能领域的进一步发展,我迫不及待地想从这些突破性芯片中看到我们客户的创新和见解。 简化异构部署和加速人工智能创新的软件 框架和库对于推动人工智能的发展至关重要。离开软件,硬件就没有任何东西可结合以产生最大的影响。我们在英特尔的目标利用稳健的多架构方法,将所有人工智能都集成到一个软件保护伞下。这就是为什么像我们的开源 nGraph 编译器这样的计划如此重要的缘故。您的时间不应该花在重新发明工具上。 在英特尔,我们认为我们有责任优化软件和提供工具,这些工具可以让我们的硬件发挥最佳性能,并简化模型和现实之间的流程。利用我们的开源性能库,从深度学习的直接优化中获得更多好处;探索我们的开源深度学习编译器 nGraph,它能够跨多个框架和架构运行训练和推理;使用 OpenVINO 快速优化预训练模型,并将视频神经网络部署到各种硬件上;并且利用 BigDL 来驾驭大量数据,BigDL 是我们针对 Apache Spark 和 Hadoop 群集的分布式深度学习库。 提供针对 Data Era 优化的客户解决方案 英特尔正在帮助客户更好地处理每天生成的大量数据并从中获得价值。我们致力于提供全面的硬件和工具组合,以实现任何人工智能愿景。 现实世界中人工智能的复杂性要求将正确的硬件和软件结合起来,以便让应用能够得以实现。英特尔在一个内聚的、多功能的、众所周知的技术生态系统中提供这些工具。 (编辑:源码网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |