英特尔陈玉荣:全面解析英特尔人工智能计算平台|CCF-GAIR2018-小金体育APP

本文摘要:与结果共享。

与结果共享。虚线部分是计算密集型模型训练部分,最重要,但只占深度自学开发周期的小部分,约占30%。另外,深度自学的研究开发也只是解决方案整体开发的一小部分,最重要的是如何在IT支出中更慢地部署人工智能解决方案,而不是花额外的钱加快整体解决方案的一小部分。还是以缺失检查为例,考虑确实的对方深度自学解决方案是如何配置的。

左边是案例的功能布局图,用10台照相机监视生产设备,检测不足。首先要做的是人类专家标记有缺陷的照片,制作相当大的数据集,可以用来训练神经网络模型。训练的模型被存储和部署到系统中,推测后续视频。

发现缺失时,不会将推测结果发送到服务层和解决方案层。推测结果可以作为决策的依据,调用技术人员或重新开始生产线等行动。从右数据中心的设计图可以看出里面有很多硬件。

我想在这里说的是,深度自学的部署是多方面的,深度自学的训练也只是其中的一小部分,更重要的是解释整个解决方案是如何工作的,以及如何无缝地构建到更大的数据分析过程中。我赞成很多学者的意见,我们处于人工智能计算时代的早期或黎明时期。英特尔不仅致力于为人工智能的发展铺平道路,在引导这个新兴领域也处于最不利的方向。

我们通过获得行业最全面的计算平台,帮助用户获得更智能的结果,这一切都由用户的市场需求和细分市场的市场需求驱动。用于人工智能的第一步是准备数据,我们和许多合作伙伴获得许多解决方案来存储、处理和管理数据。作为世界领先的硬件制造商,我们的硬件反对从混合型到专用型,从云到终端最普遍的AI应用于抵抗。

除了硬件,软件也是最重要的。刚才魏老师(魏少军)也说,人工智能在一定程度上比硬件更重要。

我们保证所有英特尔硬件发动机都有标准化的人工智能体验,并且具有仅次于的一致性、相互操作性和安全性。我们获得了很多软件工具组,协助加快AI解决方案的开发周期。除了硬件和软件工具外,我们还采基于社区和解决方案驱动的方法,扩大人工智能,丰富每个人的生活。

我们与合作伙伴一起获得多种行业现成的解决方案,包括金融、健康、零售、工业、政府、能源等。面向未来,我们通过领先的研发和投资,还包括资助顶尖的学术研究、内部研发和对领先创新者的投资,以及进一步推进政策和道德领导,然后推进人工智能的发展。在工具方面,英特尔投资于电子货币的AI软件工具,使用英特尔的所有硬件,修改研究开发过程,最后延长整体解决方案的研究开发时间。

针对应用于开发商而言,我们获得了大量的工具来提性能和协助加快解决方案的部署。对于深度自学,开源的OpenVINO和英特尔MovidiusSDK可以通过模型的切换和优化获得英特尔各目标硬件优化的深度自学推测配置。

我们也在开发英特尔深度自学Studio,需要协助延长对方深度自学解决方案的开发周期(包括训练)。除了深度自学,英特尔SaffronAI还需要获得理解推理小说的解决方案,可以作为反洗钱和预测确保的应用。

对于数据科学家,我们致力于优化一系列普遍用于机器和深度自学的开源库。目前,一些机械学习库可以充分利用英特尔硬件,包括Python、r、分布式库。我们还需要优化常用的深度自学框架,保证所有主要的深度自学框架和流形都需要在英特尔硬件上运营。

目前完成CPU优化的框架包括Tensorflow、MXNet、Caffe等,未来需要通过英特尔nGraph编译器构建更好的框架。对于库房开发商来说,我们需要获得大量的基建模块,充分利用英特尔的硬件。

其中包括机械学习最佳化的英特尔Python发送版本和包括机械学习在内的英特尔数据分析和加速库DAAL,以及英特尔CPU和集成显卡最佳化的DNN基础函数库MKL-DNN和clDN,这两个库是深度自学的模型开发刚才我提到了英特尔nGraph编译器。这个编译器可以帮助我们从不同的框架提供计算图,切换为中间应答。

这个中间应答可以调用英特尔对特定硬件的计算,加快软件的执行。这样,开发商就不必用于基础软件和数学加速库对每个目标硬件开展深度自学框架和模型的必要优化。

在英特尔硬件方面,除了深度自学之外,其他人工智能可以应用于刚提到的数据分析、机械学习、推理小说等,可以用于强度或其他CPU。因为这些计算阻抗不像深度自学那样具有低计算强度和低并行度的特征。对于深度自学,英特尔获得了普遍的产品组合,满足了不同客户的独特市场需求。

关于训练,现在可以用于强大或强大的集团进行训练。如果你必须加速,你也可以考虑使用加速器。明年,英特尔不会有专门针对深度自学训练的英特尔Nervana神经网络处理器。目前,在数据中心和工作站,实质上是强处理器还是当今市场的标准(更多的是强处理器)。

如果必须进行高强度的推测,也可以考虑使用加速器。英特尔有很多加速器。让我们来谈谈英特尔的深度自学推测加速器。

请告诉我数据中心、边缘计算和终端设备,对深度自学推测的性能、功耗和成本的拒绝,本质上相当不同。英特尔FPGA可以在数据中心和边缘计算设备上对深度自学的推测进行定制和缓慢的原型设计。英特尔MovidiusVPU是低功耗电脑视觉和深度猜测的解决方案。

在边缘计算中,可以用于多个Movidius的VPU,构建高强度、高效的媒体和视觉推测。在终端,MovidiusVPU可以通过超低能耗获得优秀的推测吞吐量,可以作为物联网传感器、个人计算机和其他终端产品进行视觉处理和推测。

英特尔MobileyeyeQ技术是自动驾驶的推测平台,也可以作为原始的自动驾驶解决方案获得客户。英特尔GNA,混合高斯模型和神经网络加速器IP是一种超低功耗的语音和音频推测解决方案,设计构建在许多智能音频、移动设备、智能汽车方向盘和PC芯片中。

最后是英特尔整合显卡,大家更容易忽略,实质上内置深度自学推测加速的能力。让我们来谈谈英特尔MovidiusVPU和综合显卡。

去年发表的Myriadx是英特尔Movidius最近一代的VPU,它是低功耗的SoC,可以用于低效图像处理、计算机视觉和深度自学的设备,还包括服务机器人、监视摄像头、可穿戴设备、无人机、AR-VR头盔、智能家庭设备等。与上一代产品Myriad相比,Myriadx增加了神经计算引擎(NeralComputerEngine),是构筑在芯片上的DNN加速器。

有了这个加速器,深度自学推测吞吐量可以超过1TOPS,也就是每秒多达1万亿次,理论峰值可以超过4TOPS。英特尔MovidiusVPU的微小尺寸和良好的瓦计算性能大大满足了许多用户对计算机视觉和深度自学终端设备的市场需求。

由于MovidiusVPU发表了Movidius的软件开发包,是面向视频处理单元的综合软件开发套件。用于内置的有向图框架可以减少原型系统的开发时间和复杂性,开展缓慢的原型开发。也包括计算机视觉和图像信号处理等多个库存。这样可以用于C/C编程达到最佳性能,同时也反对用于非常丰富的工具套件开展图形化开发。

英特尔Movidius技术已广泛应用于许多智能设备,包括海康威视智能照相机、大疆无人机、宇视IP照相机、摩托罗拉360度照相机、大华工业照相机、谷歌AIY视觉套件和Clips智能照相机等。英特尔综合显卡获得内置深度自学推测加速能力,但大家很少使用。实质上,英特尔综合显卡不存在于许多英特尔SoCs中,包括英特尔凌动处理器、英特尔核心处理器和英特尔至强大的E3处理器等。

英特尔集成显卡具有领先的媒体性能,包括缓慢的视频实时技术,用于同一功能媒体处理模块降低功耗,提高性能,缓慢、处理媒体方便、视频创建和切换。此外,英特尔MediaSDK获得了采访硬件加速的编解码器API,这是大家常用的。

此外,英特尔综合显卡还反对非常丰富的数据类型和SIMD乘的指令。同时,在CPU和GPU之间共享存储器结构,可以减少延迟和功耗。现在大家用于英特尔clDNN,可以简单地构筑英特尔综合显卡的深度神经网络来计算。clDNN是英特尔整合显卡上的深度自学加速中间件,上个月我们刚在GitHub开源,大家可以通过网页了解更多信息。

此外,clDNN是英特尔深度自学部署工具包和英特尔OpenVINO工具包的组成部分。OpenVINO也是新的开源软件工具包,上个月刚发表,在英特尔平台上协助提高计算机视觉解决方案的性能,同时减少了解决方案的开发时间。OpenVINO包括英特尔深度自学部署工具包,还包括模型优化器和猜测引擎,模型优化器可以将Tensorflow、Caffe等框架的猜测模型切换为中间应答,该中间应答通过猜测引擎具有的英特尔CPU、GPU、VPU和FPGAOpenVINO还包含许多针对英特尔平台优化的传统式电脑视觉工具和特尔CPU和GPU的OpenCV、OpenVX和英特尔自己的摄影视觉功能库,以及优化英特尔集成显卡的MediateSDK和OpenCL驱动程序和运营,以及优化英特尔FPGA的运营环境和比特流,这些都是为了方便大家更慢更好地开发计算机视觉应用程序以下主要说明我们自己参与的深度自学加快的研究工作。网络模型传输是深度自学推测加快的主要方法,在这方面我们进行了良好的研究,明确提出了领先的低精度深度传输解决方案,该解决方案将DNN模型的权利值和转录值为低精度的二进制应对,构筑了百倍级无损压缩。

这为深度自学的高效猜测引擎在硬件和软件构建上铺平了道路。该技术本身包括优化DNN结构的动态网络手术技术DNS、减少DNN权值精度的倾向网络分析技术INQ、减少DNN转录值精度的多尺度代码分析技术MLQ三项工作在顶级机械学习和人工智能会议上公开发表。它们可以在模型预测精度不减的情况下构建DNN模型的传输。以AlexNet为例,使用低精度深度传输解决方案,我们首次构建了类似可用、压缩比超过100倍的二进制DNN模型。

由于传输模式的权重值和转录值都是二进制的反应,所以所有乘法操作者都可以成为非常简单的位移操作者。定制硬件可以构建几十倍甚至几百倍的加速。

我们的传输技术与英特尔的低功耗硬件相结合,可以为雾计算、边缘计算获得深度自学推测的硬件加速能力。使用FPGA友好关系的DNN设计,融合低精度深度传输解决方案,利用FPGA的逻辑计算单元,在边缘计算或雾计算的场景中提高DNN计算的速度,降低功耗和延迟,提高吞吐量。此外,英特尔MovidiusVPU本身已经没有DNN计算加速器,融合了我们的低精度传输技术,将来可以得到低精度DNN计算的反对,在边缘设备上进一步提高DNN计算的速度和吞吐量。当然,我们不仅设计了专用的神经网络处理器,英特尔研究院还开展了一系列智能万物的变革性研究,包括先进的设备算法、神经拟定计算、自律系统和量子计算等。

在今年的CES展上,我们发表了神经计划研究芯片Loihi和具有49量子位置的超导量子测试芯片Tangle-Lake。这两项研究可能有助于各行各业、科研机构和全社会解决传统计算机的后遗症问题。我们的展望研究急剧前进,期待人工智能的未来发展和反对未来的新计算。

最后,我希望用闻未来创造未来结束我的演说。英特尔不改初心,一直坚决合作和创造力,我们期待与学术界、产业界合作和创造力合作。构建人工智能的美好未来。非常感谢你有关文章:英特尔AI事业部三位负责人介绍,AI技术如何落地应用于英特尔金权:创建新的大数据分析AI平台AnalyticsZoo|CCF-GAIR回报2018除了发表新一代NNP芯片外,英特尔AI软件和应用还泄露了AI野心的原创文章,允许禁止发表。

下一篇文章发表了注意事项。

本文关键词:小金体育,小金体育APP,小金体育官网

本文来源:小金体育-www.gamblinghalloffame.com

相关文章