Vitis™ AI 开发环境是 Xilinx 的开发平台,适用于在 Xilinx 硬件平台(包括边缘器件和 Alveo 卡)上进行人工智能推断。它由优化的 IP、工具、库、模型和示例设计组成。Vitis AI 以高效易用为设计理念,可在 Xilinx FPGA 和 ACAP 上充分发挥人工智能加速的潜力。
向所有用户开放一系列来自最流行框架 Pytorch、Tensorflow、Tensorflow 2 和 Caffe 的现成深度学习模型。AI Model Zoo 提供了优化且可重训练的 AI 模型,借助它们,您可在所有 Xilinx 平台上实现更快的部署、性能加速和产品化。
有了世界领先的模型压缩技术,我们可以在对精度影响极小的情况下,将模型的复杂性降低 5 至 50 倍。深度压缩可将您的 AI 推断性能提升到一个新的层次。
通过将 32 位浮点权值和激活量转换为 INT8 这样的定点,AI 量化器可在不影响预测精度的情况下,降低计算复杂度。定点网络模型需要的内存带宽更少,因此比浮点网络模型速度更快,电源效率更高。
将 AI 模型映射至高效指令集及数据流。还可执行高级优化任务,如层融合和指令排程等,并可尽量重复使用片上内存。
性能分析器有助于程序员深入分析 AI 推断实现方案的效率和利用率。
Vitis AI 库是一组高层次库和 API,旨在通过深度学习处理器单元(DPU)进行有效的 AI 推断。它基于带有统一 API 的 Vitis AI Runtime 构建,并为 Xilinx 平台上的 AI 模型部署提供了易于使用的接口。
使用 Vitis AI,在边缘器件上为 IoT、自动驾驶及高级驾驶辅助系统、医疗成像以及视频分析等应用实现高效 AI 计算。Vitis AI 可在保持部署灵活性和最佳功耗的同时,通过一流的算法为您的边缘器件提供强大的计算性能。
实操使用 Vitis AI ,并选择 Xilinx 边缘平台和嵌入式合作伙伴:
Xilinx Alveo™ 数据中心加速器卡由 Vitis AI 提供支持,能够为您提供业界领先的 AI 推断性能,充分满足 CNN、RNN 和 NLP 的不同工作负载需求。创造性的本地 AI 解决方案旨在满足现代数据中心超低时延、更高吞吐量和高灵活性的需求,不仅可提高 CPU 和 GPU 的计算性能,而且还可降低总体拥有成本。
安装 Vitis AI 并安装您的 Alveo 加速卡:
世界各地的所有开发者现在都可通过公共云服务提供商(如 Amazon AWS)广泛访问 Xilinx FPGA。 使用 Vitis AI,不仅可轻松获得云端 AI 加速带来的更高性能,而且还可构建您自己的应用。
借助 Vitis AI,您可在嵌入式平台上使用 3D 感知 AI 算法实现实时处理。硬件和软件加速的共同优化实现了 Xilinx ZU + MPSoC 上 PointPillars 模型的领先性能。
观看视频 >
延迟决定了自动驾驶汽车在高速行驶时和遇到障碍物时的决策。通过创新的领域特定加速器和软件优化,Vitis AI 使自动驾驶汽车能够以超低延迟和更高性能来处理深度学习算法。
Vitis AI 具有强大的可扩展性和自适应性,可适用于许多低端到高端的 ADAS 产品,提供业界领先的性能,支持流行的 AI 算法,用于前端 ADAS 中的对象检测、车道检测和分段以及车内或环绕声查看系统。
城市越来越多地在边缘点和云端采用基于智能的系统。每天生成的海量数据需要强大的端到端 AI 分析系统,以便快速检测和处理对象、流量和面部行为。这为从边缘到云的每个框架增加了宝贵的见解。
了解更多有关 Xilinx 机器与计算机视觉的信息 >
本次网络研讨会将深入探讨 Vitis AI 的关键组件,并向您展示如何在 Xilinx 硬件平台上实现灵活应变且高效的 AI 推断。
通过本次网络研讨会,了解如何使用 Vitis AI 部署和运行您针对 Xilinx 嵌入式 SoC 和 Alveo 加速平台预先训练好的 DNN 模型。然后开始使用 Vitis AI 在板上运行示例。
了解如何将 Xilinx MPSoC 与 Vitis 结合使用以实现 AI 摄像头设计。
在本次网络研讨会上,我们将展示 Vitis 和 Vitis AI 如何帮助开发者在 Xilinx 平台上加速整个应用。
Chris Anderson 与 Xilinx 的 Quenton Hall 针对开发者如何在边缘 AI 设备中使用 ZYNQ FPGA 进行了交流。