適応性 & リアルタイム
AI 推論の高速化

概要

エッジからクラウドまでに対応する AI 推論

Vitis™ AI は、ザイリンクスのデバイス、ボード、Alveo™ データセンター アクセラレーション カードを使用する包括的な AI 推論開発プラットフォームです。豊富な AI モデル、最適化された DPU (Deep-Learning Processor Unit) コア、ツール、ライブラリ、サンプル デザインを利用でき、エッジからデータセンターまでの幅広いアプリケーションに対応できます。Vitis AI は、高い効率性と使いやすさを考えて設計されており、ザイリンクス FPGA および適応型 SoC での AI アクセラレーションや深層学習の性能を最大限に引き出すことができます。

Vitis AI の運用

Vitis AI を活用した開発

  • 多様な深層学習タスク、CNN、RNN、NLP に対応できる主要フレームワークと最新モデルをサポート
  • ザイリンクス デバイスですぐに運用できる最適化済みの包括的な AI モデル セットが提供されているため、要件に合ったモデルを見つけて、アプリケーションを再トレーニング可能
  • プルーニングあり/なしモデルの量子化、キャリブレーション、微調整をサポートする強力なオープンソース AI クオンタイザーを提供。
  • ユーザー定義のモデルや演算子に対応できる、使いやすいコンパイルおよびデプロイメント フローを提供
  • AI プロファイラーによるレイヤーごとの分析が可能で、ボトルネックを解消
  • AI ライブラリによる統合された高レベルの C++/Python API を提供し、エッジからクラウドへの移植性を最大限に確保
  • 各種フレームワーク対応の Vitis AI を組み込むことで、クラウド DPU で Pytorch/Tensorflow モデルをすぐに運用できる WeGO (Whole Graph Optimizer) によるスムーズなソリューションを提供
  • スループット、レイテンシ、消費電力、精度などのさまざまなニーズに対応できる効率的、スケーラブル、カスタマイズ可能な DPU IP コアを提供

Vitis AI がもたらす可能性

Vitis AI Model Zoo

AI Model Zoo

AI Model Zoo は、すべてのユーザーを対象とする最も人気のあるフレームワーク (Tensorflow、Caffe、Pytorch) で構築した、すぐに使える深層学習モデルを豊富に提供しています。この AI Model Zoo では、最適化済みの再トレーニング可能な AI モデルを提供しています。これらを利用することで、ザイリンクス プラットフォーム上で効率的に AI 開発が可能になり、高速化されたデザインをすばやく構築して製品化できます。


AI オプティマイザー

世界最先端のモデル圧縮技術により、AI オプティマイザーで精度への影響を最小限に抑えながら、複雑なモデルを 1/5 から最大 1/50 まで圧縮できます。Deep Compression で次世代レベルの AI 推論性能が実現します。

AI オプティマイザーのブロック図

AI クオンタイザーのブロック図

AI クオンタイザー

AI クオンタイザーは、32 ビットの浮動小数点での重みとアクティベーションを INT8 のような固定小数点に変換することで、精度を落とさずに計算量を削減できます。固定小数点のネットワーク モデルは、必要なメモリ帯域幅が狭いため、浮動小数点モデルよりも高速で電力効率に優れています。


AI コンパイラ

AI コンパイラは、AI モデルを効率の高い命令セットとデータフローにマップします。また、レイヤーの融合や命令スケジューリングなどの高度な最適化を実行し、オンチップ メモリを可能な限り再利用します。

AI コンパイラのブロック図

AI プロファイラー

パフォーマンス プロファイラーでは、AI 推論実装における効率性と使用率を詳細に分析できます。


AI ライブラリ

Vitis AI ライブラリは、DPU コアを使用して効率的な AI 推論を実現するために構築された高レベルのライブラリと API です。統合 API を備える Vitis AI ランタイム (VART) をベースに構築されており、ザイリンクス プラットフォームで AI モデルを運用するのに最適なインターフェイスを提供します。

AI ライブラリのブロック図

Whole Graphic Optimizer (WeGO) ブロック図

WeGO (Whole Graphic Optimizer)

フレームワーク対応の推論フロー「WeGO」は、ネイティブの Pytorch と Tensorflow フレームワークを活用して学習から推論までのシンプルなパスを提供します。DPU でサポートされていない演算子を CPU にマップすることでクラウド DPU 上でのモデルの運用や評価を大幅に高速化できます。


深層学習プロセッシング ユニット (DPU)

急速に進化する AI アルゴリズム CNN、RNN、NLP に対応できる適応型ドメイン固有アーキテクチャ (DSA) を提供します。ザイリンクスの Zynq® SoC、Zynq UltraScale+™ MPSoC、Alveo データセンター アクセラレータ カード、および Versal® ACAP に実装することで、業界最高クラスの性能を達成できます。

ザイリンクス DPU のブロック図
運用
kria-board

エッジで運用

Vitis AI により、開発者は、IoT、自動運転、ADAS、 医療画像、ビデオ解析のようなエッジ アプリケーション上での効率的な AI コンピューティングを実現できます。エッジ デバイス向けのクラス最高のアルゴリズムを提供することで高性能コンピューティングを実現できる上、運用時の柔軟性と省電力化も可能になります。

実際に、Vitis AI の性能を評価してみてください。プラットフォームは、次に示すザイリンクスのエッジ プラットフォームおよびエンベデッド パートナーのプラットフォームから選択可能です。


alveo

オンプレミスで運用

ザイリンクスの Alveo™ データセンター アクセラレータ カードで Vitis AI を活用することで、CNN、RNN、NLP などのさまざまなワークロードに対して業界最高レベルの AI 推論性能を実現できます。これらのオンプレミス AI ソリューションは、今日の最先端データセンターで求められる超低レイテンシかつ高スループットを実現できるため、CPU や GPU より高い演算性能を提供し、TCO も削減できます。

Vitis AI のインストールおよび Alveo アクセラレータ カードのセットアップ:


1592258132635

クラウドで運用

ザイリンクス FPGA は、Amazon AWS や Microsoft Azure などのパブリック クラウド サービス プロバイダー経由ですべての開発者がどこからでも利用できるようになりました。Vitis AI により、クラウドの AI アクセラレーションを利用して開発者が簡単に性能を向上させることができ、独自のアプリケーションを構築できます。

資料

Vitis AI 資料

デフォルト デフォルト タイトル ドキュメント タイプ 日付
ソリューション

自動運転および ADAS 技術を強化

リアルタイム マルチクラス 3D 物体認識

リアルタイム マルチクラス 3D 物体認識

Vitis AI 環境では、エンベデッド プラットフォームに 3D 知覚の AI アルゴリズムを実装することで、リアルタイム処理を実現できます。HW と SW の協調最適化により、ザイリンクスの Zynq UltraScale+ MPSoC で最先端 PointPillars モデルの性能を最大限に引き出します。

ビデオを表示  >


自動運転向けの超低レイテンシ アプリケーション

自動運転車が高速で走行し、障害物に遭遇するとき、レイテンシは意思決定において致命的な要素となります。革新的な特定用途向けのアクセラレータと最適化済みソフトウェアを利用できる Vitis AI 環境では、高性能でありながら超低レイテンシで深層学習アルゴリズムを処理する自動運転車向けのアプリケーションを実現できます。

ザイリンクス自動運転 (AD) の詳細  >

自動運転車向けの超低レイテンシ アプリケーション

物体検出とセグメンテーション

物体検出とセグメンテーション

ローエンドからハイエンドまでのあらゆる ADAS 製品に適合する優れた拡張性と適応性を提供する Vitis AI では、フロント ADAS、インキャビン、サラウンド ビュー システムにおけるオブジェクト検出、車線検出、セグメンテーションの一般的な AI アルゴリズムを提供し、業界最高性能を実現できます。

ザイリンクス ADAS の詳細  >


よりスマートで安全な街を創る

ビデオ解析

都市部では、エッジ ポイントやクラウド エンドでインテリジェンス機能を備えたシステムを導入するようになりました。大量のデータが毎日生成されるようになり、物体、トラフィック、顔の動きをすばやく検出して処理するためには、エンドツーエンドの高性能 AI 分析システムが必要です。これにより、エッジからクラウドまでの各フレームに有益なインサイトを追加します。

ザイリンクスのマシンおよびコンピューター ビジョンの詳細 >

ビデオ解析

AI 機能による革新的なヘルスシステムの実現

COVID-19 画像検出を高速化

画像処理、診断、治療用機器向けの AI

Vitis AI は、医用画像データに潜むパターンを検出して特定し、病気の克服や健康向上に役立つ画期的なツールおよび IP を提供します。 

ザイリンクス ヘルスケア AI の詳細 > 


オンプレミスおよびデータセンターの AI

データセンター アクセラレーション

インターネット アプリケーション、画像/ビデオ処理、ライブ放送、レコメンデーション エンジン、自然言語プロセッサなど、AI 技術を導入した複雑な製品やサービスが急増するにつれて、データセンター アクセラレーション プラットフォームを利用する処理機能の高速化が求められています。Vitis AI は、ザイリンクスの Alveo カードや独自のプラットフォームを使用して、高スループットかつ高効率の AI 推論を実現し、データセンターやクラウドで急速に進化する AI 技術に対応します。
 
AI オプティマイザーのブロック図
ビデオ

ビデオ


ウェビナー

Vitis AI を使用する適応可能な AI 推論

Vitis AI を使用する適応可能な AI 推論

このウェビナーでは、Vitis AI の主なコンポーネントについて詳しく説明し、ザイリンクスのハードウェア プラットフォーム上で適応性のある効率的な AI 推論を実現する方法を説明します。
 

Vitis AI の詳細

Vitis AI の詳細

このウェビナーでは、ザイリンクスのエンベデッド SoC と Alveo アクセラレーション プラットフォーム上で Vitis AI を使用してトレーニング済みの DNN モデルを運用/実行する方法を解説します。その後、Vitis AI を使用してボード上でサンプル デザインを実行するウォークスルー デモを実施します。

ザイリンクス Vitis を使用して、AI カメラ開発を加速 (日本語版)

ザイリンクス Vitis を使用して、AI カメラ開発を加速 (日本語版)

Vitis でザイリンクスの MPSoC を活用して、AI カメラ デザインを実装する方法を学ぶことができます。

 

アプリケーション全体の高速化: AI 対応システムの設計

アプリケーション全体を高速化

このウェビナーでは、Vitis と Vitis AI を利用することで、ザイリンクス プラットフォーム上でアプリケーション全体を高速化できることを説明します。

 

Python ベースのエッジ AI アプライアンス開発向け DPU-PYNQ | Tech Chats - Xilinx、Mouser Electronics

Python ベースのエッジ AI アプライアンス開発向け DPU-PYNQ

エッジ AI アプライアンスで ZYNQ FPGA を活用する方法について、Chris Anderson (All About Circuits) と Quenton Hall (Xilinx) がチャット形式で解説しています。