この機能は、独自のニューラルネットワークアーキテクチャを標準化されたONNX形式に変換し、TensorFlow、PyTorch、およびTritonなどの推論エンジン間のシームレスな移行を可能にします。厳格な意味保持プロトコルに準拠することで、この変換は計算上の同等性を保証するとともに、異種ハードウェア環境におけるメモリ使用量と実行速度を最適化します。
プロセスは、包括的なモデル分析段階から開始され、この段階でオペレーターの互換性がONNX仕様に基づいて検証されます。
後続の変換段階では、サポートされていないオペレーターを、標準化された同等のものに置き換えるために、動的なグラフ書き換え処理が適用されます。
最終検証により、数値的な安定性が確認され、性能指標が元のフレームワークの出力範囲内に収まっていることが確認されました。
入力モデルのアーキテクチャを解析し、計算グラフの構造を抽出します。
非標準のオペレーターを特定し、翻訳または削除が必要なものを抽出する。
設定された最適化オプションを使用して、変換パイプラインを実行します。
最終的なONNXモデルファイルと、関連するメタデータファイルを生成します。
変換処理を開始する前に、入力テンソルの形状、データ型、およびサポートされる演算セットを検証します。
フレームワーク固有の操作を、ONNX互換のグラフノードにマッピングする、自動的な書き換えロジック。
変換されたモデルの出力結果と、元の参照予測との比較を行うための、包括的なテストスイート。