この機能は、学習済みAIモデルを、安全にリモートのハードウェアノードへ配布することを可能にします。モデルのシリアライズ、バージョン管理、およびリソースが限られたデバイスへの初期プロビジョニングを処理します。このプロセスは、エッジ環境特有のリソース制限との互換性を確保しつつ、データ主権を維持します。エンジニアは、クラウド環境でのトレーニングから、物理的なエンドポイントへの移行を管理します。
システムは、中央リポジトリから最終的なモデルアーティファクトを取得し、暗号署名に基づいてその完全性を検証します。
ハードウェアアクセラレーションのフラグやメモリ制限を含む構成パラメータは、送信前にデプロイメントパッケージに組み込まれます。
エッジデバイスは、推論エンジンにモデルをロードする前に、署名されたモデルの整合性を検証するために、セキュアブートのルーチンを実行します。
対象のエッジデバイスグループを選択し、必要なモデルのバージョンを指定してください。
モデル、重み、および構成スキーマを含む、署名付きのデプロイメントパッケージを生成します。
選択されたデバイスに対して、管理ゲートウェイ経由で安全なプッシュ操作を開始します。
ターゲットのハードウェアノード上で、推論処理が正常に実行されたことを検証してください。
エンジニアは、エッジデバイスのハードウェア仕様に適した、最新の認証済みモデルのデータを取り出すために、レジストリを照会します。
デプロイメントパッケージは暗号化され、確立されたセキュアなトンネルを通じて送信されるため、転送中の傍受を防ぎます。
集中管理されたダッシュボードにより、エンジニアは特定の物理的なエッジノードにおけるモデルのインストール状況を監視できます。