この機能は、AIファクトリーのエコシステム内で、エージェントインフラストラクチャを動的に、かつ自動的に拡張・縮小することを可能にします。キューの深さ、レイテンシの閾値、スループットの制限などのワークロード指標を監視し、アクティブなエージェントインスタンスの数を、状況に応じて比例的に増加または減少させます。このシステムは、手動での介入なしに水平方向のスケーリングポリシーを実行し、自律エージェントネットワークに依存するエンタープライズアプリケーションの継続的な可用性とコスト効率を確保します。
オーケストレーションエンジンは、接続されているすべてのエージェントから継続的にテレメトリデータを収集し、現在の負荷を事前に定義された運用基準と比較して評価します。
閾値を超える状態が継続的に検出された場合、システムは自動的に追加のエージェントリソースを割り当て、需要が低い期間には余剰リソースを解放します。
スケールアウト処理は、リアルタイムで、ダウンタイムゼロのデプロイメント戦略を用いて実行され、関連アプリケーションへの継続的なサービス提供を維持します。
エージェントの作業負荷に関する指標を監視し、設定された閾値と比較します。
閾値が一定期間継続して超過された場合、自動スケーリングポリシーをトリガーします。
計算されたキャパシティ要件に基づいて、新しいエージェントインスタンスのプロビジョニングまたはデプロビジョニングを行います。
統合の成功を確認し、スケールアップ後のパフォーマンスの安定性を検証してください。
展開されているすべてのエージェントインスタンスから、CPU、メモリ、およびタスクキューのメトリクスをリアルタイムで収集します。
ポリシー規則との照合に基づき、アルゴリズムを用いて負荷パターンを評価し、最適なスケーリングアクションを決定します。
スケーリングイベント中に、コンピューティングリソースを動的に割り当てたり解放したりするためのAPIエンドポイント。