この統合により、監視対象のワークロードの閾値に応じて、サーバーインスタンスを自動的にプロビジョニングまたはデプロビジョニングすることで、動的なインフラストラクチャ管理が可能になります。高可用性環境向けに設計されており、手動での介入なしに、一貫したサービスレベルを維持します。システムは、定義された上限に対してCPUおよびメモリの使用率を継続的に評価し、需要の急増または低下を検知すると、数秒以内にスケールアウト/インの処理を実行します。
監視エージェントは、アプリケーションサーバーからリアルタイムのメトリクスを収集し、設定された閾値に対する現在の負荷状況を評価します。
キャパシティ制限の超過を検知した場合、オーケストレーションエンジンは、追加のコンピューティングノードの自動プロビジョニングを開始します。
新規インスタンスは、ダウンタイムを最小限に抑えながらクラスターに統合され、トラフィックが少ない時間帯には余剰リソースが回収されます。
CPU、メモリ、またはカスタム指標に基づいて、スケーリングのトリガーを定義します。
クラスタのインスタンス数の最大値と最小値を設定します。
デプロイメント設定内で、自動スケーリングポリシーを有効にしてください。
ポリシーの有効化を、シミュレーションによる負荷テストを通じて検証する。
リソースの利用状況とスケーリングイベントをリアルタイムで可視化し、迅速な運用状況の把握を支援します。
展開前にスケーリングポリシーを検証し、異なる環境間で構成の一貫性を確保するための連携機能。
DevOpsチームに対して、スケーリングの閾値が近づいたり、予期せぬ状況で超過したりした場合に、自動通知が送信されます。