この機能は、機械学習モデルにおけるバイアスを検出し、異なる人口統計グループ間のパフォーマンスの差異を分析するために、集計統計を算出します。倫理的なAI基準への準拠を確実にするため、人口統計学的均等性、均等化された確率、および不均衡影響比などの主要な指標を計算します。システムは、予測値と真の値のラベルをサブグループごとに集計し、企業ガバナンスポリシーで定義された公平性の閾値からの有意な逸脱を特定するために、統計的検定を適用します。
この機能は、年齢、性別、または民族などの保護属性で区分されたモデルの出力について、詳細な分析を開始します。
統計アルゴリズムは、正解率の均等性や誤検出率の均一性など、特定の公平性指標を算出します。
結果は、事前に設定された規制基準と比較され、潜在的なアルゴリズムによる差別リスクを迅速に特定します。
トレーニングデータセットおよび推論データセットから、保護された属性ラベルを抽出します。
人口統計学的情報に基づいて、予測モデルの結果を明確なグループに分類します。
各サブグループごとに、精度(accuracy)、適合率(precision)、再現率(recall)、およびF1スコアを個別に算出してください。
統計的有意性検定を実施し、差異が偶然によるものではないかどうかを判断する。
保護された属性フィールドを含むラベル付きデータセットを、サブグループ分析のために安全にアップロードする。
規制当局の審査のための、公平性スコアと偏差のヒートマップをリアルタイムで可視化します。
計算された指標が、許容されるバイアス許容範囲を超えた場合に、自動的にトリガーが発動されます。