説明可能な分類器
説明可能な分類器とは、単に予測(分類)を行うだけでなく、その予測の人間が理解できる理由を提供するように設計された機械学習モデルの一種です。明確な根拠なしに出力を出す「ブラックボックス」モデルとは異なり、説明可能な分類器は、どの入力特徴が最終的な決定を導いたかについての洞察を提供します。
金融、ヘルスケア、自律システムなどのハイステークスな分野では、AIがなぜその決定を下したかを知ることが、決定そのものと同じくらい重要です。説明可能性はユーザーの信頼を構築し、規制要件(GDPRの「説明を受ける権利」など)を満たし、ドメイン専門家がモデルのロジックをデバッグまたは検証できるようにします。
説明可能性は、本質的に透明なモデル(線形回帰や決定木など)を通じて達成されるか、複雑なモデル(深層ニューラルネットワークなど)に事後的な手法を適用することによって達成されます。SHAP(SHapley Additive exPlanations)やLIME(Local Interpretable Model-agnostic Explanations)などの事後的手法は、特定の予測に対する特徴量の重要度スコアを生成するために、複雑なモデルの動作を局所的に近似します。
高い予測精度を維持しながら完璧な解釈可能性を達成することは、絶え間ないトレードオフです。さらに、極めて大規模で複雑なモデルの説明を生成することは、計算コストが高くなる可能性があります。
関連する概念には、モデル非依存型手法、特徴量の重要度、敵対的ロバスト性などがあります。