説明可能なポリシー
説明可能なポリシーとは、人工知能(AI)システムまたは自動意思決定プロセスがどのように動作しなければならないかを義務付ける、文書化されたルール、ガイドライン、および運用手順のセットを指します。具体的には、その決定が人間のステークホルダーに対して明確に理解され、追跡され、正当化できることを要求します。
これは単に高い精度を達成する以上のことを求めます。それは説明責任を要求します。このポリシーは、モデルの出力が何であるかだけでなく、モデルがどのように振る舞うべきかを規定します。
規制がますます厳しくなるデジタル環境において、不透明なAIモデルは重大なリスクをもたらします。説明可能なポリシーは、以下の点で極めて重要です。
説明可能なポリシーの導入には、いくつかの技術的および手順的なレイヤーが含まれます。