エキスパート混合モデル
エキスパート混合モデル(Mixture of Experts, MoE)は、モデルが「エキスパート」として知られる複数の独立したサブネットワークで構成される機械学習アーキテクチャです。MoE は、単一の巨大なモデルがすべての入力を処理するのではなく、「ゲーティングネットワーク」または「ルーター」によって、各入力をこれらのエキスパートの特定のサブセットにルーティングして処理させます。
従来の巨大なニューラルネットワークは、推論時およびトレーニング時に計算上のボトルネックに陥ることが多く、スケーリングには膨大なリソースを必要とします。MoE は、スパース性(疎性)を導入することでこの問題に対処します。これにより、モデルは、任意の入力に対して全パラメータのごく一部のみをアクティブ化するだけで、はるかに大きなネットワークと同等の性能を達成でき、大幅な効率向上につながります。
このプロセスには、主に3つのコンポーネントが関与します。
MoE アーキテクチャは、最先端の大規模言語モデル(LLM)の開発においてますます普及しています。また、異なるエキスパートが異なるユーザーセグメントや製品カテゴリを専門とするような複雑なレコメンデーションシステムや、大規模な検索ランキングシステムでも研究されています。
スパースニューラルネットワーク、条件付き計算、スパース活性化関数、AIにおけるスケーリング則