転移学習は、データサイエンティストが、大規模で一般的なデータセットで学習させたモデルを、特定の、より小規模な分野に適用することを可能にします。既存の知識を活用することで、ゼロから学習するよりも、モデルの開発を加速し、計算コストを削減できます。これにより、組織は、大規模な新規データ収集の努力を必要とせずに、多様な業界において高い精度を維持しながら、堅牢な予測システムを迅速に展開できます。
この手法は、統計的な特性や学習された特徴を、あるソースドメインから別のターゲットドメインへ転送することで、学習に必要なラベル付きデータの量を大幅に削減します。
データサイエンティストは、あらかじめ学習済みのアーキテクチャを活用して、下流のタスクを解決します。これにより、大規模なデータセットから特定された重要なパターンが、適用時に維持されるようにします。
この手法は、特に特定の分野のデータが少ない場合に有効であり、限られたローカルデータセットのみで学習されたモデルよりも、汎化性能を高めることができます。
大規模な公開データセットで学習されたアーキテクチャを再利用することで、特定のビジネス課題に対する迅速なプロトタイピングを可能にします。
完全な教師あり学習に必要なデータ量を大幅に削減し、それによりラベル付けコストを低減します。
データが少ない状況下において、従来の学習方法ではうまくいかない場合や過学習が発生しやすい場合に、モデルの性能を向上させます。
市場投入までの期間短縮.
データラベリングコスト削減.
モデルの精度維持.
ソースドメインから学習された既存の知識を活用し、ターゲットドメインのモデルの初期化に利用します。
特定の分野の特性に合わせた調整を、モデル全体の再学習なしに、モデルのパラメータをピンポイントで調整することを可能にします。
関連するタスク間でパフォーマンスを同時に最適化し、知識伝達の効率を最大限に高めます。
専門的な正則化手法を用いて、ソースデータとターゲットデータ間の分布のギャップを埋めます。
ソースドメインとターゲットドメインが、有効な特徴量の転送を可能にする十分な共通の構造を持っていることを確認してください。
事前学習済みモデルのバイアスが、新しい環境下での性能に悪影響を及ぼさないことを検証する。
ファインチューニング中に、汎用的な能力の喪失を防ぐために、収束率を監視してください。
標準的な学習と比較して、最大10分の1の少ないラベル付きデータで同等の精度を達成します。
ソースモデルの開発にすでに投資された計算リソースを再利用することで、トレーニング時間を短縮します。
コンピュータビジョンまたは自然言語処理のモデルを、最小限の修正で、様々な分野に適用することができます。
Module Snapshot
既存のモデルの重みを直接推論パイプラインに組み込むことで、即座に特定の分野への適応を実現します。
特定の層を更新し、他の層を固定することで、専門性と汎用性のバランスを調整します。
トレーニング段階において、小規模なターゲットドメインのデータと、拡張されたソースドメインのデータを組み合わせて使用します。