ローカルCopilot
ローカルCopilotとは、コア処理のためにリモートのクラウドサーバーに依存するのではなく、ユーザーのローカルデバイス(ラップトップ、スマートフォン、専用ハードウェアなど)上で完全に動作する人工知能アシスタントまたはエージェントを指します。データを外部に送信して計算を行うクラウドベースのCopilotとは異なり、ローカルCopilotはユーザーのマシンの範囲内でモデルを実行し、データを処理します。
ローカルAIへの移行は、主にプライバシーの強化、レイテンシの削減、および運用レジリエンスの向上の要求によって推進されています。データをデバイス内に保持することにより、組織や個人は機密情報に対するより大きな制御権を得ることができます。さらに、ネットワークへの依存を排除することで、接続が悪い、または断続的な環境でも一貫したパフォーマンスを保証します。
ローカルCopilotは、コンシューマーグレードまたはエンタープライズグレードのハードウェアで効率的に実行されるように設計された、最適化された小規模な大規模言語モデル(LLM)または特殊な機械学習モデルを利用します。これらのモデルは、特定のタスクに必要な十分な精度を維持しながら計算オーバーヘッドを最小限に抑えるために、量子化または枝刈り(pruned)されることがよくあります。デバイスのローカルCPU、GPU、または専用のニューラルプロセッシングユニット(NPU)が推論プロセスを処理し、ほぼリアルタイムの対話を可能にします。
この技術は、データ生成源により近い場所でデータを処理することに焦点を当てたエッジコンピューティングと交差しています。また、極度にリソースが制約されたデバイス上で機械学習を展開するTinyMLとも密接に関連しています。