この機能は、TensorFlowグラフを軽量なTFLite形式に変換することで、機械学習モデルをモバイル環境に展開することを容易にします。このプロセスでは、モデルサイズを削減しながら推論精度を維持するための量子化および最適化アルゴリズムが適用されます。モバイルエンジニアは、このツールを活用して、多様なデバイスアーキテクチャ上でアプリケーションが円滑に動作するようにし、現代のスマートフォンにおけるパフォーマンス基準であるメモリ制約と電力効率の要件に対応します。
初期段階では、変換パイプラインにTensorFlowのSavedModelまたはフローズングラフをインポートし、ソースアーキテクチャを確立する必要があります。
その後のステップでは、量子化技術を適用し、浮動小数点数の精度を低下させることで、モバイルデバイスのストレージ容量の制限に対応するためのメモリ使用量を最適化します。
最終検証では、変換されたモデルがネイティブアプリケーションのビルドプロセスに統合される前に、性能要件を満たしていることを確認します。
TensorFlowのSavedModelまたはフローズングラフを、変換エンジンにインポートします。
浮動小数点数の精度を削減するために、量子化アルゴリズムを適用する。
ターゲットデバイスの仕様と最適化パラメータを設定します。
シミュレートされたモバイル環境における最終検証テストを実施する。
ユーザーは、TensorFlowのSavedModel形式のファイルや、フローズングラフを、変換ダッシュボードを通じてアップロードし、処理を開始します。
エンジニアは、特定のモバイルハードウェアに合わせてモデルの効率を最適化するために、対象デバイスの仕様と量子化パラメータを選択します。
自動テストにより、変換後のモデルについて、シミュレートされたモバイルデバイス上で、推論の遅延時間と精度が、元のモデルと比較して検証されます。