axinc-ai / ailia-models

The collection of pre-trained, state-of-the-art AI models for ailia SDK

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

ADD InstantID

itsmeterada opened this issue · comments

メモ

  • CPUバージョンで動かせるアプリケーションを作成した例:https://github.com/rupeshs/instantidcpu
  • InstantIDのレポジトリ自体はApacheライセンスで商用利用可能だが、ダウンロードして利用されるモデルは商用利用ができないライセンスとなっているので注意が必要

ControlNetおよびIP-AdapterのONNX化検討メモ

  • ControlNetのONNXエクスポートは可能
    • エクスポートすると大量のファイルにbiasなどが分かれてしまう(MatMulやAddなど)
    • オプションなどを見ても避けることは難しそう(関連イシュー
  • パイプラインがdiffusersの機能を利用して記述されており、両モデルをONNXとして出力して利用する場合、diffusers実装を再現するようなコードを記述する必要あり
    • 関連場所をチェックすると移植部分は相当数あると見込んでいる

2GBを超えるONNXをエクスポートした場合に、複数のpbに出力されるのは規定の動作です。出力した後で、ONNXのAPIで読み込み、all_tensors_to_one_file=Trueで書き出すと、1つのonnxと、1つのpbに結合可能です。
https://github.com/onnx/onnx/blob/main/docs/PythonAPIOverview.md

diffuserを使用しているモデルのエクスポート例です。拡散モデルなので、tokenizerとddimのsamplerのコードをdiffuserから持ってくる必要があると思います。
#1379

@kyakuno
ご教授ありがとうございます。
頂いた内容を元に移植作業を進めさせて頂きます。

ControlNetについてはcontrolnet.onnxとcontrolnet.pbに書き出し、onnxruntime.InferenceSession("controlnet.onnx")で読み込めることを確認

@kyakuno
UNetをエクスポートするときに以下のエラーが出ます。
torch.onnx.errors.UnsupportedOperatorError: Exporting the operator 'aten::fft_fftn' to ONNX opset version 17 is not supported.

以前にも同じ問題が発生した経験がある場合、どのように対処したかご教授いただけますと幸いです

メモ:

  • ailia SDKを使うと、ローカルでONNXバージョンで動かそうとするとメモリが不足してPCから警告が出され処理が中断されてしまう(24GBのmacbook proで確認)
    • スワップ領域を数十GB消費している
    • onnxruntimeを利用した場合はメモリ消費量が少ないようです

dynamoでエクスポートするとどうでしょうか?
pytorch/pytorch#112382
ailiaのメモリについては、memory_mode=11を与えてみてください。

@kyakuno
ご教授ありがとうございます。無事unetはエクスポートできました!

エクスポートしたファイルをonnxruntimeで読み込もうとするとSegumentation faultが発生して強制終了されるのでそれの原因調査中ですが、それが完了すればあとは調整のみとなります。
時間がかかっており申し訳ないですが、進捗あり次第再度共有させていただきます

@kyakuno
UNetをエクスポートしたファイルをailia SDKで読み込もうとすると以下のようなエラーになるようです。

814EBB50-E21E-4DAE-BBA3-7B30CAA6F9A6_4_5005_c

一方、onnxruntimeで開こうとするとsegmentation falutが発生する問題がまだ解決できておりません。
引き続きチェックを進めます

  • unetをエクスポートするとpbファイルが12GBほどになる。

今まで対応した内容まとめ

    • torch.onnx.export
      • FFTとかがエクスポートできないので不可
  • torch.onnx.dynamo_export
    • ファイル自体はエクスポートされる
    • pbファイルが12GB程度になる
    • onnsruntime.InferenceSesionで開こうとするとSegmentation faultになって落ちる
      • SessionOptionsでいかを設定しても状況変化なし
        • enable_mem_pattern=False
        • enable_cpu_mem_arena=False
        • execution_mode=ExecutionMode.ORT_PARALLEL
        • intra_op_num_threads=4
    • onnx.loadで開くことはできて、onnx.checker.check_modelもエラーがない
    • onnxoptimizerを使ってFP16に変換してファイル容量を小さくできるか試してみた
      • IRバージョンが合っていないということでエラーになり実行不可(からのonnxファイルだけ生成される)
  • エクスポートする場所を変えると何故かtorch.onnx.exportでもエクスポートできた
    • しかしエクスポートできたunetを推論に使うと以下のエラーが発生する模様
onnxruntime.capi.onnxruntime_pybind11_state.Fail: [ONNXRuntimeError] : 1 : FAIL : Non-zero status code returned while running Split node. Name:'/time_proj/Slice_1/GatherSliceToSplitFusion/' Status Message: Cannot split using values in 'split' attribute. Axis=1 Input shape={1,1,320} NumOutputs=2 Num entries in 'split' (must equal number of outputs) was 2 Sum of sizes in 'split' (must equal size of selected axis) was 320

こちらの方法でonnxにしてみる(方法は同じだがパラメータが違う)
https://zenn.dev/xiangze/articles/b984d5e806e1dd

  • torch.onnx.exportでエクスポートできたが、prototxtが44GBになったりとかなり怪しい(external_dataを一つにまとめずに実行した場合)