MoveNetのPythonでの動作サンプルです。
ONNXに変換したモデルも同梱しています。変換自体を試したい方はMoveNet_tf2onnx.ipynbを使用ください。
2021/08/24時点でTensorFlow Hubで提供されている以下モデルを使用しています。
- TensorFlow 2.3.0 or later
- tensorflow-hub 0.12.0 or later
- OpenCV 3.4.2 or later
- onnxruntime 1.5.2 or later ※ONNX推論を使用する場合のみ
デモの実行方法は以下です。
python demo_singlepose.py
- --device
カメラデバイス番号の指定
デフォルト:0 - --file
動画ファイルの指定 ※指定時はカメラデバイスより優先
デフォルト:指定なし - --width
カメラキャプチャ時の横幅
デフォルト:960 - --height
カメラキャプチャ時の縦幅
デフォルト:540 - --mirror
VideoCapture()取り込みデータを左右反転するか否か
デフォルト:指定なし - --model_select
使用モデルの選択
Saved Model, ONNX:0→Lightning 1→Thunder
TFLite:0→Lightning(float16) 1→Thunder(float16) 2→Lightning(int8) 3→Thunder(int8)
デフォルト:0 - --keypoint_score
キーポイント表示の閾値
デフォルト:0.4
python demo_multipose.py
- --device
カメラデバイス番号の指定
デフォルト:0 - --file
動画ファイルの指定 ※指定時はカメラデバイスより優先
デフォルト:指定なし - --width
カメラキャプチャ時の横幅
デフォルト:960 - --height
カメラキャプチャ時の縦幅
デフォルト:540 - --mirror
VideoCapture()取り込みデータを左右反転するか否か
デフォルト:指定なし - --keypoint_score
キーポイント表示の閾値
デフォルト:0.4 - --bbox_score
バウンディングボックス表示の閾値
デフォルト:0.2
高橋かずひと(https://twitter.com/KzhtTkhs)
MoveNet-Python-Example is under Apache-2.0 License.
サンプル動画はNHKクリエイティブ・ライブラリーのストリートバスケットを使用しています。