ONNX Runtime for Webで画像認識

前回はONNX Runtime for Web (ORT Web)をVue.jsアプリケーションで使ってみました。

公式チュートリアルは単純な行列計算でしたので、今回はもう少し実践的に自前のモデルを使った画像認識を試してみたいと思います。

環境

前回の環境とほぼ同じですが、実装言語はTypeScriptに変更しました。数値計算系の部分は型があるとデバッグしやすいので。

Vue.js: 3.2.11
ONNX Runtime for Web (onnxruntime-web): 1.8.0
Webブラウザ: Chrome 93.0, Firefox 92.0
実装: TypeScript 4.1.6

ONNXモデルファイルの準備

ONNXフォーマットのモデルの作り方は前回の記事を参照してください。PyTorchで作ったモデルをONNXフォーマットに変換したものを準備します。

モデルアーキテクチャ: AlexNet
データセット: CIFAR-10 (32x32px画像、10カテゴリ)

画像認識のモデルとしては入門レベルのシンプルなものです。ちなみに精度(accuracy)は86%くらいでした。CIFAR-10データセットは32×32ピクセルの小さな画像なので人間には少々見難いですが、処理が軽いので動作確認には適しています。

実装

既存のONNX Runtimeで実行するのと基本的には同様の手順で動きますが、ORT Webのインタフェースは必要最低限のものしか提供されていないので細かい計算は自前で行う必要があります。今回は記事は主にHTML Canvas固有の処理の説明になります。

まず実装の全容を以下に載せます。ORT WebとVue.js以外の外部モジュールは使用していません。ここでは1ファイルに全容を収めるためにVue.jsの単一ファイルコンポーネントとして実装していますが、計算処理部分は別モジュールに切り出すのが適切かと思います。1ファイルなのでgistにも一応貼っておきます。

TypeScriptのstrict type checkingを有効にしているので余計な処理が入っていますが、処理の本体は inference 関数以下に全て書いています。

処理の流れ

  1. HTML Canvas要素に画像ファイルを読み込んで、画像データを取得 (mounted)
  2. 画像データの標準化 (normalize)
  3. ORT Webで推論処理を実行 (InferenceSession.run)
  4. 推論結果を整形して表示 (softmax, getClass)

画像データ取得部分はORT Web固有の処理などは無いので難しい部分はないかと思います。次のデータの標準化についてですが、これを前処理として忘れずに行っておきます。具体的には画像の各チャンネル毎に、データセットの全ての画像から算出した平均値を引いて標準偏差で割ってやります。モデルは以下のように作っているので平均や標準偏差も同じ値を使いました。

ここで、ORT WebのTensorデータを作る際の注意点があります。まず、Canvas要素のImageData配列は、RGBARGBARGBA… の順で一次元に画像データが詰め込まれていますが、ORT WebのTensorに変換する際には RRR…GGG…BBB… の順で詰め込む必要があります。配列の大きさも異なり、ImageDataはA(アルファチャンネル)を含み、Tensorは含みません。つまり32×32ピクセルの画像だとImageDataは32x32x4=4096で、Tensorは32x32x3=3072となります。上記実装内ではそれぞれの配列のインデックス計算をして標準化したデータを詰め替えていることになります。わかりにくいですが計算コストを抑えるために同じループ内で処理しています。

ちなみにJavaScript(TypeScript)ではPythonのNumPy ndarrayの操作をシミュレートする ndarray モジュールがあるのでそれを使うのも良いと思います。今回の計算程度でndarrayを使うとコード量自体は逆に増えてしまいますが見た目は読みやすくはなります。

残りのsoftmax関数は文字通りSoftmax関数の計算を行い、モデル(ニューラルネットワーク)の出力結果をカテゴリ毎の確率(信頼度)に変換しています。それからgetClass関数で一番確率が高いカテゴリを返して処理完了となります。上記実装内の predicted 変数に各カテゴリ毎の確率が入っているので、例えば確率トップ5を出したいなら中身をソートして表示すれば良いだけです。今回はテスト画像を32×32ピクセルのものを予め用意していますが、サイズの違う画像を入力にする場合はリサイズ処理も前処理として必要になります。

今回はVue.jsのアプリケーションとして実装しているので表示は以下のようになります。以下は32×32ピクセルの猫の画像を入力にして正しく認識されていることがわかります(約98%の確率でcatであると推論)。

おわりに

今回はORT Webを使った少し実践的なサンプルを作ってみました。ONNXモデルファイルを自前で作る前に、ONNX Model Zooにたくさん転がっているのでまずはそちらを使って遊ぶのが良いです。やはりブラウザで動くのは楽しいですね。

一方で前回の記事にも書きましたが、ORT Webのユーザー層のスキルセットがマッチしないかもという懸念は残ります。上記の実装は少しだけ機械学習の事前知識がないと難しいと感じるかもしれません。ORT Webのインタフェースは必要最低限なので、それを補完するライブラリがあると便利そうです。ORT Webはまだリリースされて間もないので、これからのアップデートに期待したいと思います。

あわせて読む:

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です