シーン分類子

概要

このモデルは、Places2 データセットの Places365-Standard サブセットに含まれる 365 個のシーン/場所のクラスを認識します。このモデルは Places365-CNN モデルをベースとしていて、ResNet アーキテクチャーを使用した事前トレーニング済みの深層畳み込みネットワークで構成されています。モデルのトレーニングには ImageNet-2012 データセットが使用されています。事前トレーニング済みのモデルには、Places365-Standard データセットで微調整を加えています。モデルに 224×224 の画像を入力すると、推定したクラス確率のリストが出力されます。使用している特定のモデル・バリアントは、PyTorch Places365 ResNet18 モデルです。

モデルのメタデータ

ドメイン アプリケーション 業種 フレームワーク トレーニング・データ 入力データの形式
視覚 画像分類 一般 Pytorch Places365 画像 (RGB/HWC)

参考資料

ライセンス

コンポーネント ライセンス リンク
モデルの GitHub リポジトリー Apache 2.0 LICENSE
モデルの重み CC BY の LICENSE Places365-CNN モデルのライセンス
モデルのコード (サード・パーティー) MIT Places365-CNN の LICENSE
テスト・アセット CC0 サンプルの README

このモデルのデプロイ方法

このモデルは、以下のメカニズムを使用してデプロイできます。

  • Docker Hub からデプロイする場合:

    docker run -it -p 5000:5000 codait/max-scene-classifier
    
  • Red Hat OpenShift からデプロイする場合:

    Follow the instructions for the OpenShift web console or the OpenShift Container Platform CLI in this tutorial and specify codait/max-scene-classifier as the image name.

  • Kubernetes 上にデプロイする場合:

    kubectl apply -f https://raw.githubusercontent.com/IBM/MAX-Scene-Classifier/master/max-scene-classifier.yaml
    
  • ローカルにデプロイする場合: GitHub 上のモデルの README に記載されている手順に従います。

使用例

このモデルをテストまたは使用するには、以下の方法があります。

cURL を使用してモデルをテストする

モデルをデプロイしたら、コマンド・ラインからモデルをテストできます。例えばローカルで実行する場合は、以下のコマンドを使用します。

curl -F "image=@samples/aquarium.jpg" -XPOST http://localhost:5000/model/predict

以下のような JSON レスポンスが表示されるはずです。

{
  "status": "ok",
  "predictions": [
    {
      "label_id": "9",
      "label": "aquarium",
      "probability": 0.97350615262985
    },
    {
      "label_id": "342",
      "label": "underwater\/ocean_deep",
      "probability": 0.0062678409740329
    }
  ]
}

Node-RED フロー内でモデルをテストする

node-red-contrib-model-asset-exchange モジュールのセットアップ手順に従った後、scene-classifier 開始フローをインポートします。