ニューラル・ネットワークによる高速スタイル変換

概要

このモデルは、入力された画像に別の画像のスタイルを融合させて新しい画像を生成します。このモデルは ResNet アーキテクチャーを使用したフィード・フォワード型の深層畳み込みネットワークで構成されていて、コンテンツ画像のデータセットと所定のスタイル画像の間で知覚損失関数を使用してトレーニングされています。トレーニングに使用されたのは COCO 2014 データセットと 4 種類のスタイル画像です。モデルに画像を入力すると、スタイル設定された画像が出力されます。このモデルのベースとなっているのは、ニューラル・ネットワークによる Pytorch の高速スタイル変換サンプルです。

モデルのメタデータ

ドメイン アプリケーション 業種 フレームワーク トレーニング・データ 入力データの形式
視覚 スタイル変換 一般 Pytorch COCO 2014 画像 (RGB/HWC)

参考資料

ライセンス

コンポーネント ライセンス リンク
モデルの GitHub リポジトリー Apache 2.0 LICENSE
モデルの重み BSD-3-Clause Pytorch サンプルの LICENSE
モデルのコード (サード・パーティー) BSD-3-Clause Pytorch サンプルの LICENSE
テスト・アセット CC0 サンプルの README

このモデルのデプロイ方法

このモデルは、以下のメカニズムを使用してデプロイできます。

  • Docker Hub からデプロイする場合:

    docker run -it -p 5000:5000 codait/max-fast-neural-style-transfer
    
  • Red Hat OpenShift からデプロイする場合:

    Follow the instructions for the OpenShift web console or the OpenShift Container Platform CLI in this tutorial and specify codait/max-fast-neural-style-transfer as the image name.

  • Kubernetes 上にデプロイする場合:

    kubectl apply -f https://raw.githubusercontent.com/IBM/MAX-Fast-Neural-Style-Transfer/master/max-fast-neural-style-transfer.yaml
    
  • ローカルにデプロイする場合: GitHub 上のモデルの README に記載されている手順に従います。

使用例

モデルをデプロイしたら、コマンド・ラインからモデルをテストできます。以下に例を示します。

curl -F "image=@samples/bridge.jpg" -XPOST http://localhost:5000/model/predict?model=udnie > result.jpg && open result.jpg

上記の例の結果