ディープラーニングの単眼画像Depth推定を試す

公開日: : Python, ディープラーニング, 画像処理

スポンサーリンク

前々から気になっていた写真から立体を推定するCNNのディープラーニングの技術をオープンソースになっているコードで試してみました。OSはWindows10です。

環境構築

ソースコード

 ソースコートは「FCRN-DepthPrediction」のtensorflow版を使わせていただきました。任意のフォルダでcloneしてきます。

git clone https://github.com/iro-cp/FCRN-DepthPrediction.git

Anaconda環境構築

 AnacondaでPythonのバージョンは3.5とした仮想環境を新規に作成して、次のコマンドでtensorflowの環境を準備しました。バージョンの指定は見当たらなかったので指定はしませんでしたがちゃんと動きました。とりあえずトレーニングはしないのでCPU版をインストール。私は今回Anacondaを使いましたが、ここは各々好きにしてください。

pip install numpy
pip install matplotlib
pip install tensorflow

Anacondaの仮想環境は以前にも利用したことがあるので、もしわからなければこちらを参考にしてみてください。

モデルファイルダウンロード

 学習済みモデルとなるNYU_FCRN.ckptはGithubのreadmeのModelsの「TensorFlow model (.ckpt)」からダウンロードできます。NYU_FCRN-checkpoint.zipを解凍すると以下のファイルが出てきますのでそれらを先ほどクローンしてきた「FCRN-DepthPrediction/tensorflow」に移動します。

NYU_FCRN.ckpt.data-00000-of-00001
NYU_FCRN.ckpt.index
NYU_FCRN.ckpt.meta

実行

 tensorflowのフォルダへ移動してpredict.pyに学習済みモデルパスと画像ファイルパスを指定して実行します。モデルのパスはpredict.pyと同層であれば以下のようになります。

cd FCRN-DepthPrediction/tensorflow
python predict.py NYU_FCRN.ckpt [画像ファイルパス]

 tensorflowはほとんど使ったことがなかったので知らなかったのですが、NYU_FCRN.ckptというファイルはありませんが、predict.pyに指定するパスは「NYU_FCRN.ckpt」でOKです。

結果

元画像

デプス推定画像

なんとなくちゃんとデプスが推定できました。

まとめ

 オープンソースコードを利用することでただの写真(RGB画像)からデプスを推定することができました。次はこの結果がどのくらいの出来なのかある程度分かるようにしたいと思います。

次→「2D写真から立体視画像を作成してみた

スポンサーリンク
Amazon

  • このエントリーをはてなブックマークに追加

関連記事

[DAZ Studio]目線をカメラに向ける方法

DAZ Studioでフィギュアの目線をカメラに向ける方法についてです

[TortoiseGit]ブランチ作成とマージの方法(ローカル)

 私はGitを使うときはTortoiseGitを利用しているのですが、

[DAZ Studio]背景がぼけているCG絵を作成する方法(カメラぼけ)

 DAZ Studioで作成されたCGを見ていると背景がぼけている作品

[DAZ Studio]HDRIで背景&光源を設定する方法

 リアリティのあるCGを作成するにはリアルな背景も重要になってきます。

[DAZ Studio]フィギュアの眉毛を修正する

フィギュアによってはデフォルトで眉毛付きのものもあると思いますが、中に

→もっと見る

  • Author : ががんぼ
    プログラミングやWeb関係で気付いたことについてメモしていく予定。だいたいが備忘録ですが、自分でサンプルを作って動かしてみたりしています。