前書き
今回はその続きに似てるかもしれませんが今回はCUDAを入れたことによりTensorFlowでGPUが動くかどうか確認する方法を記載しておきます。
まぁこれも備忘録ですね。
自分は今までTensorFlowのバージョン1.14.0と2.2.0しか使ったことがないのですが、この2つは確認の方法が違いました。
もしかしたら1.x系と2.x系とで確認方法が変わったのかな?と思いました。
先程2パターンともTensorFlow2.2.0で試せました。なんで前はエラーになったんでしょうか。。。
とりあえず2つの確認方法を記載します。
TensorFlowでGPU認識しているか確認する方法
TensorFlow-gpuが入っていること
・確認方法その1
from tensorflow.python.client import device_lib device_lib.list_local_devices()上記コードを実行して下記のようなdevice_typeにGPUが表示されればGPU認識されている
incarnation: 9970392008659586682 physical_device_desc: "device: XLA_CPU device" , name: "/device:XLA_GPU:0" device_type: "XLA_GPU" memory_limit: 17179869184 locality { } incarnation: 3756894047040760288 physical_device_desc: "device: XLA_GPU device" , name: "/device:GPU:0" device_type: "GPU" memory_limit: 10691777664 locality { bus_id: 1 links { } }ちなみに私が試した時は以下の結果が表示されました。
この時のtensorflow-gpuのバージョンは2.2.0です。


・確認方法その2
import tensorflow as tf tf.test.is_gpu_available()上記を実行して「True」が表示されればGPU認識されれている
GPU (device: 0, name: NVIDIA GeForce RTX 2080 Ti, pci bus id: 0000:09:00.0, compute capability: 7.5) True


私はこの2パターンしか試したことがないのですが、おそらくこの2つで大体確認できるのではないでしょうか。
・確認方法その3(TensorFlowのバージョン1.x系のみ)
どうやらTensorFlowのバージョンが1.x系だと以下の方法でも確認できるようです(私はまだ試していませんが。。。)import tensorflow as tf s = tf.Session()これを実行してGPUが認識されているとgpu_deviceとかphysical GPUなどといった表記が表示されるそうです。