[英]Serving tensorflow model as a REST API in Flask / Bottle
我在Python瓶(或烧瓶)框架中服务我的tensorflow模型,但我想知道如何启用GPU。
我就是这样创建会话的。
with tf.Session(graph=graph) as sess:
np_pred_confs, np_pred_boxes = sess.run([pred_confs, pred_boxes], feed_dict=feed_dict_testing)
我在GPU机器上运行代码时应进行哪些更改以启用GPU的使用。
您只需要安装GPU版本的tensorflow就可以使用GPU。 它将自动使用gpu。 此外,您需要为GPU版本tensorflow安装cuda和cudnn。
除了安装TensorFlow的GPU版本之外,您还需要安装:
请参阅每个操作系统的安装说明:
如果您在运行入门示例时看到此消息,就会知道它正常工作]( https://www.tensorflow.org/get_started/get_started#complete_program ):
Found device 0 with properties: name: GeForce GTX...
和
Creating TensorFlow device (/gpu:0) -> (device: 0, name: GeForce GTX
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.