五月综合激情婷婷六月,日韩欧美国产一区不卡,他扒开我内裤强吻我下面视频 ,无套内射无矿码免费看黄,天天躁,日日躁,狠狠躁

新聞動態(tài)

TensorFlow和keras中GPU使用的設(shè)置操作

發(fā)布日期:2022-08-05 14:50 | 文章來源:CSDN

1. 訓(xùn)練運(yùn)行時(shí)候指定GPU

運(yùn)行時(shí)候加一行代碼:

CUDA_VISIBLE_DEVICES=1 python train.py

2. 運(yùn)行過程中按需或者定量分配GPU

tensorflow直接在開啟Session時(shí)候加幾行代碼就行,而Keras指定GPU,并限制按需用量和TensorFlow不太一樣,因?yàn)閗eras訓(xùn)練是封裝好的,不好對Session操作。如下是兩種對應(yīng)的操作。

keras中的操作:

import os
import tensorflow as tf
from keras.backend.tensorflow_backend import set_session
 
# 指定第一塊GPU可用 
os.environ["CUDA_VISIBLE_DEVICES"] = "0" #指定GPU的第二種方法
 
config = tf.ConfigProto()
config.gpu_options.allocator_type = 'BFC' #A "Best-fit with coalescing" algorithm, simplified from a version of dlmalloc.
config.gpu_options.per_process_gpu_memory_fraction = 0.3 #定量
config.gpu_options.allow_growth = True  #按需
set_session(tf.Session(config=config)) 

TensorFlow中的操作:

#指定GPU
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "0"
 
#設(shè)置GPU定量分配
config = tf.ConfigProto() 
config.gpu_options.per_process_gpu_memory_fraction = 0.9 # 占用GPU90%的顯存 
session = tf.Session(config=config)
 
#設(shè)置GPU按需分配
config = tf.ConfigProto() 
config.gpu_options.allow_growth = True 
session = tf.Session(config=config)

補(bǔ)充:Keras以及Tensorflow強(qiáng)制使用CPU,GPU

Keras如果是使用Theano后端的話,應(yīng)該是自動不使用GPU只是用CPU的,啟動GPU使用Theano內(nèi)部命令即可。

對于Tensorflow后端的Keras以及Tensorflow會自動使用可見的GPU,而我需要其必須只運(yùn)行在CPU上。網(wǎng)上查到三種方法,最后一種方法對我有用,但也對三種都做如下記錄:

使用tensorflow的 with tf.device('/cpu:0'):函數(shù)。簡單操作就是把所有命令都放在前面所述的域里面。

使用tensorflow聲明Session時(shí)的參數(shù): 關(guān)于tensorflow中Session中的部分參數(shù)設(shè)置,以及Keras如何設(shè)置其調(diào)用的Tensorflow的Session,可以參見Keras設(shè)定GPU使用內(nèi)存大小(Tensorflow backend)。

對于Tensorflow,聲明Session的時(shí)候加入device_count={'gpu':0}即可,代碼如下:

import tensorflow as tf  
sess = tf.Session(config=tf.ConfigProto(device_count={'gpu':0}))

對于Keras,則調(diào)用后端函數(shù),設(shè)置其使用如上定義的Session即可,代碼如下:

import tensorflow as tf
import keras.backend.tensorflow_backend as KTF 
KTF.set_session(tf.Session(config=tf.ConfigProto(device_count={'gpu':0})))

對于多線程以及GPU內(nèi)存設(shè)置等可以參見Keras設(shè)定GPU使用內(nèi)存大小(Tensorflow backend)。

3、第三種是使用CUDA_VISIBLE_DEVICES命令行參數(shù),代碼如下:

CUDA_VISIBLE_DEVICES="0" python3 train.py

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持本站。

香港穩(wěn)定服務(wù)器

版權(quán)聲明:本站文章來源標(biāo)注為YINGSOO的內(nèi)容版權(quán)均為本站所有,歡迎引用、轉(zhuǎn)載,請保持原文完整并注明來源及原文鏈接。禁止復(fù)制或仿造本網(wǎng)站,禁止在非maisonbaluchon.cn所屬的服務(wù)器上建立鏡像,否則將依法追究法律責(zé)任。本站部分內(nèi)容來源于網(wǎng)友推薦、互聯(lián)網(wǎng)收集整理而來,僅供學(xué)習(xí)參考,不代表本站立場,如有內(nèi)容涉嫌侵權(quán),請聯(lián)系alex-e#qq.com處理。

相關(guān)文章

實(shí)時(shí)開通

自選配置、實(shí)時(shí)開通

免備案

全球線路精選!

全天候客戶服務(wù)

7x24全年不間斷在線

專屬顧問服務(wù)

1對1客戶咨詢顧問

在線
客服

在線客服:7*24小時(shí)在線

客服
熱線

400-630-3752
7*24小時(shí)客服服務(wù)熱線

關(guān)注
微信

關(guān)注官方微信
頂部