Begrenzung der TensorFlow-GPU-Speicherzuweisung
Das Standardverhalten von TensorFlow weist beim Start den gesamten verfügbaren GPU-Speicher zu, was in gemeinsam genutzten Rechenumgebungen eine Herausforderung darstellt. Wenn Sie gleichzeitiges Training auf derselben GPU mit mehreren Benutzern ausführen, muss unbedingt ein übermäßiger Speicherverbrauch verhindert werden.
Lösung: GPU-Speicherfraktion
Um dieses Problem zu beheben, hat TensorFlow Bietet die Option, einen Bruchteil des GPU-Speichers anzugeben, der zugewiesen werden soll. Durch Festlegen des Felds per_process_gpu_memory_fraction in einem tf.GPUOptions-Objekt können Sie den Speicherverbrauch begrenzen. Hier ist ein Beispiel:
# Restrict memory allocation to 4GB on a 12GB GPU gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.333) # Create a session with the GPU options sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options))
Dieser Ansatz bietet eine harte Obergrenze für die GPU-Speichernutzung für den aktuellen Prozess auf allen GPUs auf demselben Computer. Beachten Sie jedoch, dass dieser Anteil einheitlich auf alle GPUs angewendet wird und es keine Option für die Speicherzuweisung pro GPU gibt.
Das obige ist der detaillierte Inhalt vonWie kann ich die GPU-Speicherzuweisung von TensorFlow einschränken?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!