Informationen zur Funktion tf.train.batch in Tensorflow

不言
Freigeben: 2018-04-24 14:13:43
Original
5670 Leute haben es durchsucht

In diesem Artikel wird hauptsächlich die Verwendung der Funktion tf.train.batch in Tensorflow vorgestellt. Jetzt werde ich sie mit Ihnen teilen und Ihnen eine Referenz geben. Schauen wir mal vorbei

Ich habe in den letzten zwei Tagen auf die Warteschlange zum Lesen von Daten in Tensorflow geschaut, um ehrlich zu sein, es ist wirklich schwer zu verstehen. Vielleicht habe ich vorher keine Erfahrung in diesem Bereich. Ich habe Theano zuerst verwendet und alles selbst geschrieben. Nach diesen zwei Tagen der Durchsicht von Dokumenten und zugehörigen Informationen habe ich mich auch mit jüngeren Kommilitonen in China beraten. Ich habe heute ein kleines Gefühl. Vereinfacht ausgedrückt liest das Berechnungsdiagramm Daten aus einer Pipeline. Die Eingabepipeline verwendet eine vorgefertigte Methode, und das Gleiche gilt für das Lesen. Um sicherzustellen, dass das Lesen von Daten aus einer Pipe bei Verwendung mehrerer Threads nicht chaotisch wird, sind beim Lesen zu diesem Zeitpunkt Vorgänge im Zusammenhang mit der Thread-Verwaltung erforderlich. Heute habe ich im Labor einen einfachen Vorgang durchgeführt, der darin bestand, bestellte Daten einzugeben und zu sehen, ob sie bestellt waren, also habe ich den Code direkt eingegeben:

import tensorflow as tf
import numpy as np

def generate_data():
  num = 25
  label = np.asarray(range(0, num))
  images = np.random.random([num, 5, 5, 3])
  print('label size :{}, image size {}'.format(label.shape, images.shape))
  return label, images

def get_batch_data():
  label, images = generate_data()
  images = tf.cast(images, tf.float32)
  label = tf.cast(label, tf.int32)
  input_queue = tf.train.slice_input_producer([images, label], shuffle=False)
  image_batch, label_batch = tf.train.batch(input_queue, batch_size=10, num_threads=1, capacity=64)
  return image_batch, label_batch

image_batch, label_batch = get_batch_data()
with tf.Session() as sess:
  coord = tf.train.Coordinator()
  threads = tf.train.start_queue_runners(sess, coord)
  i = 0
  try:
    while not coord.should_stop():
      image_batch_v, label_batch_v = sess.run([image_batch, label_batch])
      i += 1
      for j in range(10):
        print(image_batch_v.shape, label_batch_v[j])
  except tf.errors.OutOfRangeError:
    print("done")
  finally:
    coord.request_stop()
  coord.join(threads)
Nach dem Login kopieren

Denken Sie an die Methode „slice_input_producer“, die standardmäßig Shuffle erfordert.

Außerdem möchte ich diesen Code kommentieren

1: Es gibt einen Parameter „num_epochs“ in „slice_input_producer“, der steuert, wie viele Epochen die „slice_input_producer“-Methode funktionieren würde Wenn die Methode die angegebenen Epochen ausführt, würde sie den OutOfRangeRrror melden.

2: Die Ausgabe dieser Methode ist ein einzelnes Bild, das wir bearbeiten könnten B. ein einzelnes Bild mit der Tensorflow-API, z. B. Normalisierung, Zuschneiden usw., dann wird dieses einzelne Bild in die Batch-Methode eingespeist, ein Stapel von Bildern zum Training oder Testen würde empfangen werden.

tf Der Unterschied zwischen .train.batch und tf.train.shuffle_batch

tf.train.batch([example, label], batch_size=batch_size, Capacity=capacity): [example, label ] stellt die Probe und das Probenetikett dar, bei denen es sich um eine Probe und ein Probenetikett handeln kann, und „batch_size“ ist die Anzahl der Proben in einem zurückgegebenen Batch-Probensatz. Kapazität ist die Kapazität in der Warteschlange. Dies wird hauptsächlich in einem Batch zusammengefasst

tf.train.shuffle_batch([example, label], batch_size=batch_size, Capacity=capacity, min_after_dequeue) der Reihe nach. Die Parameter haben hier die gleiche Bedeutung wie oben. Der Unterschied ist der Parameter min_after_dequeue. Sie müssen sicherstellen, dass dieser Parameter kleiner als der Wert des Kapazitätsparameters ist, sonst tritt ein Fehler auf. Dies bedeutet, dass ein Stapel in ungeordneter Reihenfolge ausgegeben wird, wenn die Elemente in der Warteschlange größer sind. Mit anderen Worten, das Ausgabeergebnis dieser Funktion ist ein Stapel von Proben, die nicht in der richtigen Reihenfolge, sondern in der falschen Reihenfolge angeordnet sind.

Die oben genannten Funktionsrückgabewerte sind alle Proben und Probenetiketten einer Charge, aber eines ist in Ordnung und das andere ist zufällig

Verwandte Empfehlungen:

tensorflow So verwenden Sie Flags zum Definieren von Befehlszeilenparametern

Verwendung von Tensorflow's Saver

Das obige ist der detaillierte Inhalt vonInformationen zur Funktion tf.train.batch in Tensorflow. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:php.cn
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage
Über uns Haftungsausschluss Sitemap
Chinesische PHP-Website:Online-PHP-Schulung für das Gemeinwohl,Helfen Sie PHP-Lernenden, sich schnell weiterzuentwickeln!