web-dev-qa-db-ja.com

TensorFlowはnumpy配列からデータセットを作成します

構築するTensorFlowは、データを保存するための優れた方法です。これは、例のMNISTデータを格納するために使用されます。

>>> mnist
<tensorflow.examples.tutorials.mnist.input_data.read_data_sets.<locals>.DataSets object at 0x10f930630>

入力と出力のnumpy配列があるとします。

>>> x = np.random.normal(0,1, (100, 10))
>>> y = np.random.randint(0, 2, 100)

tfデータセットに変換するにはどうすればよいですか?

next_batchなどの関数を使用したい

16
Donbeo

DatasetオブジェクトはMNISTチュートリアルの一部であり、メインのTensorFlowライブラリではありません。

あなたはそれがここで定義されている場所を見ることができます:

GitHubリンク

コンストラクタは画像とラベルの引数を受け入れるため、おそらくそこに独自の値を渡すことができます。

8
Ian Goodfellow

最近、Tensorflowはデータセットapiに機能を追加して、numpy配列を使用します。詳細は here を参照してください。

ここに私がそこからコピーしたスニペットがあります:

# Load the training data into two NumPy arrays, for example using `np.load()`.
with np.load("/var/data/training_data.npy") as data:
  features = data["features"]
  labels = data["labels"]

# Assume that each row of `features` corresponds to the same row as `labels`.
assert features.shape[0] == labels.shape[0]

features_placeholder = tf.placeholder(features.dtype, features.shape)
labels_placeholder = tf.placeholder(labels.dtype, labels.shape)

dataset = tf.data.Dataset.from_tensor_slices((features_placeholder, labels_placeholder))
# [Other transformations on `dataset`...]
dataset = ...
iterator = dataset.make_initializable_iterator()

sess.run(iterator.initializer, feed_dict={features_placeholder: features,
                                          labels_placeholder: labels})
0
MajidL

別の方法として、関数tf.train.batch()を使用してデータのバッチを作成し、同時にtf.placeholderの使用を排除することができます。詳細については、ドキュメントを参照してください。

>>> images = tf.constant(X, dtype=tf.float32) # X is a np.array
>>> labels = tf.constant(y, dtype=tf.int32)   # y is a np.array
>>> batch_images, batch_labels = tf.train.batch([images, labels], batch_size=32, capacity=300, enqueue_many=True)
0
WenFeng Luo