가장 작은 이미지 크기를로 조정 하는와 tensorflow
동등한 작업을 시도 하고 있습니다. 이 같은torch.transforms.Resize(TRAIN_IMAGE_SIZE)
TRAIN_IMAGE_SIZE
def transforms(filename):
parts = tf.strings.split(filename, '/')
label = parts[-2]
image = tf.io.read_file(filename)
image = tf.image.decode_jpeg(image)
image = tf.image.convert_image_dtype(image, tf.float32)
# this doesn't work with Dataset.map() because image.shape=(None,None,3) from Dataset.map()
image = largest_sq_crop(image)
image = tf.image.resize(image, (256,256))
return image, label
list_ds = tf.data.Dataset.list_files('{}/*/*'.format(DATASET_PATH))
images_ds = list_ds.map(transforms).batch(4)
간단한 대답은 다음과 같습니다. Tensorflow : 이미지의 가장 큰 중앙 사각형 영역 자르기
그러나와 함께 메소드를 사용하면 내부에서 tf.data.Dataset.map(transforms)
얻습니다 . 정상적으로 호출하면 메소드가 제대로 작동합니다.shape=(None,None,3)
largest_sq_crop(image)
의 정의를 포함 할 수 있습니까
—
jakub
largest_sq_crop
?
EagerTensors
안에 존재하지 않는Dataset.map()
모양 과 관련이 있다고 생각하여 모양을 알 수 없다. 해결 방법이 있습니까?