TensorFlow에서 정규화를 추가하는 방법은 무엇입니까?


94

TensorFlow를 사용하여 구현 된 많은 사용 가능한 신경망 코드에서 정규화 용어는 손실 값에 추가 용어를 수동으로 추가하여 구현되는 경우가 많습니다.

내 질문은 다음과 같습니다.

  1. 수동으로 수행하는 것보다 더 우아하거나 권장되는 정규화 방법이 있습니까?

  2. 나는 또한 그것이 get_variable논쟁 을 가지고 있음 을 발견했다 regularizer. 어떻게 사용해야합니까? 내 관찰에 따르면 정규화를 여기에 전달하면 (예 : tf.contrib.layers.l2_regularizer정규화 된 용어를 나타내는 텐서가 계산되어이라는 그래프 컬렉션에 추가됩니다 tf.GraphKeys.REGULARIZATOIN_LOSSES. 해당 컬렉션이 TensorFlow에서 자동으로 사용됩니까 (예 : 학습시 최적화 프로그램에서 사용됨)? 또는 이 컬렉션을 혼자서 사용해야하나요?


1
엄청나게 명시 적으로 표현하는 방법은 무엇 S = tf.get_variable(name='S', regularizer=tf.contrib.layers.l2_regularizer )입니까?
피노키오

@Pinocchio 당신은 그것을 알아 냈습니까?
Euler_Salter

2
@Euler_Salter 더 이상 기억이 나지 않습니다, 죄송합니다! 더 이상 텐서 흐름을 사용하지 않습니다!
피노키오

답변:


70

두 번째 요점에서 말했듯이 regularizer인수를 사용하는 것이 권장되는 방법입니다. 에서 사용 get_variable하거나 한 번 설정하고 variable_scope모든 변수를 정규화 할 수 있습니다.

손실은 그래프에 수집되며 이와 같이 비용 함수에 수동으로 추가해야합니다.

  reg_losses = tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES)
  reg_constant = 0.01  # Choose an appropriate one.
  loss = my_normal_loss + reg_constant * sum(reg_losses)

도움이 되었기를 바랍니다.


2
고마워요. 나는 TensorFlow가 수동으로하는 것보다 reg 용어를 처리하는 더 지능적인 방법을 가질 것이라고 생각하고 있었는데, 그렇지 않은 것 같습니다. : P
Lifu Huang

14
BTW, 두 가지 제안, 내가 틀렸다면 수정하십시오. (1) reg_constantTensorFlow의 정규화는 scale생성자에 인수 가 있으므로 reg 용어의 영향을보다 세밀한 방식으로 제어 할 수 있으므로 필요하지 않을 수 있습니다. 그리고 (2) 사용하는 tf.add_n것이.보다 약간 더 좋을 수 있습니다. sumsum을 사용하면 중간 결과를 저장하기 위해 그래프에 많은 텐서를 만들 수 있다고 생각합니다.
Lifu Huang

1
그래서 그것을 매우 명확하게하기 위해, 정규화를 변수 S = tf.get_variable(name='S', regularizer=tf.contrib.layers.l2_regularizer )에 넣은 후 제안한 코드를 사용합니까? 에서와 같이 sum(tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES))?
Pinocchio

1
가중치 변수를 tf.get_collection (tf.GraphKeys.REGULARIZATION_LOSSES)에서 검색 할 수있는 컬렉션의 일부로 만드는 방법을 보여줄 수 있습니까?
Yu Shen

3
tf.reduce_sum대신 사용해야하는 것 같습니다. sum?
ComputerScientist

45

기존 답변의 몇 가지 측면이 즉시 명확하지 않았으므로 다음은 단계별 가이드입니다.

  1. 정규화기를 정의하십시오. 여기에서 정규화 상수를 설정할 수 있습니다. 예 :

    regularizer = tf.contrib.layers.l2_regularizer(scale=0.1)
  2. 다음을 통해 변수를 만듭니다.

        weights = tf.get_variable(
            name="weights",
            regularizer=regularizer,
            ...
        )

    마찬가지로 일반 weights = tf.Variable(...)생성자 를 통해 변수를 생성 한 다음 tf.add_to_collection(tf.GraphKeys.REGULARIZATION_LOSSES, weights).

  3. loss용어를 정의 하고 정규화 용어를 추가합니다.

    reg_variables = tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES)
    reg_term = tf.contrib.layers.apply_regularization(regularizer, reg_variables)
    loss += reg_term

    참고 : tf.contrib.layers.apply_regularization으로 구현 된 것처럼 보이 AddN므로 sum(reg_variables).


10
정규화를 두 번 적용하고 있다고 생각합니다 apply_regularization. 변수를 만들 때 이미 정규화를 지정한 경우 3 단계와 3 단계 모두에서 필요하지 않아야합니다.
interjay

2
@interjay 예를 들어주세요.이 모든 답변은 매우 명확하지 않습니다! 위의 답변에 문제가 있다는 의견을 작성하는 사람이 항상 최소 한 명 이상 있기 때문입니다.
Euler_Salter

1
@interjay 나는 이것을 마지막으로 테스트했을 때 두 가지를 모두 수행해야한다고 확신합니다. 그래도 이것이 변경되었는지 확실하지 않습니다.
bluenote10 2017

1
아니요, 두 함수에 동일한 정규화 프로그램을 전달할 필요가 없기 때문에 의미가 없습니다. 문서 (및 이름)는 REGULARIZATION_LOSSES정규화 프로그램에서 반환 된 총 손실 임을 명확히 하므로 기본적으로 regularizer(regularizer(weight)).
interjay

1
여기서 혼란은 "동등한"부분에서 비롯된 것 같습니다. 그는 두 가지 다른 방법을 설명하고 당신은 하나를 선택합니다. 그것은 정규화를 두 번 적용하는 하나의 방법이 아닙니다.
gcp

28

정답을 찾지 못 했으므로 간단한 정답을 제공하겠습니다. 두 가지 간단한 단계가 필요하며 나머지는 tensorflow 매직에 의해 수행됩니다.

  1. 변수 또는 레이어를 만들 때 정규화를 추가합니다.

    tf.layers.dense(x, kernel_regularizer=tf.contrib.layers.l2_regularizer(0.001))
    # or
    tf.get_variable('a', regularizer=tf.contrib.layers.l2_regularizer(0.001))
  2. 손실을 정의 할 때 정규화 용어를 추가하십시오.

    loss = ordinary_loss + tf.losses.get_regularization_loss()

regularizer = tf.contrib.layers.l2_regularizer (0.001)로 정규화 작업을 생성하는 경우 여러 계층 시작에 전달할 수 있습니까? 또는 regularizer1 = tf.contrib.layers.l2_regularizer (0.001), regularizer2 = ................. regularizer3 = ...와 같은 각 레이어에 대해 별도의 정규화를 만들어야합니까? .. 등등?
MiloMinderbinder

@Nitin 동일한 정규화기를 사용할 수 있습니다. 가중치에 손실을 인수로 적용하는 파이썬 함수일뿐입니다.
alyaxey

1
이것은 가장 우아한 솔루션처럼 보이지만 실제로 작동합니까? 이것이 말하는 것과 어떻게 다른가요 reg_variables = tf.get_collection (tf.GraphKeys.REGULARIZATION_LOSSES) reg_term = tf.contrib.layers.apply_regularization (regularizer, reg_variables) loss + = reg_term
GeorgeOfTheRF

1
tf.contrib.layers.fully_connected가 tf.layers.dense를 대체하고 더 많은 기능을 추가 할 수 있음을 언급하고 싶습니다. 다음을 참조하십시오 : , , 및 .
Osama Salah

16

이 작업을 수행하는 또 다른 옵션 contrib.learn라이브러리 은 Tensorflow 웹 사이트 의 Deep MNIST 자습서 를 기반으로하는 다음과 같습니다 . 먼저 관련 라이브러리 (예 :)를 가져 왔다고 가정 import tensorflow.contrib.layers as layers하고 별도의 방법으로 네트워크를 정의 할 수 있습니다.

def easier_network(x, reg):
    """ A network based on tf.contrib.learn, with input `x`. """
    with tf.variable_scope('EasyNet'):
        out = layers.flatten(x)
        out = layers.fully_connected(out, 
                num_outputs=200,
                weights_initializer = layers.xavier_initializer(uniform=True),
                weights_regularizer = layers.l2_regularizer(scale=reg),
                activation_fn = tf.nn.tanh)
        out = layers.fully_connected(out, 
                num_outputs=200,
                weights_initializer = layers.xavier_initializer(uniform=True),
                weights_regularizer = layers.l2_regularizer(scale=reg),
                activation_fn = tf.nn.tanh)
        out = layers.fully_connected(out, 
                num_outputs=10, # Because there are ten digits!
                weights_initializer = layers.xavier_initializer(uniform=True),
                weights_regularizer = layers.l2_regularizer(scale=reg),
                activation_fn = None)
        return out 

그런 다음 기본 메서드에서 다음 코드 조각을 사용할 수 있습니다.

def main(_):
    mnist = input_data.read_data_sets(FLAGS.data_dir, one_hot=True)
    x = tf.placeholder(tf.float32, [None, 784])
    y_ = tf.placeholder(tf.float32, [None, 10])

    # Make a network with regularization
    y_conv = easier_network(x, FLAGS.regu)
    weights = tf.get_collection(tf.GraphKeys.TRAINABLE_VARIABLES, 'EasyNet') 
    print("")
    for w in weights:
        shp = w.get_shape().as_list()
        print("- {} shape:{} size:{}".format(w.name, shp, np.prod(shp)))
    print("")
    reg_ws = tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES, 'EasyNet')
    for w in reg_ws:
        shp = w.get_shape().as_list()
        print("- {} shape:{} size:{}".format(w.name, shp, np.prod(shp)))
    print("")

    # Make the loss function `loss_fn` with regularization.
    cross_entropy = tf.reduce_mean(
        tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y_conv))
    loss_fn = cross_entropy + tf.reduce_sum(reg_ws)
    train_step = tf.train.AdamOptimizer(1e-4).minimize(loss_fn)

이 작업을 수행하려면 앞서 링크 한 MNIST 자습서를 따라 관련 라이브러리를 가져와야하지만 TensorFlow를 배우는 것은 좋은 연습이며 정규화가 출력에 어떤 영향을 미치는지 쉽게 확인할 수 있습니다. 정규화를 인수로 적용하면 다음을 볼 수 있습니다.

- EasyNet/fully_connected/weights:0 shape:[784, 200] size:156800
- EasyNet/fully_connected/biases:0 shape:[200] size:200
- EasyNet/fully_connected_1/weights:0 shape:[200, 200] size:40000
- EasyNet/fully_connected_1/biases:0 shape:[200] size:200
- EasyNet/fully_connected_2/weights:0 shape:[200, 10] size:2000
- EasyNet/fully_connected_2/biases:0 shape:[10] size:10

- EasyNet/fully_connected/kernel/Regularizer/l2_regularizer:0 shape:[] size:1.0
- EasyNet/fully_connected_1/kernel/Regularizer/l2_regularizer:0 shape:[] size:1.0
- EasyNet/fully_connected_2/kernel/Regularizer/l2_regularizer:0 shape:[] size:1.0

정규화 부분은 사용 가능한 항목에 따라 세 가지 항목을 제공합니다.

0, 0.0001, 0.01 및 1.0의 정규화를 사용하면 각각 0.9468, 0.9476, 0.9183 및 0.1135의 테스트 정확도 값을 얻어 높은 정규화 항의 위험을 보여줍니다.


2
정말 상세한 예입니다.
stackoverflowuser2010

5

누군가가 여전히 찾고 있다면 tf.keras에 추가하고 싶습니다. 레이어에서 인수로 전달하여 가중치 정규화를 추가 할 수 있습니다. Tensorflow Keras Tutorials 사이트에서 전체적으로 가져온 L2 정규화를 추가하는 예 :

model = keras.models.Sequential([
    keras.layers.Dense(16, kernel_regularizer=keras.regularizers.l2(0.001),
                       activation=tf.nn.relu, input_shape=(NUM_WORDS,)),
    keras.layers.Dense(16, kernel_regularizer=keras.regularizers.l2(0.001),
                       activation=tf.nn.relu),
    keras.layers.Dense(1, activation=tf.nn.sigmoid)
])

내가 아는 한이 방법으로 정규화 손실을 수동으로 추가 할 필요가 없습니다.

참조 : https://www.tensorflow.org/tutorials/keras/overfit_and_underfit#add_weight_regularization


4

I 테스트 tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES)tf.losses.get_regularization_loss()하나 l2_regularizer의 그래프에서, 그들은 동일한 값을 반환하였습니다. 값의 양을 관찰하면 reg_constant가 매개 변수를 설정하여 이미 값을 이해했다고 생각 tf.contrib.layers.l2_regularizer합니다.


3

CNN이있는 경우 다음을 수행 할 수 있습니다.

모델 기능에서 :

conv = tf.layers.conv2d(inputs=input_layer,
                        filters=32,
                        kernel_size=[3, 3],
                        kernel_initializer='xavier',
                        kernel_regularizer=tf.contrib.layers.l2_regularizer(1e-5),
                        padding="same",
                        activation=None) 
...

손실 함수에서 :

onehot_labels = tf.one_hot(indices=tf.cast(labels, tf.int32), depth=num_classes)
loss = tf.losses.softmax_cross_entropy(onehot_labels=onehot_labels, logits=logits)
regularization_losses = tf.losses.get_regularization_losses()
loss = tf.add_n([loss] + regularization_losses)

1

좀 더 혼란스러워하는 답변이 있는데, 두 가지 방법으로 명확하게 설명하겠습니다.

#1.adding all regs by hand
var1 = tf.get_variable(name='v1',shape=[1],dtype=tf.float32)
var2 = tf.Variable(name='v2',initial_value=1.0,dtype=tf.float32)
regularizer = tf.contrib.layers.l1_regularizer(0.1)
reg_term = tf.contrib.layers.apply_regularization(regularizer,[var1,var2])
#here reg_term is a scalar

#2.auto added and read,but using get_variable
with tf.variable_scope('x',
        regularizer=tf.contrib.layers.l2_regularizer(0.1)):
    var1 = tf.get_variable(name='v1',shape=[1],dtype=tf.float32)
    var2 = tf.get_variable(name='v2',shape=[1],dtype=tf.float32)
reg_losses = tf.get_collection(tf.GraphKeys.REGULARIZATION_LOSSES)
#here reg_losses is a list,should be summed 

그런 다음 총 손실에 추가 할 수 있습니다.


1
cross_entropy = tf.losses.softmax_cross_entropy(
  logits=logits, onehot_labels=labels)

l2_loss = weight_decay * tf.add_n(
     [tf.nn.l2_loss(tf.cast(v, tf.float32)) for v in tf.trainable_variables()])

loss = cross_entropy + l2_loss

1
제한적이고 즉각적인 도움을 제공 할 수있는이 코드 스 니펫에 감사드립니다. 적절한 설명은 이것이 문제에 대한 좋은 해결책 인 이유를 보여줌으로써 장기적인 가치를 크게 향상시키고 다른 유사한 질문을 가진 미래의 독자에게 더 유용하게 만들 것입니다. 귀하의 가정을 포함하여 몇 가지 설명을 추가하려면 답변을 편집하십시오.
Maximilian Peters

1

tf.GraphKeys.REGULARIZATION_LOSSES 자동으로 추가되지는 않지만 간단한 방법으로 추가 할 수 있습니다.

reg_loss = tf.losses.get_regularization_loss()
total_loss = loss + reg_loss

tf.losses.get_regularization_loss()요소 별 tf.add_n항목을 합산하는 데 사용 됩니다 tf.GraphKeys.REGULARIZATION_LOSSES. tf.GraphKeys.REGULARIZATION_LOSSES일반적으로 정규화 함수를 사용하여 계산 된 스칼라 목록입니다. 이 호출에서 항목을 얻을 수 tf.get_variableregularizer지정된 매개 변수를. 해당 컬렉션에 수동으로 추가 할 수도 있습니다. 이는 tf.Variable활동 정규화 프로그램 또는 기타 사용자 지정 정규화 프로그램을 사용 하고 지정할 때 유용합니다 . 예를 들면 :

#This will add an activity regularizer on y to the regloss collection
regularizer = tf.contrib.layers.l2_regularizer(0.1)
y = tf.nn.sigmoid(x)
act_reg = regularizer(y)
tf.add_to_collection(tf.GraphKeys.REGULARIZATION_LOSSES, act_reg)

(이 예에서는 y가 큰 x에 대해 실제로 평평 해지기 때문에 x를 정규화하는 것이 더 효과적 일 것입니다.)

당사 사이트를 사용함과 동시에 당사의 쿠키 정책개인정보 보호정책을 읽고 이해하였음을 인정하는 것으로 간주합니다.
Licensed under cc by-sa 3.0 with attribution required.