Difference between r1.3 and the current
@@ -1,4 +1,5 @@
[[pagelist(^(머신러닝스터디/2016))]]
[머신러닝스터디/2016]
[머신러닝스터디/2016/목차]
== 내용 ==* 지난 시간에 loss function이 동작하지 않던 원인 수정
* layer를 하나 더 추가하여 relu 사용해봄.
내용 ¶
- 지난 시간에 loss function이 동작하지 않던 원인 수정
- layer를 하나 더 추가하여 relu 사용해봄.
코드 ¶
import tensorflow as tf # AND OR NXOR XOR # (0, 0) => 0 (0, 0) => 0 (0, 0) => 1 (0, 0) => 0 # (0, 1) => 0 (0, 1) => 1 (0, 1) => 0 (0, 1) => 1 # (1, 0) => 0 (1, 0) => 1 (1, 0) => 0 (1, 0) => 1 # (1, 1) => 1 (1, 1) => 1 (1, 1) => 1 (1, 1) => 0 W1 = tf.Variable(tf.random_uniform([2, 3])) b1 = tf.Variable(tf.random_uniform([3])) W2 = tf.Variable(tf.random_uniform([3, 2])) b2 = tf.Variable(tf.random_uniform([2])) W3 = tf.Variable(tf.random_uniform([2, 1])) b3 = tf.Variable(tf.random_uniform([1])) def logic_gate(x): hidden1 = tf.nn.relu(tf.matmul(x, W1) + b1) hidden2 = tf.nn.relu(tf.matmul(hidden1, W2) + b2) return tf.nn.sigmoid(tf.matmul(hidden2, W3) + b3) x = tf.placeholder("float", [None, 2]) y = tf.placeholder("float", [None, 1]) value = logic_gate(x) loss = -tf.reduce_mean((y*tf.log(value) + (1-y)*tf.log(1-value))) optimize = tf.train.AdagradOptimizer(0.01).minimize(loss) init = tf.initialize_all_variables() with tf.Session() as sess: sess.run(init) for i in range(30001): result = sess.run(optimize, feed_dict={x: [[0, 0], [0, 1], [1, 0], [1, 1]], y: [[1], [0], [0], [1]]}) if (i % 1000 == 0): print("Epoch: ", i) print(sess.run([value, loss], feed_dict={x: [[0, 0], [0, 1], [1, 0], [1, 1]], y: [[1], [0], [0], [1]]}))