[머신러닝스터디/2016] [머신러닝스터디/2016/목차] == 내용 == * [https://github.com/aymericdamien/TensorFlow-Examples/blob/master/examples/2%20-%20Basic%20Classifiers/logistic_regression.py Logistic Regression(Binary Regression)] https://upload.wikimedia.org/math/8/e/a/8ea0a810cfcd0c3dfec49306e214e301.png * Softmax * exponential을 쓴다. * 아래는 Tensorflow API 정의 {{{softmax[i, j] = exp(logits[i, j]) / sum(exp(logits[i]))}}} * exponential은 항상 양의 값을 가지며 단조 증가한다는 특징을 가지기 때문에 확률 계산에 적합하다. * None * TensorFlow에서 지원하는 기능 * 예를 들어 784,00개의 데이터를 넣어주면 자동으로 행렬이 100 * 784로 형성된다. * TensorFlow에서는 행렬과 백터의 합이 지원이 된다. * 정확히는 m*n 크기의 행렬 A에 n*1의 백터 B를 더하면 m개의 행에 각각 백터 B가 더해진다. * TensorFlow API * https://www.tensorflow.org/versions/master/api_docs/python/math_ops.html#reduce_sum * 가장 중요한 것은 graph의 shape == 후기 == * [서지혜]: softmax의 정의를 오늘 처음 보고 멘붕했다. Sigmoid에 집착하고 있었다. * [강민승]: Matrix의 형태(행, 열)가 어떻게 변하는지를 이용해 연산의 흐름을 잡는게 중요하다고 들었으나 아직 머릿속에서 정리가 잘 안된다. * [유재범] : 행렬 연산 설명을 들어서 비교적 설명이 빠르게 이해가 되었다. 그러나 아무리 봐도 예시 코드 없이 코딩 하는건 힘들어 보인다(...) == 다음 시간에는 == * Logistic Regression Live Coding? == 더 보기 == * [https://github.com/aymericdamien/TensorFlow-Examples/blob/master/examples/2%20-%20Basic%20Classifiers/logistic_regression.py Logistic Regression in Tensorflow Examples] ------- [활동지도/2016], [머신러닝스터디/2016]