[머신러닝스터디/2016]
[머신러닝스터디/2016/목차]
== ë‚´ìš© ==
 * [https://github.com/aymericdamien/TensorFlow-Examples/blob/master/examples/2%20-%20Basic%20Classifiers/logistic_regression.py Logistic Regression(Binary Regression)]

 https://upload.wikimedia.org/math/8/e/a/8ea0a810cfcd0c3dfec49306e214e301.png
 * Softmax
  * exponential을 쓴다. 
  * 아래는 Tensorflow API 정의
 {{{softmax[i, j] = exp(logits[i, j]) / sum(exp(logits[i]))}}}
   * exponential은 항상 양의 값을 가지며 단조 증가한다는 특징을 가지기 때문에 확률 계산에 적합하다.

 * None
  * TensorFlow에서 지원하는 기능
  * 예를 들어 784,00개의 데이터를 넣어주면 자동으로 행렬이 100 * 784로 형성된다.
 * TensorFlow에서는 행렬과 백터의 합이 지원이 된다.
  * 정확히는 m*n 크기의 행렬 A에 n*1의 백터 B를 더하면 m개의 행에 각각 백터 B가 더해진다.
 * TensorFlow API
  * https://www.tensorflow.org/versions/master/api_docs/python/math_ops.html#reduce_sum

 * 가장 중요한 것은 graph의 shape
== 후기 ==
 * [서지혜]: softmax의 정의를 오늘 처음 보고 멘붕했다. Sigmoid에 집착하고 있었다.
 * [강민승]: Matrix의 형태(행, 열)가 어떻게 변하는지를 이용해 연산의 흐름을 잡는게 중요하다고 들었으나 아직 머릿속에서 정리가 잘 안된다. 
 * [유재범] : 행렬 연산 설명을 들어서 비교적 설명이 빠르게 이해가 되었다. 그러나 아무리 봐도 예시 코드 없이 코딩 하는건 힘들어 보인다(...)
== 다음 시간에는 ==
 * Logistic Regression Live Coding?
== 더 보기 ==
 * [https://github.com/aymericdamien/TensorFlow-Examples/blob/master/examples/2%20-%20Basic%20Classifiers/logistic_regression.py Logistic Regression in Tensorflow Examples]
-------
[활동지도/2016], [머신러닝스터디/2016]