E D R , A S I H C RSS

졸지말고 딥러닝 (rev. 1.10)

졸지말고 딥러닝

졸지말고 딥러닝


일시

  • 2016 / 03 / 29 - 화요일 오후 7시

강사

  • 변형진 선배님

내용

  • 딥러닝이 무엇인지 설명해주고 어떤 원리로 작동하는 지에 대한 설명


세부 내용


확률적 모델링: 확률적 모델링을 통해 딥러닝을 할 수 있음.

Supervised: H: x → y (H: hypothesis, x: 입력 데이터, y: 출력 데이터)
-x 라는 입력데이터가 주어졌을 때 그에 해당하는 출력인 y를 알려주고
x를 입력했을 때 y라는 데이터가 나올 수 있는 가설을 세우고
그 차이를 줄이는 것.

Unsupervised: 위의 식에서 y가 없고 x만 존재.
이 경우 x에서 특징들을 찾아내어 분석

Reinforcement: 알파고의 자기 학습을 예로 들면,
알파고가 바둑을 두었을 경우 그 경우가 좋은 경우인지 나쁜 경우인지
나중에 reward를 알려줌.
이를 설명하면
어떠한 상태 S(t)는 어떠한 행동 A(t)에 의해 S(t+1)로 변하게 되는데
이 경우가 좋은 지 나쁜지는 나중에 결과로 알 수 있음.
나중에 PS(t),A(t):reward 로 GOOD / BAD 를 알려줌.

//오늘은 자세히 설명을 안하신다고 언급

Clustering: 어떠한 기준으로 군집합을 나누는 데 이 때 기준을 미리 정해주지 않는다.
이 때 기준은 데이터들 간의 수학적 거리를 통해 정해진다.
군집합을 나누는 기법에는 여러 기법이 있다.

Classification: 이 방법은 분류 기준이 주어지는 데
예를 들면, 사람들을 안경을 쓴 사람과 안 쓴 사람을 구분한다고 하자.
그러면 안경을 쓴 사람들의 사진과 안경을 안 쓴 사람들의 사진을 보여주고
그 차이를 학습시킨다. 그 후 새로운 사람 데이터를 주었을 때
이 사람이 안경을 쓴 사람인지 안 쓴 사람인지 구분

선형 회귀: y = wx + b (w,x: linear combination)
Upload new Attachment "\Users\CAUCSE\Pictures\Image" on the "C" Data\캡처.png
이산 분포 데이터들을 가지고 가정을 한다. 그러한 가정으로 가설을 세우고
실제의 값과 가설을 세워 나온 값들의 차이를 계산하여 그 차이를 최소화하는 것.

perceptron: 뉴론 네트워크의 기본으로 등장
y = w1x1 + w2x2 + ... + b
Valid XHTML 1.0! Valid CSS! powered by MoniWiki
last modified 2021-02-07 05:31:07
Processing time 0.0187 sec