머신러닝스터디/2016
머신러닝스터디/2016/목차
내용
¶
첫날에 못 온 사람을 위해 첫날에 한 얘기를 복습함.
PCA
H(가설 함수)가 H(x) = wx + b이고 Cost function J는 기대값 H(x)와 실제값 y의 차의 제곱들의 총합이 된다(Mean squared error).
이때 Gradient descent는 w, b, J(x)에 대해 3차원 그래프로 나타내어진다.
동영상 분량 조절을 잘못해서 Gradient descent를 끝까지 본 사람이 없었다.
동영상을 가장 많이 본 사람(
서지혜
)가 Linear regression과 Cost function(Loss function), Gradient descent간의 관계를 설명함.
후기
¶
이원준
: 하고싶은 질문을 다 해서 만족스럽다. 네이버 d2 신청해보면 어떨까합니다.
유재범
한 사람의 진취도가 월등히 높지 않아서 누가 끌고 가는게 아니니까 모여서 영상을 보는게 어떨까요.
김수경
: 이번주 바빠서 다음주부터는 열심히 볼 수 있을 것 같다. 다음주에는 내가 모르는걸 물어보거나, 내가 본 내용을 알려주는게 어떨까. 준비를 해 왔으면 좋겠다. 한 사람씩 반드시 설명을 하거나, 질문을 하거나.
강민승
: 영상을 많이 봐야겠다. 한글 위주로 보았었다. 다른 사람한테 말할 수 있을 정도로 준비 해 오겠다.
서지혜
: 스터디에 대한 부담감이 조금(개미꼬딱지만큼) 있다. 지금도 깝깝함. 초반이라 별로 할 이야기가 없는듯.
다음 시간에는
¶
IV. Linear Regression with Multiple Variables (Week 2) 까지 영상을 보고 옵시다.
더 보기
¶
why-gradient-descent-when-we-can-solve-linear-regression-analytically
(http://stackoverflow.com/questions/18191890/why-gradient-descent-when-we-can-solve-linear-regression-analytically)
solving-for-regression-parameters-in-closed-form-vs-gradient-descent
(http://stats.stackexchange.com/questions/23128/solving-for-regression-parameters-in-closed-form-vs-gradient-descent)
활동지도/2016
,
머신러닝스터디/2016
Retrieved from http://wiki.zeropage.org/wiki.php/머신러닝스터디/2016/2016_03_26
last modified 2021-02-07 05:29:26