== 내용 == * 첫날에 못 온 사람을 위해 첫날에 한 얘기를 복습함. * PCA * H(가설 함수)가 1차 방정식을 가져도 Gradient descent를 풀 때에는 3차 방정식이 된다. * 동영상 분량 조절을 잘못해서 Gradient descent를 끝까지 본 사람이 없었다. * 동영상을 가장 많이 본 사람([서지혜])가 Linear regression과 Cost function(Loss function), Gradient descent간의 관계를 설명함. == 후기 == * [이원준]: 하고싶은 질문을 다 해서 만족스럽다. 네이버 d2 신청해보면 어떨까합니다. * [유재범] 한 사람의 진취도가 월등히 높지 않아서 누가 끌고 가는게 아니니까 모여서 영상을 보는게 어떨까요. * [김수경]: 이번주 바빠서 다음주부터는 열심히 볼 수 있을 것 같다. 다음주에는 내가 모르는걸 물어보거나, 내가 본 내용을 알려주는게 어떨까. 준비를 해 왔으면 좋겠다. 한 사람씩 반드시 설명을 하거나, 질문을 하거나. * [강민승]: 영상을 많이 봐야겠다. 한글 위주로 보았었다. 다른 사람한테 말할 수 있을 정도로 준비 해 오겠다. * [서지혜]: 스터디에 대한 부담감이 조금 있다. 지금도 깝깝함. == 다음 시간에는 == IV. Linear Regression with Multiple Variables (Week 2) 까지 영상을 보고 옵시다. ------- [머신러닝스터디/2016]