[ë¨¸ì‹ ëŸ¬ë‹ìŠ¤í„°ë””/2016] [ë¨¸ì‹ ëŸ¬ë‹ìŠ¤í„°ë””/2016/목차] == ë‚´ìš© == * ì²«ë‚ ì— ëª» 온 ì‚¬ëžŒì„ ìœ„í•´ ì²«ë‚ ì— í•œ 얘기를 복습함. * PCA * H(가설 함수)ê°€ H(x) = wx + bì´ê³ Cost function J는 기대값 H(x)와 ì‹¤ì œê°’ yì˜ ì°¨ì˜ ì œê³±ë“¤ì˜ ì´í•©ì´ ëœë‹¤(Mean squared error). * ì´ë•Œ Gradient descent는 w, b, J(x)ì— ëŒ€í•´ 3ì°¨ì› ê·¸ëž˜í”„ë¡œ 나타내어진다. * ë™ì˜ìƒ 분량 ì¡°ì ˆì„ ìž˜ëª»í•´ì„œ Gradient descent를 ë까지 본 ì‚¬ëžŒì´ ì—†ì—ˆë‹¤. * ë™ì˜ìƒì„ 가장 ë§Žì´ ë³¸ 사람([서지혜])ê°€ Linear regressionê³¼ Cost function(Loss function), Gradient descentê°„ì˜ ê´€ê³„ë¥¼ 설명함. == 후기 == * [ì´ì›ì¤€]: í•˜ê³ ì‹¶ì€ ì§ˆë¬¸ì„ ë‹¤ í•´ì„œ 만족스럽다. 네ì´ë²„ d2 ì‹ ì²í•´ë³´ë©´ 어떨까합니다. * [ìœ ìž¬ë²”] í•œ ì‚¬ëžŒì˜ ì§„ì·¨ë„ê°€ 월등히 높지 ì•Šì•„ì„œ 누가 ëŒê³ 가는게 아니니까 모여서 ì˜ìƒì„ 보는게 어떨까요. * [김수경]: ì´ë²ˆì£¼ ë°”ë¹ ì„œ 다ìŒì£¼ë¶€í„°ëŠ” 열심히 ë³¼ 수 ìžˆì„ ê²ƒ 같다. 다ìŒì£¼ì—는 ë‚´ê°€ 모르는걸 물어보거나, ë‚´ê°€ 본 ë‚´ìš©ì„ ì•Œë ¤ì£¼ëŠ”ê²Œ 어떨까. 준비를 í•´ 왔으면 ì¢‹ê² ë‹¤. í•œ 사람씩 반드시 ì„¤ëª…ì„ í•˜ê±°ë‚˜, ì§ˆë¬¸ì„ í•˜ê±°ë‚˜. * [강민승]: ì˜ìƒì„ ë§Žì´ ë´ì•¼ê² 다. 한글 위주로 보았었다. 다른 사람한테 ë§í• 수 ìžˆì„ ì •ë„ë¡œ 준비 í•´ ì˜¤ê² ë‹¤. * [서지혜]: ìŠ¤í„°ë””ì— ëŒ€í•œ 부담ê°ì´ 조금(개미꼬딱지만í¼) 있다. ì§€ê¸ˆë„ ê¹ê¹í•¨. 초반ì´ë¼ 별로 í• ì´ì•¼ê¸°ê°€ 없는듯. == ë‹¤ìŒ ì‹œê°„ì—는 == IV. Linear Regression with Multiple Variables (Week 2) 까지 ì˜ìƒì„ ë³´ê³ ì˜µì‹œë‹¤. == ë” ë³´ê¸° == * [http://stackoverflow.com/questions/18191890/why-gradient-descent-when-we-can-solve-linear-regression-analytically why-gradient-descent-when-we-can-solve-linear-regression-analytically] * [http://stats.stackexchange.com/questions/23128/solving-for-regression-parameters-in-closed-form-vs-gradient-descent solving-for-regression-parameters-in-closed-form-vs-gradient-descent] ------- [활ë™ì§€ë„/2016], [ë¨¸ì‹ ëŸ¬ë‹ìŠ¤í„°ë””/2016]