[[TableOfContents]] = 스터디 설명 = 7ì›” 20ì¼ ìŠ¤í„°ë””ëŠ” * 3단ì›(Determinant)와 6단ì›(Orthogonality and Least Squares) ì •ë¦¬í•˜ê¸° * 3ë‹¨ì› : [[ë°•ì¸ì„œ]] * 6-1 ~ 6-3 : [[ì „í˜„ìš±]] * 6-4 ~ 6-7 : [[ì •ì§„ìš±]] = 스터디 ë‚´ìš© = * 단ì›ëª… * ë‹¨ì› ë‚´ìš© ì‹ìœ¼ë¡œ 작성해주시기 ë°”ëžë‹ˆë‹¤. * 3.1 : Introduction to Determinants * Determinants ê°€ 나오게 ëœ ë°°ê²½ : í–‰ë ¬ ìžì²´ì˜ ê°’ì„ ë¹„êµí•´ì•¼ ë í•„ìš”ì„±ì´ ìƒê²¨ì„œ * 2 by 2 Matrixì˜ Determinant 구하는 법 : ad - bc * 3 by 3 ì´ìƒ Matrixì˜ Determinant 구하는 법 : 한 row를 기준으로 2X2 í–‰ë ¬ë¡œ 3개를 쪼개서 + - +를 하는 ì‹ìœ¼ë¡œ 계산 * ex) detA = a11detA11 - a12detA12 + a13detA13(3X3 í–‰ë ¬ì˜ ê²½ìš°) * 3.2 : Properties of Determinants * Row Operationì— ë”°ë¥¸ Determinant ê°’ì˜ ë³€í™” * Replacement : 놀ëžê²Œë„ 아무 변화 ì—†ìŒ * Interchange : 부호가 반대가 ë¨ * Scaling : 곱한 ê°’ë§Œí¼ Determinantë„ ê³±í•´ì§€ê²Œ ë¨ * Determinantê°€ 0ì´ ì•„ë‹ˆë©´ A는 invertiable하다. * Matrix를 Transpose를 í•´ë„ Determinant ê°’ì€ ê·¸ëŒ€ë¡œë‹¤. * det AB = det A * det B * 3.3 : Cramer's Rule, Volume, and Linear Transformations * Cramer's Rule : ë°©ì •ì‹ì„ 빨리 풀기 위한 해법 * Aí–‰ë ¬ì˜ jì—´ì„ ë²¡í„° b로 치환 한 í–‰ë ¬ì„ Aj(b)ë¼ í‘œê¸° * xi=detAi(b)/detAê°€ ëœë‹¤. * ì–´ë– í•œ ë„“ì´ë‚˜ 부피를 나타내는 í–‰ë ¬ Sì„ Linear Transformationì„ ì‹œí‚¬ 경우 * area of T(S) = area of S * abs(detA) * 6.1 : Inner Product, Length, and Orthogonality * The Inner Product * Rn ê³µê°„ì— ë²¡í„° u와 vê°€ 존재하면 ì´ê²ƒë“¤ì„ nx1 matrices ë¼ê³ ìƒê°í• 수 있다. ì´ ë•Œ u'v는 1x1 matrixê°€ ë˜ëŠ”ë° ì´ê²ƒì„ u와 vì˜ inner product(ë‚´ì )ë¼ê³ 한다. ì´ ê°’ì€ ì‹¤ìˆ˜ì´ë©°, 표기는 u·v 로 한다. * u,v,w를 Rnì— ìžˆëŠ” 벡터, cê°€ 스칼ë¼ì¼ 때 * u·v = v·u * (u+v)·w = u·w + v·w * (cu)·v = c(u·v) = u·(cv) * u·u >= 0 ì´ê³ , u·u=0ì€ u=0 ì¼ ë•Œë§Œ 성립한다. * The Length of a Vector * 벡터 vì˜ ê¸¸ì´ëŠ” ∥v∥= √v·v ì´ê³ ∥v∥^2 = v·v ì´ë‹¤. * 길ì´ê°€ 1ì¸ ë²¡í„°ë¥¼ unit vector ë¼ê³ 한다. * 0ì´ ì•„ë‹Œ 벡터 vê°€ ìžˆì„ ë•Œ, unit vectorì¸ u = (1/∥v∥)∥v∥ ì´ë‹¤. * Distance in Rn * Rnì— ì¡´ìž¬í•˜ëŠ” 벡터 u, v 사ì´ì˜ 거리는 dist(u,v)ë¼ê³ 쓴다. 즉 dist(u,v) = ∥u-v∥ * Orthogonal Vectors * Rnì— ì¡´ìž¬í•˜ëŠ” 벡터 u, vê°€ ìžˆì„ ë•Œ, u·v = 0ì´ë©´, ë‘ ë²¡í„°ëŠ” orthogonal 하다. * ë‘ ë²¡í„° u, vì—서 ∥u+v∥^2 = ∥u∥^2 + ∥v∥^2 ì´ë©´, ë‘ ë²¡í„°ëŠ” orthogonal 하다. * mxn matrix Aì—서 Aì˜ row space와 null space는 orthogonalí•˜ê³ , Aì˜ column space와 left nullspace는 orthogonalì´ë‹¤. * 6.2 : Orthogonal Sets * Orthogonal Set ì •ì˜ * Rnì˜ ë²¡í„° ì§‘í•©{u1, u2 , .... up}ì—서 ui ·uj = 0 (i≠j) ì´ë©´ orthogonal setì´ë¼ê³ 한다. * Rnì—서 S = {u1, u2 , .... up}ê°€ 0ì´ ì•„ë‹Œ orthogonal setì´ë¼ë©´, S는 linearly independentì´ê³ , Sì— ì˜í•´ spanëœ subspaceì˜ basisê°€ ëœë‹¤. * An Orthogonal Projections * Rnì— 0ì´ ì•„ë‹Œ 벡터 uê°€ ìžˆê³ , Rnì— ì¡´ìž¬í•˜ëŠ” 벡터 y를 ë‘ ë²¡í„°ë¡œ ë¶„í•´í•œë‹¤ê³ ìƒê°í•´ë³´ìž. y를 uì˜ ìŠ¤ì¹¼ë¼ ê³±ì¸ ë²¡í„°ì™€, u와 orthogonal한 벡터로 분해한다. y = p + z ê¼´ * 벡터 y를 uì— projection한 벡터를 pë¼ê³ 하ìž. 그러면 p = (y·u/u·u) * u 로 ì •ì˜ëœë‹¤. * 예시) y=(7,6), u=(4,2)ë¼ê³ 한다. 그러면 * y·u = 40, u·u = 20ì´ë‹¤. p = (40/20) * u ì´ë¯€ë¡œ (8,4)ê°€ ëœë‹¤. * uì— orthogonal한 벡터 yì˜ ì„±ë¶„ì€ y-p = (-1,2) ì´ë‹¤. ë”°ë¼ì„œ y = (8,4)+(-1,2)로 ë¶„í•´í• ìˆ˜ 있다. * (8,4)는 p, (-1,2)는 zì´ë‹¤. * Orthonomal Sets * Rnì˜ ë²¡í„° ì§‘í•©{u1, u2 , .... up}ì—서 ë²¡í„°ë“¤ì´ unit vectorì´ë©´ orth onomal setì´ë¼ê³ 한다. * W를 ìœ„ì˜ ë²¡í„°ì§‘í•©ì— ì˜í•´ spanëœ subspaceë¼ê³ 하면, {u1, u2 , .... up}는 orthonomal basis ì´ë‹¤. * mxn matrix Uê°€ ìžˆì„ ë•Œ, U'U = I ì´ë©´ matrix U는 orthonomal columnsì„ ê°€ì§„ë‹¤. * Uê°€ orthonomal columns를 가진 mxn matrixì´ê³ , x와 yê°€ Rnì— ìžˆì„ ë•Œ * ∥Ux∥ = ∥x∥ * (Ux)·(Uy) = x·y * x·y=0 ì¼ ë•Œë§Œ, (Ux)·(Uy) = 0 ì´ë‹¤. * 6.3 Orthogonal Projections * Orthogonal Decomposition * W를 Rnì˜ subspaceë¼ê³ 하면 Rnì— ìžˆëŠ” y는 y = p + z로 쓸 수 있다. * p는 Wì— ì¡´ìž¬í•˜ê³ , z는 W와 ì§êµì¸ ê³µê°„ì— ì¡´ìž¬í•œë‹¤. * ë§Œì¼ {u1, u2 , .... up}ê°€ Wì˜ orthogonal basisë¼ë©´ p = (y·u1/u1·u1)*u1 + ... + (y·up/up·up)*up ì´ê³ , z = y-pì´ë‹¤. * 벡터 p는 orthogonal projection of y onto Wë¼ê³ 부른다. * Properties of Orthogonal Projections * p는 W공간ì—서 yì— ê°€ìž¥ 가까운 ì ì´ ëœë‹¤. W공간ì—서 pê°€ 아닌 ëª¨ë“ vì— ëŒ€í•´ ∥y-p∥< ∥y-vâˆ¥ì´ ì„±ë¦½í•˜ê¸° 때문ì´ë‹¤. * 6.4 The Gram-Schmdit Process * Gram-Schmdit * R^n ì˜ nonzero subspace ì— orthogonal í˜¹ì€ orthogonal basis 를 만드는 ì•Œê³ ë¦¬ì¦˜ * 2ì°¨ì›ìƒì˜ 벡터 3ì°¨ì›ìƒì˜ 벡터를 ì˜ˆì œë¡œ nì°¨ì›ì˜ 벡터를 ì¼ë°˜í™” í• ìˆ˜ 있게 해줌 * ì¼ë°˜í™” ì‹ : v(n+1)=x(n+1) - projw(n) x(n+1) * Orthogonal basis * ì†ìœ¼ë¡œ ì§ì ‘ ë¬¸ì œë¥¼ í’€ 경우 ê³„ì‚°ì˜ íŽ¸ë¦¬ì„±ì„ ìœ„í•´ vector를 basisí™” 해주는 ê²ƒì´ ë” íŽ¸í•˜ë‹¤. * u = (1/∥v∥) * v * QR Factorization of Matrices * Matrix A (m*n) ê°€ linear independent ì¼ë•Œ, A= QR 로 나타낼 수 있다. * Q (m*n) : Col A ì˜ basis Columns ì´ë‹¤ * R (n*n) : upper triangular invertible matrix ( with positive entries on diagonal ) ì´ë‹¤. * A= QR ì„ ì´ìš©í•˜ì—¬ Q^T*A= Q^T(Q*R) 즉, R= Q^T * A 로 구해낼 수 있다. * 6.5 Least-Square Problems * Least-Square Problems * Ax=b ì˜ í•´ê°€ 존재하지 ì•Šì„ ë•Œ, ê·¼ì‚¿ê°’ì„ êµ¬í•˜ëŠ” 방법ì´ë‹¤. * ∥b-Ax∥ ì˜ ê°’ì´ ë” ìž‘ì„ ìˆ˜ë¡ ë” ì •í™•í•œ ê·¼ì‚¿ê°’ì´ ë‚˜ì˜¨ë‹¤. * ∥b-Ax^âˆ¥ì˜ ê°’ì€ âˆ¥b-Axâˆ¥ì˜ ê°’ë³´ë‹¤ í•ìƒ ìž‘ê±°ë‚˜ 같다. * xì— ìƒê´€ì—†ì´ Ax는 í•ìƒ ColAì˜ column spaceê°€ ë¼ì•¼ 한다. ( bë„ ë§ˆì°¬ê°€ì§€ë¡œ column spaceê°€ ë¼ì•¼ 한다.) * Solution of Least-Square Problems * b^= proj colA b ë¼ê³ ì •í•œë‹¤ë©´, b^ ê°€ colAì˜ column space ì´ë¯€ë¡œ Ax=b^ ì´ ì„±ë¦½ì´ ëœë‹¤. * b^ê°€ col Aì˜ bì— ê°€ìž¥ ê·¼ì ‘í•˜ë¯€ë¡œ x^ë„ Ax=bì— ê°€ìž¥ ê·¼ì ‘í•œ ê°’ì´ ëœë‹¤. * aj ê°€ Aì˜ columnì´ë¼ê³ 한다면 aj * (b-Ax^) = 0 ì´ ë˜ê³ , aj^T * ( b-Ax^) =0 ì´ ëœë‹¤. ë”°ë¼ì„œ A^T(b-Ax^)=0 ì„ ë§Œì¡±í•˜ê³ , A^T*A*x^=A^T * b 로 나타 낼 수 있다. * A^T*A*x^=A^T * b 를 만족하는 x^를 찾아낸다면 ê·¸ê²ƒì´ Ax=b ì˜ ê·¼ì‚¿ê°’ x^ì´ ëœë‹¤. * Alternative Calculation of Least-Square Solutions * Aê°€ orthogonal ì¼ë•Œ ì˜ ê³„ì‚°ë°©ë²•ì¤‘ 하나ì´ë‹¤. * A^T * A ì˜ ê³„ì‚°ì—서 ì•½ê°„ì˜ ì‹¤ìˆ˜ê°€ x ì˜ ê°’ì„ êµ¬í• ë•Œ í° ì˜¤ì°¨ê°€ ë°œìƒ í• ìˆ˜ 있으므로 A=Q*R로 바꿔서 계산하는 ê²ƒì´ ë” ì •í™•í•˜ë‹¤. * Ax^ = QRx^ = QR*R^(-1)*Q^T*b = Q*Q^T*b * QR*x^ = Q*Q^T*b * R*x^ = Q^T*b * 6.6 Application To Linear Models * Application To Linear Models * ìž„ì˜ì˜ Data point를 ì§ì„ , í¬ë¬¼ì„ , ê³¡ì„ í˜•íƒœì˜ ë°©ì •ì‹ìœ¼ë¡œ ê·¼ì‚¿ê°’ì„ êµ¬í•˜ëŠ” ì˜ˆì œë¥¼ 실어 놓았다. * 6.7 Inner Product Spaces * Inner Product Spaces * ---- ë‚´ì ì´ë¼ëŠ”ê²ƒì€ ì•Œê² ìœ¼ë‚˜, ì±…ì˜ ë‚´ìš©ì„ ìž˜ ëª¨ë¥´ê² ìŒ. ì¢€ë” ê³µë¶€í•œ í›„ì— ë‹¤ì‹œ ì˜¬ë¦¬ê² ìŠµë‹ˆë‹¤