[[TableOfContents]] = 스터디 설명 = 7월 6일 스터디는 * 1단원 내용을 위키에 정리하기 * 1-1 ~ 1-4 : [[박인서]] * 1-5 ~ 1-7 : [[전현욱]] * 1-8 ~ 1-10 : [[안재형]] * ~~??? : [[정진욱]]~~ = 스터디 내용 = * 단원명 * 단원 내용 식으로 작성해주시기 바랍니다. * 1.1 : Systems of Linear Equations * linear equation : a1x1 + a2x2 + a3x3 + ... + anxn = b 꼴로 나타내지는 방정식 * linear equation을 푸는 법 : 그래프 이용(하지만 변수가 4개 이상일 경우 힘듬), 행렬 이용 * linear equation의 해 : 없음, 1개, 무한대(consist와 uniqueness에 대해서 알면 됨) * 행렬 표현법 * coefficient matrix : 각 equation의 계수만 적어놓은 행렬 * augmented matrix : coefficient matrix에 상수항까지 적어놓은 행렬 * 행렬로 linear equation 풀기 : elementary row operations 이용 * Replacement : 한 row에 대해서 다른 row와 더하거나 빼는 것 * Interchange : 두개의 row를 변경 * Scaling : 한 row의 모든 entry에 특정 값을 곱함 * 1.2 : Row Reduction and Echelon Forms * echelon form * nonzero rows가 zero rows 위에 있어야 됨 * leading entry(pivot)이 왼쪽에 있는 것이 위로 가야됨 * leading entry 아래에 있는 column의 값은 0이여야 됨 * reduced echelon form * 기존의 row echelon form의 조건은 모두 만족 * leading entry가 1이여야 됨 * leading entry가 있는 column의 나머지 entry는 모두 0이여야 됨 * pivot position : echelon form을 만들 때 기준이 되는 position * row reduction algorithm : elementary row operations를 이용 * solution of linear system * basic variable : pivot position이 있는 variable * free variable : pivot position이 없는 variable * 1.3 : Vector Equations * vector : matrix의 각각의 column을 vector라고 볼 수 있음. * vector는 교환법칙, 결합법칙, 분배법칙이 성립한다. * linear combination : 각 vector의 스칼라 곱의 합(a1v1 + a2v2 + ... + anvn) * span : span{u, v} = 벡터 u, v를 linear combination 해서 만들 수 있는 벡터들의 집합 * 1.4 : The Matrix Equation Ax=b * matrix equation Ax=b * Ax = b <=> x1a1 + x2a2 + ... + xnan = b <=> [a1 a2 ... an b] * 1.5 : Solution Set of Linear Systems *Homogeneous Linear Systems *Ax=0 라는 Homogeneous 방정식이 있을 때, 방정식이 최소한 하나의 free variable이 있어야만 x가 zero vector가 아닌 해를 가진다. 즉 nontrivial solution을 가진다. *Parametric Vector Form *parametric vector equation은 x = su + tv(s,t in R)로 표현할 수 있다. 예를 들어서 x = tv(t in R)이라는 방정식은 직선의 방정식을 표현한 것이 된다. 만일 solution set이 x = s(3,1,2) + t(2,0,1)의 벡터형태로 표현된다면 그 solution을 parametric vector form이라 고 한다. * Ax=b와 Ax=0의 solution set관계 * Ax=b가 consistent하고, p를 solution이라고 가정한다. 그러면 Ax=b의 solution set은 v = p + h의 형태로 표현할 수 있다. 여기서 h 는 Ax=0의 solution이다. 다만 Ax=b는 nonzero solution인 p가 최소한 하나 이상있어야 한다. 만일 Ax=b가 해가 없다면 solution set 은 존재하지 않게된다. *1.6 : Applications Of Linear Systems *이 단원은 많은 솔루션을 갖춘 linear system이 우리들의 일상생활에서 어떻 형태로 나타나는지 가르쳐준다. 경제학, 화학반응식, 네트 워크의 흐름등이 이 책에서 예시로 나왔다. 내용의 특성상 간단하게 경제학으로 예시를 들겠다. *국가의 경제를 구성하는 요소 중에는 물품생산, 통신, 오락, 서비스 등이 있다. 우리가 각 영역의 1년 동안의 총 output을 알고, 그 output들이 다른 분야로 배분되고, 다른 분야와 교환되는 양을 한다고 가정한다. 그렇다면 우리는 각 영역의 소득이 정확한 균형을 이루 도록 할 수 있는 평형가격을 구할 수 있다. *문제를 꼭 풀어보길 바랍니다. (제발) *추천하는 문제는 David C.Lay - Linear Algebra and its applications에서 1.6장 exercise 문제 4번이다. 정답은 저에게 문의하시길. *1.7 : Linear Independence *Independent *{v1,v2,......vp}라는 벡터들의 집합이 Rn에 있다고 가정했을 때, x1v1 + x2v2 + ...... + xpvp = 0이라는 vector equation에서 x=0이 라는 trivial solution만 존재한다면 이것을 linearly independent하다고 표현한다. *Dependent *{v1,v2,......vp}라는 벡터들의 집합이 Rn에 있다고 가정했을 때, c1v1 + c2v2 + ...... + cpvp = 0에서 c1...cp중에서 하나라도 0이 아닌 것이 존재한다면 이것을 linearl dependent라고 표현한다. *Linear Independence of Matrix Columns *Matrix A = {a1...an}(여기서 a1...an은 각각 A의 column vector이다)라고 해보자. 그러면 Ax=0를 x1a1 + x2a2 +....+ xnan으로 표현할 수 있는데, 여기서 x1...xn이 모두 0인 경우에 A가 linearly independent가 된다. *Sets of One or Two Vectors *벡터v가 1개 있을 때, v가 0이 아니라면 linearly independent하다. 벡터 2개 {v1,v2}가 있을 때 한 벡터가 다른 벡터의 스칼라배(예를 들어서 v1=2v2)라면 dependent하고, 그렇지 않다면 independent하다. *Sets of Two or More Vectors *S={v1....vp}라는 벡터집합에서 적어도 하나의 벡터를 다른 벡터들의 combination으로 만들 수 있다면, dependent라고 한다. *보충내용 *만약에 각 vector의 원소개수보다 column vector의 수가 더 많다면, 무조건 linearly dependent하다. *왜냐하면 이 경우에는 방정식보다 미지수의 수가 더 많게 되고, 무조건 free variable이 생기기 때문이다. free variable이 생기면 nontrivial한 solution set이 생기고 이것은 dependent하다는 것을 의미하게 된다. *만약에 S={v1....vp}라는 집합에서 zero vector가 존재한다면 linearly dependent하다. * 1-8 Introduction to Linear Transformations * The meaning of Transformation * 특정 함수 T(x) = Ax 를 통해 벡터 x 를 b로, u를 0 으로 변환하는 것 * 낮은 차원에서 높은 차원으로, 높은 차원에서 낮은 차원으로 모두 Transformation 가능하다. * 같은 차원끼리의 Transformation을 shear transformation이라고 부른다. * The image of u under the transformation T 는 T(u) 를 뜻하는 것과 같은 의미이다. * Properties of Linear Transformation * A(u + v) = A(u) + A(v) * A(cu) = cA(u) ~~c는 상수~~ * superposition principle {{{T(c1v1 + ... + cpvp) = c1T(v1) + ... + cpT(vp)}}} * Transformation 기호 * {{{x|->Ax}}}를 Transformation 기호로 정함. * 1-9 The Matrix of a Linear Transformation * Theorem of Transformation * n차원 Identity Matrix 인 I의 1번째 열을 e1, ..., n번째 열을 en이라고 가정한다. * T(x)=Ax 일 때 * {{{A=[T(e1) ... T(en)]}}}이 된다. * Definitions * Rn |-> Rm 일 때, Rn을 Domain, Rm을 Range라고 한다. * Onto : * One-to-one : Domain과 Range가 일대일 대응할 때(Domain의 여러 점이 하나로 모이지 않을 때) * Other Theoremes about Definitions of Transformation * T(x)=0이 trivial solution을 갖고있다면(0이 하나라도 포함된 solution), T는 ont-to-one이다. * 그 반대의 경우도 성립한다. * T : Rn->Rm 에서 A의 column들이 Rm으로 span된다면 T는 Rn에서 Rm으로 onto된다. * T : Rn->Rm 에서 A의 column들이 independent하다면 T는 One-to-one이다. * 1-10 Linear Models in Business, Science and Engineering * Kirchhoff's Voltage Law * 전기회로에서 전압 V, 전류 I, 저항 R 사이의 값을 나타내는 식 * The algebraic sum of the RI voltage drops in one direction around a loop equals the algebraic sum of the voltage sources in the same direction around the loop * Difference Equations = 다음 차시 =